阅读量:0
在 Apache Spark 中,可以使用 toDF() 方法将数据从 DataFrame 转换为 Dataset。为了校验转换后的数据,可以使用以下方法:
- 使用
show()方法打印数据集:
from pyspark.sql import SparkSession
# 创建 Spark 会话
spark = SparkSession.builder \
.appName("DataFrame to Dataset Example") \
.getOrCreate()
# 创建一个简单的 DataFrame
data = [("Alice", 34), ("Bob", 45), ("Cathy", 29)]
columns = ["Name", "Age"]
df = spark.createDataFrame(data, columns)
# 将 DataFrame 转换为 Dataset
dataset = df.as[Person]
# 打印数据集
dataset.show()
- 使用
count()和collect()方法检查数据集的大小和内容:
# 计算数据集的大小
count = dataset.count()
print(f"Dataset count: {count}")
# 收集数据集到驱动程序内存,以便查看具体内容
collected_data = dataset.collect()
print("Collected data:")
for row in collected_data:
print(row)
- 使用
filter()方法对数据集进行过滤,然后使用show()方法查看过滤后的结果:
# 定义一个简单的 Person 类
from pyspark.sql.types import StructType, StructField, StringType, IntegerType
schema = StructType([
StructField("Name", StringType(), True),
StructField("Age", IntegerType(), True)
])
class Person:
def __init__(self, name, age):
self.name = name
self.age = age
def __repr__(self):
return f"Person(name={self.name}, age={self.age})"
# 将 DataFrame 转换为 Dataset
dataset = df.as[Person]
# 过滤年龄大于等于 30 的数据
filtered_dataset = dataset.filter(dataset.age >= 30)
# 打印过滤后的数据集
filtered_dataset.show()
通过这些方法,可以校验转换后的数据集是否符合预期。
以上就是关于“spark todf 数据转换如何校验”的相关介绍,筋斗云是国内较早的云主机应用的服务商,拥有10余年行业经验,提供丰富的云服务器、租用服务器等相关产品服务。云服务器资源弹性伸缩,主机vCPU、内存性能强悍、超高I/O速度、故障秒级恢复;电子化备案,提交快速,专业团队7×24小时服务支持!
简单好用、高性价比云服务器租用链接:https://www.jindouyun.cn/product/cvm