2016 - 2024

感恩一路有你

pyspark中文文档 spark上怎么讲读取的数据的某几行合并成一行,新手?

浏览量:1696 时间:2021-03-14 03:31:14 作者:admin

spark上怎么讲读取的数据的某几行合并成一行,新手?

#RDD指定的行数据在spark中拼接,RDD合并为一行。Python实现frompyparkimportsparkcontextsc=sparkcontext(“local”,“myapp”)行=sc.并行化([[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12

pyspark用dataframe还是rdd好?

数据帧比RDD快。对于结构化数据,用dataframe编写的代码更简洁。

对于非结构化语音数据,建议使用RDD将其处理为结构化数据,然后转换为数据帧。

pyspark中文文档 spark rdd pyspark和spark的区别

版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。