|
本帖最后由 内容分析应用 于 2021-8-31 14:58 编辑
spark计算结果如果需要写入hadoop的HDFS, 则调用对应的api:
- #!coding:utf-8
- import sys
- from hdfs.client import Client
- #设置utf-8模式
- reload(sys)
- sys.setdefaultencoding( "utf-8" )
- #关于python操作hdfs的API可以查看官网:
- #https://hdfscli.readthedocs.io/en/latest/api.html
-
- #追加数据到hdfs文件
- def append_to_hdfs(client,hdfs_path,data):
- client.write(hdfs_path, data,overwrite=False,append=True)
-
- #覆盖数据写到hdfs文件
- def write_to_hdfs(client,hdfs_path,data):
- client.write(hdfs_path, data,overwrite=True,append=False)
-
- #移动或者修改文件
- def move_or_rename(client,hdfs_src_path, hdfs_dst_path):
- client.rename(hdfs_src_path, hdfs_dst_path)
复制代码
|
|