忘记密码   免费注册 查看新帖 |

ChinaUnix.net

  平台 论坛 博客 文库 频道自动化运维 虚拟化 储存备份 C/C++ PHP MySQL 嵌入式 Linux系统
最近访问板块 发新帖
查看: 4184 | 回复: 0

[Spark] spark 新手,请教spark 如何写二进制文件到hdfs [复制链接]

论坛徽章:
0
发表于 2018-03-14 20:58 |显示全部楼层
本帖最后由 tianhailong 于 2018-03-14 21:01 编辑

我目前做一个spark 应用开发,
读取一些点云数据(二进制格式),随后做一系列处理后
保存为普通的二进制文件,保存在 hdfs上边,

我使用python 开发,通过hadoop 文件api 写文件到hdfs
    Path = sc._gateway.jvm.org.apache.hadoop.fs.Path
    FileSystem = sc._gateway.jvm.org.apache.hadoop.fs.FileSystem
    Configuration = sc._gateway.jvm.org.apache.hadoop.conf.Configuration


def save_file_content(fileContent, fileName, savePath, Path, FileSystem, Configuration):
      fs = FileSystem.get(Configuration())
      output = fs.create(Path(savePath + "/" + fileName))
  
      output.write(bytearray(fileContent))
      output.close()
  
但是这个只能在driver 机器执行,我把rdd 放在 driver 机器遍历写入,
content = rdd.collect()
for i in content:
    save(i, savePath, Path, FileSystem, Configuration)

但是这种方式数据量大时会内存溢出,请问有什么更好的方向写入hdfs 吗?

您需要登录后才可以回帖 登录 | 注册

本版积分规则

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号 北京市公安局海淀分局网监中心备案编号:11010802020122
广播电视节目制作经营许可证(京) 字第1234号 中国互联网协会会员  联系我们:wangnan@it168.com
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP