免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 53822 | 回复: 0
打印 上一主题 下一主题

[Spark] spark 新手,请教spark 如何写二进制文件到hdfs [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2018-03-14 20:58 |只看该作者 |倒序浏览
本帖最后由 tianhailong 于 2018-03-14 21:01 编辑

我目前做一个spark 应用开发,
读取一些点云数据(二进制格式),随后做一系列处理后
保存为普通的二进制文件,保存在 hdfs上边,

我使用python 开发,通过hadoop 文件api 写文件到hdfs
    Path = sc._gateway.jvm.org.apache.hadoop.fs.Path
    FileSystem = sc._gateway.jvm.org.apache.hadoop.fs.FileSystem
    Configuration = sc._gateway.jvm.org.apache.hadoop.conf.Configuration


def save_file_content(fileContent, fileName, savePath, Path, FileSystem, Configuration):
      fs = FileSystem.get(Configuration())
      output = fs.create(Path(savePath + "/" + fileName))
  
      output.write(bytearray(fileContent))
      output.close()
  
但是这个只能在driver 机器执行,我把rdd 放在 driver 机器遍历写入,
content = rdd.collect()
for i in content:
    save(i, savePath, Path, FileSystem, Configuration)

但是这种方式数据量大时会内存溢出,请问有什么更好的方向写入hdfs 吗?

您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP