免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2555 | 回复: 0
打印 上一主题 下一主题

[Hadoop&HBase] hadoop使用笔记 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2010-01-21 23:17 |只看该作者 |倒序浏览

                                下面提到的操作都是基于我的这个hadoop安装方法的:
http://blog.chinaunix.net/u3/99156/showart.php?id=2156593
按照Hadoop官网中的Quick start操作(这里http://hadoop.apache.org/common/docs/current/quickstart.html)启动hadoop。
1.Hadoop默认创建的dfs文件系统在哪里?
/tmp/hadoop-xxxxx/,每次重启系统之后,这个文件系统就不存在了,正在研究如何指定dfs的目录。
2.Hadoop dfs文件操作。
具体参数请看bin/hadoop dfs中的说明,这里只作简单的介绍:
-put localfile dst
上传,上传之后文件名不在是本地的文件名,但是内容是没有变的,也就是内容没有经过压缩(我测试上传的文件很小,不排出在大文件的情况下会出现压缩或文件分片的情况)。
这里
有人回答:当从本地向hdfs复制文件时,且本地文件非常大,hdfs是如何存储它的。从文件头开始均匀按块划分,各块均衡地分布存储到集群的各节点上,默认每块大小为64M,而且是完全地存储在DataNode节点上,以文件的形式存在.
我测试的文件存储在/tmp/hadoop-xxxx/dfs/data/current/blk_xxxxxxxxxx
-get dfssrc localdst
下载
-ls
跟bash一样,这时列出的名字即是上传之前的localfile的名字,说明很可能在dfs存储中保存了一个本地文件名字到dfs文件名字的映射。
               
               
               
               

本文来自ChinaUnix博客,如果查看原文请点:http://blog.chinaunix.net/u3/99156/showart_2156655.html
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP