- 论坛徽章:
- 0
|
别讨论hadoop了, 还有那个map/reduce
我曾经做过1年这个东西
1. 海量数据, 一般一份都放不下, 还放3份
我当时处理的数据, 最头疼的就是磁盘老满, 还老是从磁带中倒数据出来.
总之, 实际情况是一份根本放不下.
2. 还是上面问题, 放不下, 需要压缩
可是hadoop的压缩程序使用c写的(可笑吧), 用的java什么什么本地库(我最鄙视的地方)
并且我没有搞定过, 那会刚出, 我是没编译通过.
3. map/reduce让算法更加模糊不清
海量数据处理的方法是什么, 我告诉你吧(查找和排序类的算法)
在这些算法没有学娴熟之前, 再带进来一种map/reduce的编程方法, 你能搞定定吗.
4. 内存
依赖内存的程序必然不是更快的, java就是, 它依赖大内存. 可是hadoop又想用它来解决海量数据处理
海量数据处理当然讲究速度. 那就是和java的特征是冲突了
说简单的, hadoop自身就是个茅盾体
一份都放不下, 还多份
害怕丢数据, 那就copy一份到磁带上呗, 一个cp -rp命令就能解决的事, 需要你整个hdfs, 写了10w行代码???!!!!!
丢一点怎么了, 注意这是海量数据, 每次google的结果你都看了吗, 你需要google每次都正确的返回所有被搜索网页吗???
说到最后, 你怎么排序, 你怎么查找, 你为什么回避这些本质问题.
忠告, 省点时间吧!!!!!
让这个所谓的hadoop自己消失...... |
|