- 论坛徽章:
- 4
|
目前也在初步的学习使用中,就简单讲一下对Hadoop的入门理解和认识:
The Apache Hadoop software library is a framework that allows for the distributed processing of large data sets across clusters of computers using a simple programming model. It is designed to scale up from single servers to thousands of machines, each offering local computation and storage.
以上是Hadoop官方文档给出的Hadoop描述定义,简单的讲: Hadoop是一个设计用来处理大数据的分布式计算框架,特点是能够使用一种简单的编程模式来进行集群计算(Cluster Computing), 它的设计目标是每个计算节点都能提供本地的计算和存储,而且计算节点能够很好的进行水平扩展(Scale up )。而HDFS(Hadoop Distributed File System)是Hadoop分布式计算框架实施的基础。
Hadoop所应用的场景是海量数据分析和计算。比如上面讲的Log日志分析以及BI项目应用。
|
|