Hadoop集群硬件标准配置


 

在我们选择硬件的时候,往往需要考虑应用得到的性能和经费开支。为此,我们必须在满足实际需要和经济可行上找到一个完美的平衡。下面,以Hadoop集群应用为了例子,说明需要考虑的要素。

 

1. I/O绑定的工作负荷。

 

Hadoop涉及到的I/O操作,主要包括下列几项:

  • 索引(Indexing)
  • 群化(Grouping)
  • 数据导入和导出(Data importing and exporting)
  • 数据移动和转换(Data movement and transformation)

 

2. CPU绑定的工作负荷

 

Hadoop中,作业的执行,需要CPU的持续运作。

下面列举了几个方面:

 

  • 集群处理(Clustering/Classification)
  • 复杂的文本挖掘Complex text mining
  • 自然语言的处理(Natural-language processing)
  • 特殊功能的提取(Feature extraction)

 

说了这里,还是直接说明Hadoop标准配置吧。企业级应用,私有云处理都可能涉及到这样的配置需要。下面列举DataNode/TaskTrackers(MR1)的标准配置规格说明:

 

  • 12-24 1-4TB硬盘(批量的磁盘)
  • 2 quad-/hex-/octo-core CPUs, 运行频率至少2-2.5GHz
  • 64-512GB of RAM(内存)

 

绑定Gigabit Ethernet(千兆网络,更多的存储密度,需要更高的网络输入的需要)

 

Hadoop集群中,NameNode/JobTracker(MR1)的标准配置规格说明:

 

  • 3-6 1TB硬盘(批量的磁盘)
  • 2 quad-/hex-/octo-core CPUs, 运行频率至少2-2.5GHz
  • 64-512GB of RAM(内存)

 

绑定Gigabit Ethernet(千兆网络,更多的存储密度,需要更高的网络输入的需要)

 

其实,根据业务来划分硬件的配置,在参数上稍微有点区别。从上面的配置可以看出,数据存储需要的硬盘容量比较大。可见,考虑真实的业务需求是有必要的。可能规模小一点的,配置稍微弱一点也是可以的。

以上参数,仅供参考而已。

--------------------------------------分割线 --------------------------------------

CentOS 6.4下Hadoop 0.20.2安装实录

Ubuntu 13.04上搭建Hadoop环境

Ubuntu 12.10 +Hadoop 1.2.1版本集群配置

Ubuntu上搭建Hadoop环境(单机模式+伪分布模式)

Ubuntu下Hadoop环境的配置

单机版搭建Hadoop环境图文教程详解

--------------------------------------分割线 --------------------------------------

相关内容