blob: 0bf6c0e15eeb37c5750b4fea58570b32f2f64d86 [file] [log] [blame]
<?xml version="1.0"?>
<!--
Licensed to the Apache Software Foundation (ASF) under one or more
contributor license agreements. See the NOTICE file distributed with
this work for additional information regarding copyright ownership.
The ASF licenses this file to You under the Apache License, Version 2.0
(the "License"); you may not use this file except in compliance with
the License. You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
-->
<!DOCTYPE document PUBLIC "-//APACHE//DTD Documentation V2.0//EN" "http://forrest.apache.org/dtd/document-v20.dtd">
<document>
<header>
<title>Hadoop集群搭建</title>
</header>
<body>
<section>
<title>目的</title>
<p>本文描述了如何安装、配置和管理有实际意义的Hadoop集群,其规模可从几个节点的小集群到几千个节点的超大集群。</p>
<p>如果你希望在单机上安装Hadoop玩玩,从<a href="quickstart.html">这里</a>能找到相关细节。</p>
</section>
<section>
<title>先决条件</title>
<ol>
<li>
确保在你集群中的每个节点上都安装了所有<a href="quickstart.html#PreReqs">必需</a>软件。
</li>
<li>
<a href="quickstart.html#下载">获取</a>Hadoop软件包。
</li>
</ol>
</section>
<section>
<title>安装</title>
<p>安装Hadoop集群通常要将安装软件解压到集群内的所有机器上。</p>
<p>通常,集群里的一台机器被指定为
<code>NameNode</code>,另一台不同的机器被指定为<code>JobTracker</code>。这些机器是<em>masters</em>。余下的机器即作为<code>DataNode</code><em></em>作为<code>TaskTracker</code>。这些机器是<em>slaves</em></p>
<p>我们用<code>HADOOP_HOME</code>指代安装的根路径。通常,集群里的所有机器的<code>HADOOP_HOME</code>路径相同。</p>
</section>
<section>
<title>配置</title>
<p>接下来的几节描述了如何配置Hadoop集群。</p>
<section>
<title>配置文件</title>
<p>对Hadoop的配置通过<code>conf/</code>目录下的两个重要配置文件完成:</p>
<ol>
<li>
<a href="ext:hadoop-default">hadoop-default.xml</a> - 只读的默认配置。
</li>
<li>
<em>hadoop-site.xml</em> - 集群特有的配置。
</li>
</ol>
<p>要了解更多关于这些配置文件如何影响Hadoop框架的细节,请看<a href="ext:api/org/apache/hadoop/conf/configuration">这里</a></p>
<p>此外,通过设置<code>conf/hadoop-env.sh</code>中的变量为集群特有的值,你可以对<code>bin/</code>目录下的Hadoop脚本进行控制。</p>
</section>
<section>
<title>集群配置</title>
<p>要配置Hadoop集群,你需要设置Hadoop守护进程的<em>运行环境</em>和Hadoop守护进程的<em>运行参数</em></p>
<p>Hadoop守护进程指<code>NameNode</code>/<code>DataNode</code>
<code>JobTracker</code>/<code>TaskTracker</code></p>
<section>
<title>配置Hadoop守护进程的运行环境</title>
<p>管理员可在<code>conf/hadoop-env.sh</code>脚本内对Hadoop守护进程的运行环境做特别指定。</p>
<p>至少,你得设定<code>JAVA_HOME</code>使之在每一远端节点上都被正确设置。</p>
<p>管理员可以通过配置选项<code>HADOOP_*_OPTS</code>来分别配置各个守护进程。
下表是可以配置的选项。
</p>
<table>
<tr><th>守护进程</th><th>配置选项</th></tr>
<tr><td>NameNode</td><td>HADOOP_NAMENODE_OPTS</td></tr>
<tr><td>DataNode</td><td>HADOOP_DATANODE_OPTS</td></tr>
<tr><td>SecondaryNamenode</td>
<td>HADOOP_SECONDARYNAMENODE_OPTS</td></tr>
<tr><td>JobTracker</td><td>HADOOP_JOBTRACKER_OPTS</td></tr>
<tr><td>TaskTracker</td><td>HADOOP_TASKTRACKER_OPTS</td></tr>
</table>
<p>例如,配置Namenode时,为了使其能够并行回收垃圾(parallelGC),
要把下面的代码加入到<code>hadoop-env.sh</code> :
<br/><code>
export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}"
</code><br/></p>
<p>其它可定制的常用参数还包括:</p>
<ul>
<li>
<code>HADOOP_LOG_DIR</code> - 守护进程日志文件的存放目录。如果不存在会被自动创建。
</li>
<li>
<code>HADOOP_HEAPSIZE</code> - 最大可用的堆大小,单位为MB。比如,<code>1000MB</code>
这个参数用于设置hadoop守护进程的堆大小。缺省大小是<code>1000MB</code>
</li>
</ul>
</section>
<section>
<title>配置Hadoop守护进程的运行参数</title>
<p>这部分涉及Hadoop集群的重要参数,这些参数在<code>conf/hadoop-site.xml</code>中指定。</p>
<table>
<tr>
<th>参数</th>
<th>取值</th>
<th>备注</th>
</tr>
<tr>
<td>fs.default.name</td>
<td><code>NameNode</code>的URI。</td>
<td><em>hdfs://主机名/</em></td>
</tr>
<tr>
<td>mapred.job.tracker</td>
<td><code>JobTracker</code>的主机(或者IP)和端口。</td>
<td><em>主机:端口</em></td>
</tr>
<tr>
<td>dfs.name.dir</td>
<td>
<code>NameNode</code>持久存储名字空间及事务日志的本地文件系统路径。</td>
<td>当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。
</td>
</tr>
<tr>
<td>dfs.data.dir</td>
<td>
<code>DataNode</code>存放块数据的本地文件系统路径,逗号分割的列表。
</td>
<td>
当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。
</td>
</tr>
<tr>
<td>mapred.system.dir</td>
<td>Map/Reduce框架存储系统文件的HDFS路径。比如<code>/hadoop/mapred/system/</code>
</td>
<td>这个路径是默认文件系统(HDFS)下的路径, 须从服务器和客户端上均可访问。
</td>
</tr>
<tr>
<td>mapred.local.dir</td>
<td>本地文件系统下逗号分割的路径列表,Map/Reduce临时数据存放的地方。
</td>
<td>多路径有助于利用磁盘i/o。</td>
</tr>
<tr>
<td>mapred.tasktracker.{map|reduce}.tasks.maximum</td>
<td>某一<code>TaskTracker</code>上可运行的最大Map/Reduce任务数,这些任务将同时各自运行。
</td>
<td>
默认为2(2个map和2个reduce),可依据硬件情况更改。
</td>
</tr>
<tr>
<td>dfs.hosts/dfs.hosts.exclude</td>
<td>许可/拒绝DataNode列表。</td>
<td>
如有必要,用这个文件控制许可的datanode列表。
</td>
</tr>
<tr>
<td>mapred.hosts/mapred.hosts.exclude</td>
<td>许可/拒绝TaskTracker列表。</td>
<td>
如有必要,用这个文件控制许可的TaskTracker列表。
</td>
</tr>
</table>
<p>通常,上述参数被标记为
<a href="ext:api/org/apache/hadoop/conf/configuration/final_parameters">
final</a> 以确保它们不被用户应用更改。
</p>
<section>
<title>现实世界的集群配置</title>
<p>这节罗列在大规模集群上运行<em>sort</em>基准测试(benchmark)时使用到的一些非缺省配置。</p>
<ul>
<li>
<p>运行sort900的一些非缺省配置值,sort900即在900个节点的集群上对9TB的数据进行排序:</p>
<table>
<tr>
<th>参数</th>
<th>取值</th>
<th>备注</th>
</tr>
<tr>
<td>dfs.block.size</td>
<td>134217728</td>
<td>针对大文件系统,HDFS的块大小取128MB。</td>
</tr>
<tr>
<td>dfs.namenode.handler.count</td>
<td>40</td>
<td>
启动更多的NameNode服务线程去处理来自大量DataNode的RPC请求。
</td>
</tr>
<tr>
<td>mapred.reduce.parallel.copies</td>
<td>20</td>
<td>
reduce启动更多的并行拷贝器以获取大量map的输出。
</td>
</tr>
<tr>
<td>mapred.child.java.opts</td>
<td>-Xmx512M</td>
<td>
为map/reduce子虚拟机使用更大的堆。
</td>
</tr>
<tr>
<td>fs.inmemory.size.mb</td>
<td>200</td>
<td>
为reduce阶段合并map输出所需的内存文件系统分配更多的内存。
</td>
</tr>
<tr>
<td>io.sort.factor</td>
<td>100</td>
<td>文件排序时更多的流将同时被归并。</td>
</tr>
<tr>
<td>io.sort.mb</td>
<td>200</td>
<td>提高排序时的内存上限。</td>
</tr>
<tr>
<td>io.file.buffer.size</td>
<td>131072</td>
<td>SequenceFile中用到的读/写缓存大小。</td>
</tr>
</table>
</li>
<li>
<p>运行sort1400和sort2000时需要更新的配置,即在1400个节点上对14TB的数据进行排序和在2000个节点上对20TB的数据进行排序:</p>
<table>
<tr>
<th>参数</th>
<th>取值</th>
<th>备注</th>
</tr>
<tr>
<td>mapred.job.tracker.handler.count</td>
<td>60</td>
<td>
启用更多的JobTracker服务线程去处理来自大量TaskTracker的RPC请求。
</td>
</tr>
<tr>
<td>mapred.reduce.parallel.copies</td>
<td>50</td>
<td></td>
</tr>
<tr>
<td>tasktracker.http.threads</td>
<td>50</td>
<td>
为TaskTracker的Http服务启用更多的工作线程。reduce通过Http服务获取map的中间输出。
</td>
</tr>
<tr>
<td>mapred.child.java.opts</td>
<td>-Xmx1024M</td>
<td>使用更大的堆用于maps/reduces的子虚拟机</td>
</tr>
</table>
</li>
</ul>
</section>
</section>
<section>
<title>Slaves</title>
<p>通常,你选择集群中的一台机器作为<code>NameNode</code>,另外一台不同的机器作为<code>JobTracker</code>。余下的机器即作为<code>DataNode</code>又作为<code>TaskTracker</code>,这些被称之为<em>slaves</em></p>
<p><code>conf/slaves</code>文件中列出所有slave的主机名或者IP地址,一行一个。</p>
</section>
<section>
<title>日志</title>
<p>Hadoop使用<a href="http://logging.apache.org/log4j/">Apache log4j</a>来记录日志,它由<a href="http://commons.apache.org/logging/">Apache Commons Logging</a>框架来实现。编辑<code>conf/log4j.properties</code>文件可以改变Hadoop守护进程的日志配置(日志格式等)。</p>
<section>
<title>历史日志</title>
<p>作业的历史文件集中存放在<code>hadoop.job.history.location</code>,这个也可以是在分布式文件系统下的路径,其默认值为<code>${HADOOP_LOG_DIR}/history</code>。jobtracker的web UI上有历史日志的web UI链接。</p>
<p>历史文件在用户指定的目录<code>hadoop.job.history.user.location</code>也会记录一份,这个配置的缺省值为作业的输出目录。这些文件被存放在指定路径下的“_logs/history/”目录中。因此,默认情况下日志文件会在“mapred.output.dir/_logs/history/”下。如果将<code>hadoop.job.history.user.location</code>指定为值<code>none</code>,系统将不再记录此日志。</p>
<p>用户可使用以下命令在指定路径下查看历史日志汇总<br/>
<code>$ bin/hadoop job -history output-dir</code><br/>
这条命令会显示作业的细节信息,失败和终止的任务细节。 <br/>
关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看<br/>
<code>$ bin/hadoop job -history all output-dir</code><br/></p>
</section>
</section>
</section>
<p>一但全部必要的配置完成,将这些文件分发到所有机器的<code>HADOOP_CONF_DIR</code>路径下,通常是<code>${HADOOP_HOME}/conf</code></p>
</section>
<section>
<title>Hadoop的机架感知</title>
<p>HDFS和Map/Reduce的组件是能够感知机架的。</p>
<p><code>NameNode</code><code>JobTracker</code>通过调用管理员配置模块中的API<a href="ext:api/org/apache/hadoop/net/dnstoswitchmapping/resolve">resolve</a>来获取集群里每个slave的<code>机架id</code>。该API将slave的DNS名称(或者IP地址)转换成机架id。使用哪个模块是通过配置项<code>topology.node.switch.mapping.impl</code>来指定的。模块的默认实现会调用<code>topology.script.file.name</code>配置项指定的一个的脚本/命令。 如果topology.script.file.name未被设置,对于所有传入的IP地址,模块会返回<code>/default-rack</code>作为机架id。在Map/Reduce部分还有一个额外的配置项<code>mapred.cache.task.levels</code>,该参数决定cache的级数(在网络拓扑中)。例如,如果默认值是2,会建立两级的cache- 一级针对主机(主机 -> 任务的映射)另一级针对机架(机架 -> 任务的映射)。
</p>
</section>
<section>
<title>启动Hadoop</title>
<p>启动Hadoop集群需要启动HDFS集群和Map/Reduce集群。</p>
<p>
格式化一个新的分布式文件系统:<br/>
<code>$ bin/hadoop namenode -format</code>
</p>
<p>
在分配的<code>NameNode</code>上,运行下面的命令启动HDFS:<br/>
<code>$ bin/start-dfs.sh</code>
</p>
<p><code>bin/start-dfs.sh</code>脚本会参照<code>NameNode</code><code>${HADOOP_CONF_DIR}/slaves</code>文件的内容,在所有列出的slave上启动<code>DataNode</code>守护进程。</p>
<p>
在分配的<code>JobTracker</code>上,运行下面的命令启动Map/Reduce:<br/>
<code>$ bin/start-mapred.sh</code>
</p>
<p><code>bin/start-mapred.sh</code>脚本会参照<code>JobTracker</code><code>${HADOOP_CONF_DIR}/slaves</code>文件的内容,在所有列出的slave上启动<code>TaskTracker</code>守护进程。</p>
</section>
<section>
<title>停止Hadoop</title>
<p>
在分配的<code>NameNode</code>上,执行下面的命令停止HDFS:<br/>
<code>$ bin/stop-dfs.sh</code>
</p>
<p><code>bin/stop-dfs.sh</code>脚本会参照<code>NameNode</code><code>${HADOOP_CONF_DIR}/slaves</code>文件的内容,在所有列出的slave上停止<code>DataNode</code>守护进程。</p>
<p>
在分配的<code>JobTracker</code>上,运行下面的命令停止Map/Reduce:<br/>
<code>$ bin/stop-mapred.sh</code><br/>
</p>
<p><code>bin/stop-mapred.sh</code>脚本会参照<code>JobTracker</code><code>${HADOOP_CONF_DIR}/slaves</code>文件的内容,在所有列出的slave上停止<code>TaskTracker</code>守护进程。</p>
</section>
</body>
</document>