blob: 328e8a15520d93dc260b84911507273052bf5700 [file] [log] [blame]
<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN" "http://www.w3.org/TR/html4/loose.dtd">
<html>
<head>
<META http-equiv="Content-Type" content="text/html; charset=UTF-8">
<meta content="Apache Forrest" name="Generator">
<meta name="Forrest-version" content="0.8">
<meta name="Forrest-skin-name" content="pelt">
<title>
Hadoop On Demand
</title>
<link type="text/css" href="skin/basic.css" rel="stylesheet">
<link media="screen" type="text/css" href="skin/screen.css" rel="stylesheet">
<link media="print" type="text/css" href="skin/print.css" rel="stylesheet">
<link type="text/css" href="skin/profile.css" rel="stylesheet">
<script src="skin/getBlank.js" language="javascript" type="text/javascript"></script><script src="skin/getMenu.js" language="javascript" type="text/javascript"></script><script src="skin/fontsize.js" language="javascript" type="text/javascript"></script>
<link rel="shortcut icon" href="images/favicon.ico">
</head>
<body onload="init()">
<script type="text/javascript">ndeSetTextSize();</script>
<div id="top">
<!--+
|breadtrail
+-->
<div class="breadtrail">
<a href="http://www.apache.org/">Apache</a> &gt; <a href="http://hadoop.apache.org/">Hadoop</a> &gt; <a href="http://hadoop.apache.org/core/">Core</a><script src="skin/breadcrumbs.js" language="JavaScript" type="text/javascript"></script>
</div>
<!--+
|header
+-->
<div class="header">
<!--+
|start group logo
+-->
<div class="grouplogo">
<a href="http://hadoop.apache.org/"><img class="logoImage" alt="Hadoop" src="images/hadoop-logo.jpg" title="Apache Hadoop"></a>
</div>
<!--+
|end group logo
+-->
<!--+
|start Project Logo
+-->
<div class="projectlogo">
<a href="http://hadoop.apache.org/core/"><img class="logoImage" alt="Hadoop" src="images/core-logo.gif" title="Scalable Computing Platform"></a>
</div>
<!--+
|end Project Logo
+-->
<!--+
|start Search
+-->
<div class="searchbox">
<form action="http://www.google.com/search" method="get" class="roundtopsmall">
<input value="hadoop.apache.org" name="sitesearch" type="hidden"><input onFocus="getBlank (this, 'Search the site with google');" size="25" name="q" id="query" type="text" value="Search the site with google">&nbsp;
<input name="Search" value="Search" type="submit">
</form>
</div>
<!--+
|end search
+-->
<!--+
|start Tabs
+-->
<ul id="tabs">
<li>
<a class="unselected" href="http://hadoop.apache.org/core/">项目</a>
</li>
<li>
<a class="unselected" href="http://wiki.apache.org/hadoop">维基</a>
</li>
<li class="current">
<a class="selected" href="index.html">Hadoop 0.18文档</a>
</li>
</ul>
<!--+
|end Tabs
+-->
</div>
</div>
<div id="main">
<div id="publishedStrip">
<!--+
|start Subtabs
+-->
<div id="level2tabs"></div>
<!--+
|end Endtabs
+-->
<script type="text/javascript"><!--
document.write("Last Published: " + document.lastModified);
// --></script>
</div>
<!--+
|breadtrail
+-->
<div class="breadtrail">
&nbsp;
</div>
<!--+
|start Menu, mainarea
+-->
<!--+
|start Menu
+-->
<div id="menu">
<div onclick="SwitchMenu('menu_1.1', 'skin/')" id="menu_1.1Title" class="menutitle">文档</div>
<div id="menu_1.1" class="menuitemgroup">
<div class="menuitem">
<a href="index.html">概述</a>
</div>
<div class="menuitem">
<a href="quickstart.html">快速入门</a>
</div>
<div class="menuitem">
<a href="cluster_setup.html">集群搭建</a>
</div>
<div class="menuitem">
<a href="hdfs_design.html">HDFS构架设计</a>
</div>
<div class="menuitem">
<a href="hdfs_user_guide.html">HDFS使用指南</a>
</div>
<div class="menuitem">
<a href="hdfs_permissions_guide.html">HDFS权限指南</a>
</div>
<div class="menuitem">
<a href="hdfs_quota_admin_guide.html">HDFS配额管理指南</a>
</div>
<div class="menuitem">
<a href="commands_manual.html">命令手册</a>
</div>
<div class="menuitem">
<a href="hdfs_shell.html">FS Shell使用指南</a>
</div>
<div class="menuitem">
<a href="distcp.html">DistCp使用指南</a>
</div>
<div class="menuitem">
<a href="mapred_tutorial.html">Map-Reduce教程</a>
</div>
<div class="menuitem">
<a href="native_libraries.html">Hadoop本地库</a>
</div>
<div class="menuitem">
<a href="streaming.html">Streaming</a>
</div>
<div class="menuitem">
<a href="hadoop_archives.html">Hadoop Archives</a>
</div>
<div class="menuitem">
<a href="hod.html">Hadoop On Demand</a>
</div>
<div class="menuitem">
<a href="http://hadoop.apache.org/core/docs/r0.18.2/api/index.html">API参考</a>
</div>
<div class="menuitem">
<a href="http://hadoop.apache.org/core/docs/r0.18.2/jdiff/changes.html">API Changes</a>
</div>
<div class="menuitem">
<a href="http://wiki.apache.org/hadoop/">维基</a>
</div>
<div class="menuitem">
<a href="http://wiki.apache.org/hadoop/FAQ">常见问题</a>
</div>
<div class="menuitem">
<a href="http://hadoop.apache.org/core/mailing_lists.html">邮件列表</a>
</div>
<div class="menuitem">
<a href="http://hadoop.apache.org/core/docs/r0.18.2/releasenotes.html">发行说明</a>
</div>
<div class="menuitem">
<a href="http://hadoop.apache.org/core/docs/r0.18.2/changes.html">变更日志</a>
</div>
</div>
<div id="credit"></div>
<div id="roundbottom">
<img style="display: none" class="corner" height="15" width="15" alt="" src="skin/images/rc-b-l-15-1body-2menu-3menu.png"></div>
<!--+
|alternative credits
+-->
<div id="credit2"></div>
</div>
<!--+
|end Menu
+-->
<!--+
|start content
+-->
<div id="content">
<div title="Portable Document Format" class="pdflink">
<a class="dida" href="hod_admin_guide.pdf"><img alt="PDF -icon" src="skin/images/pdfdoc.gif" class="skin"><br>
PDF</a>
</div>
<h1>
Hadoop On Demand
</h1>
<div id="minitoc-area">
<ul class="minitoc">
<li>
<a href="#%E6%A6%82%E8%BF%B0">概述</a>
</li>
<li>
<a href="#%E5%85%88%E5%86%B3%E6%9D%A1%E4%BB%B6">先决条件</a>
</li>
<li>
<a href="#%E8%B5%84%E6%BA%90%E7%AE%A1%E7%90%86%E5%99%A8">资源管理器</a>
</li>
<li>
<a href="#%E5%AE%89%E8%A3%85HOD">安装HOD</a>
</li>
<li>
<a href="#%E9%85%8D%E7%BD%AEHOD">配置HOD</a>
<ul class="minitoc">
<li>
<a href="#%E6%9C%80%E5%B0%8F%E9%85%8D%E7%BD%AE">最小配置</a>
</li>
<li>
<a href="#%E9%AB%98%E7%BA%A7%E9%85%8D%E7%BD%AE">高级配置</a>
</li>
</ul>
</li>
<li>
<a href="#%E8%BF%90%E8%A1%8CHOD">运行HOD</a>
</li>
<li>
<a href="#%E6%94%AF%E6%8C%81%E5%B7%A5%E5%85%B7%E5%92%8C%E5%AE%9E%E7%94%A8%E7%A8%8B%E5%BA%8F">支持工具和实用程序</a>
<ul class="minitoc">
<li>
<a href="#logcondense.py+-+%E7%AE%A1%E7%90%86%E6%97%A5%E5%BF%97%E6%96%87%E4%BB%B6">logcondense.py - 管理日志文件</a>
<ul class="minitoc">
<li>
<a href="#%E8%BF%90%E8%A1%8Clogcondense.py">运行logcondense.py</a>
</li>
<li>
<a href="#logcondense.py%E7%9A%84%E5%91%BD%E4%BB%A4%E8%A1%8C%E9%80%89%E9%A1%B9">logcondense.py的命令行选项</a>
</li>
</ul>
</li>
<li>
<a href="#checklimits.sh+-+%E7%9B%91%E8%A7%86%E8%B5%84%E6%BA%90%E9%99%90%E5%88%B6">checklimits.sh - 监视资源限制</a>
<ul class="minitoc">
<li>
<a href="#%E8%BF%90%E8%A1%8Cchecklimits.sh">运行checklimits.sh</a>
</li>
</ul>
</li>
<li>
<a href="#verify-account+-+%E7%94%A8%E4%BA%8E%E6%A0%B8%E5%AE%9E%E7%94%A8%E6%88%B7%E6%8F%90%E4%BA%A4%E4%BD%9C%E4%B8%9A%E6%89%80%E4%BD%BF%E7%94%A8%E7%9A%84%E5%B8%90%E5%8F%B7%E7%9A%84%E8%84%9A%E6%9C%AC">verify-account - 用于核实用户提交作业所使用的帐号的脚本</a>
<ul class="minitoc">
<li>
<a href="#%E5%9C%A8HOD%E4%B8%AD%E9%9B%86%E6%88%90verify-account">在HOD中集成verify-account</a>
</li>
</ul>
</li>
</ul>
</li>
</ul>
</div>
<a name="N1000C"></a><a name="%E6%A6%82%E8%BF%B0"></a>
<h2 class="h3">概述</h2>
<div class="section">
<p>Hadoop On Demand (HOD)是一个能在一个共享集群上供应和管理相互独立的Hadoop Map/Reduce和Hadoop分布式文件系统(HDFS)实例的系统。它能让管理员和用户轻松地快速搭建和使用hadoop。HOD对Hadoop的开发人员和测试人员也非常有用,他们可以通过HOD共享一个物理集群来测试各自不同的Hadoop版本。</p>
<p>HOD依赖资源管理器(RM)来分配节点,这些节点被用来在之上运行hadoop实例。目前,HOD采用的是<a href="http://www.clusterresources.com/pages/products/torque-resource-manager.php">Torque资源管理器</a>
</p>
<p>
基本的HOD系统架构包含的下列组件:</p>
<ul>
<li>一个资源管理器(可能同时附带一个调度程序)</li>
<li>各种HOD的组件 </li>
<li>Hadoop Map/Reduce和HDFS守护进程</li>
</ul>
<p>
通过与以上组件交互,HOD在给定的集群上供应和维护Hadoop Map/Reduce实例,或者HDFS实例。集群中的节点可看作由两组节点构成:</p>
<ul>
<li>提交节点(Submit nodes):用户通过HOD客户端在这些节点上申请集群,之后通过Hadoop客户端提交Hadoop作业。</li>
<li>计算节点(Compute nodes):利用资源管理器,HOD组件在这些节点上运行以供应Hadoop守护进程。之后,Hadoop作业在这些节点上运行。</li>
</ul>
<p>
下面是对申请集群及在之上运行作业所需操作步骤的简要描述。
</p>
<ul>
<li>用户在提交节点上用HOD客户端分配所需数目节点的集群,在上面供应Hadoop。</li>
<li>HOD客户端利用资源管理器接口(在Torque中是qsub)提交一个被称为RingMaster的HOD进程作为一个资源管理器作业,申请理想数目的节点。这个作业被提交到资源管理器的中央服务器上(在Torque中叫pbs_server)。</li>
<li>在计算节点上,资源管理器的从(slave)守护程序(Torque中的pbs_moms)接受并处理中央服务器(Torque中的pbs_server)分配的作业。RingMaster进程在其中一个计算节点(Torque中的mother superior)上开始运行。</li>
<li>之后,Ringmaster通过资源管理器的另外一个接口(在Torque中是pbsdsh)在所有分配到的计算节点上运行第二个HOD组件HodRing,即分布式任务。</li>
<li>HodRing初始化之后会与RingMaster通信获取Hadoop指令,并遵照执行。一旦Hadoop的命令开始启动,它们会向RingMaster登记,提供关于守护进程的信息。</li>
<li>Hadoop实例所需的配置文件全部由HOD自己生成,有一些来自于用户在配置文件设置的选项。</li>
<li>HOD客户端保持和RingMaster的通信,找出JobTracker和HDFS守护进程的位置所在。</li>
</ul>
<p>之后的文档会讲述如何在一个物理集群的节点上安装HOD。</p>
</div>
<a name="N10056"></a><a name="%E5%85%88%E5%86%B3%E6%9D%A1%E4%BB%B6"></a>
<h2 class="h3">先决条件</h2>
<div class="section">
<p>要使用HOD,你的系统应包含下列的硬件和软件</p>
<p>操作系统: HOD目前在RHEL4上测试通过。<br>
节点:HOD至少需要3个由资源管理器配置的节点。<br>
</p>
<p>软件</p>
<p>在使用HOD之前,以下组件必须被安装到所有节点上:</p>
<ul>
<li>Torque:资源管理器</li>
<li>
<a href="http://www.python.org">Python</a>:HOD要求Python 2.5.1</li>
</ul>
<p>下列组件是可选的,你可以安装以获取HOD更好的功能:</p>
<ul>
<li>
<a href="http://twistedmatrix.com/trac/">Twisted Python</a>:这个可以用来提升HOD的可扩展性。如果检测到这个模块已安装,HOD就用它,否则就使用默认的模块。</li>
<li>
<a href="http://hadoop.apache.org/core/">Hadoop</a>:HOD能自动将Hadoop分发到集群的所有节点上。不过,如果Hadoop在所有节点上已经可用,HOD也可以使用已经安装好的Hadoop。HOD目前支持Hadoop 0.15和其后续版本。</li>
</ul>
<p>注释: HOD的配置需要以上这些组件的安装位置在集群所有节点上保持一致。如果在提交节点上的安装位置也相同,配置起来会更简单。</p>
</div>
<a name="N1008D"></a><a name="%E8%B5%84%E6%BA%90%E7%AE%A1%E7%90%86%E5%99%A8"></a>
<h2 class="h3">资源管理器</h2>
<div class="section">
<p>目前,HOD使用Torque资源管理器来分配节点和提交作业。Torque是一个开源的资源管理器,来自于<a href="http://www.clusterresources.com">Cluster Resources</a>,是一个社区基于PBS项目努力的结晶。它提供对批处理作业和分散的计算节点(Compute nodes)的控制。你可以自由地从<a href="http://www.clusterresources.com/downloads/torque/">此处</a>下载Torque。</p>
<p>所有torque相关的文档可以在<a href="http://www.clusterresources.com/pages/resources/documentation.php">这儿</a>的TORQUE Resource Manager一节找到。在<a href="http://www.clusterresources.com/wiki/doku.php?id=torque:torque_wiki">这里</a>可以看到wiki文档。如果想订阅TORQUE的邮件列表或查看问题存档,访问<a href="http://www.clusterresources.com/pages/resources/mailing-lists.php">这里</a></p>
<p>使用带Torque的HOD:</p>
<ul>
<li>安装Torque组件:在一个节点上(head node)安装pbs_server,所有计算节点上安装pbs_mom,所有计算节点和提交节点上安装PBS客户端。至少做最基本的配置,使Torque系统跑起来,也就是,使pbs_server能知道该和哪些机器通话。查看<a href="http://www.clusterresources.com/wiki/doku.php?id=torque:1.2_basic_configuration">这里</a>可以了解基本配置。要了解高级配置,请查看<a href="http://www.clusterresources.com/wiki/doku.php?id=torque:1.3_advanced_configuration">这里</a></li>
<li>在pbs_server上创建一个作业提交队列。队列的名字和HOD的配置参数resource-manager.queue相同。Hod客户端利用此队列提交RingMaster进程作为Torque作业。</li>
<li>在集群的所有节点上指定一个cluster name作为property。这可以用qmgr命令做到。比如:<span class="codefrag">qmgr -c "set node node properties=cluster-name"</span>。集群名字和HOD的配置参数hod.cluster是相同的。</li>
<li>确保作业可以提交到节点上去。这可以通过使用qsub命令做到。比如:<span class="codefrag">echo "sleep 30" | qsub -l nodes=3</span>
</li>
</ul>
</div>
<a name="N100CD"></a><a name="%E5%AE%89%E8%A3%85HOD"></a>
<h2 class="h3">安装HOD</h2>
<div class="section">
<p>现在资源管理器已经安装好了,我们接着下载并安装HOD。</p>
<ul>
<li>如果你想从Hadoop tar包中获取HOD,它在'contrib'下的'hod'的根目录下。</li>
<li>如果你从编译源码,可以在Hadoop根目录下的运行ant tar, 生成Hadoop tar包。然后从获取HOD,参照上面。</li>
<li>把这个目录下的所有文件分发到集群的所有节点上。注意文件拷贝的位置应在所有节点上保持一致。</li>
<li>注意,编译hadoop时会创建HOD,同时会正确地设置所有HOD必须的脚本文件的权限。</li>
</ul>
</div>
<a name="N100E6"></a><a name="%E9%85%8D%E7%BD%AEHOD"></a>
<h2 class="h3">配置HOD</h2>
<div class="section">
<p>安装HOD后你就可以配置它。为了运行HOD需要做的最小配置会在下面讲述,更多高级的配置会在HOD配置指南里面讲解。</p>
<a name="N100EF"></a><a name="%E6%9C%80%E5%B0%8F%E9%85%8D%E7%BD%AE"></a>
<h3 class="h4">最小配置</h3>
<p>为运行HOD,以下的最小配置是必须要做的:</p>
<ul>
<li>在你想要运行hod的节点上,编辑&lt;install dir&gt;/conf目录下的hodrc文件。这个文件包含了运行hod所必需的最少量的设置。</li>
<li>
<p>为这个配置文件中的定义的变量指定适合你环境的值。注意,有些变量在文件中出现了不止一次。</p>
<ul>
<li>${JAVA_HOME}:Hadoop的Java的安装位置。Hadoop支持Sun JDK 1.5.x及以上版本。</li>
<li>${CLUSTER_NAME}:集群名称,由'node property'指定,在资源管理器配置中曾提到过。</li>
<li>${HADOOP_HOME}:Hadoop在计算节点和提交节点上的安装位置。</li>
<li>${RM_QUEUE}:在资源管理器配置中设置的作业提交队列。</li>
<li>${RM_HOME}:资源管理器在计算节点和提交节点的安装位置。</li>
</ul>
</li>
<li>
<p>以下环境变量可能需要设置,取决于你的系统环境。在你运行HOD客户端的地方这些变量必须被定义,也必须在HOD配置文件中通过设定resource_manager.env-vars的值指定。多个变量可指定为用逗号分隔的key=value对组成的列表。</p>
<ul>
<li>HOD_PYTHON_HOME:如果python安装在计算节点或提交节点的非默认位置,那么这个值必须设定为python的可执行文件的实际位置。</li>
</ul>
</li>
</ul>
<a name="N10123"></a><a name="%E9%AB%98%E7%BA%A7%E9%85%8D%E7%BD%AE"></a>
<h3 class="h4">高级配置</h3>
<p>你可以检查和修改其它配置选项来满足你的特定需要。关于HOD配置的更多信息,请参考<a href="hod_config_guide.html">配置指南</a></p>
</div>
<a name="N10132"></a><a name="%E8%BF%90%E8%A1%8CHOD"></a>
<h2 class="h3">运行HOD</h2>
<div class="section">
<p>当HOD配置好后,你就可以运行它了。更多信息请参考<a href="hod_user_guide.html">HOD用户指南</a></p>
</div>
<a name="N10140"></a><a name="%E6%94%AF%E6%8C%81%E5%B7%A5%E5%85%B7%E5%92%8C%E5%AE%9E%E7%94%A8%E7%A8%8B%E5%BA%8F"></a>
<h2 class="h3">支持工具和实用程序</h2>
<div class="section">
<p>此节描述一些可用于管理HOD部署的支持工具和应用程序。</p>
<a name="N10149"></a><a name="logcondense.py+-+%E7%AE%A1%E7%90%86%E6%97%A5%E5%BF%97%E6%96%87%E4%BB%B6"></a>
<h3 class="h4">logcondense.py - 管理日志文件</h3>
<p><a href="hod_user_guide.html#%E6%94%B6%E9%9B%86%E5%92%8C%E6%9F%A5%E7%9C%8BHadoop%E6%97%A5%E5%BF%97">HOD用户指南</a>有提到,HOD可配置成将Hadoop日志上传到一个配置好的静态HDFS上。随着时间增加,日志数量会不断增长。logcondense.py可以帮助管理员清理上传到HDFS的日志文件。</p>
<a name="N10156"></a><a name="%E8%BF%90%E8%A1%8Clogcondense.py"></a>
<h4>运行logcondense.py</h4>
<p>logcondense.py在hod_install_location/support文件夹下。你可以使用python去运行它,比如<em>python logcondense.py</em>,或者授以执行权限,直接运行<em>logcondense.py</em>。如果启用了权限,logcondense.py需要被有足够权限,能删除HDFS上上传目录下日志文件的用户运行。比如,在<a href="hod_config_guide.html#3.7+hodring%E7%9A%84%E9%85%8D%E7%BD%AE%E9%A1%B9">配置指南</a>中提及过,用户可以配置将日志放在HDFS上的其主目录下。在这种情况下,你需要具有超级用户权限,才能运行logcondense.py删除所有用户主目录下的日志文件。</p>
<a name="N1016A"></a><a name="logcondense.py%E7%9A%84%E5%91%BD%E4%BB%A4%E8%A1%8C%E9%80%89%E9%A1%B9"></a>
<h4>logcondense.py的命令行选项</h4>
<p>logcondense.py支持以下命令行选项</p>
<table class="ForrestTable" cellspacing="1" cellpadding="4">
<tr>
<td colspan="1" rowspan="1">短选项</td>
<td colspan="1" rowspan="1">长选项</td>
<td colspan="1" rowspan="1">含义</td>
<td colspan="1" rowspan="1">例子</td>
</tr>
<tr>
<td colspan="1" rowspan="1">-p</td>
<td colspan="1" rowspan="1">--package</td>
<td colspan="1" rowspan="1">hadoop脚本的全路径。Hadoop的版本必须和运行HDFS的版本一致。</td>
<td colspan="1" rowspan="1">/usr/bin/hadoop</td>
</tr>
<tr>
<td colspan="1" rowspan="1">-d</td>
<td colspan="1" rowspan="1">--days</td>
<td colspan="1" rowspan="1">删除超过指定天数的日志文件</td>
<td colspan="1" rowspan="1">7</td>
</tr>
<tr>
<td colspan="1" rowspan="1">-c</td>
<td colspan="1" rowspan="1">--config</td>
<td colspan="1" rowspan="1">Hadoop配置目录的路径,hadoop-site.xml存在于此目录中。hadoop-site.xml中须指明待删除日志存放的HDFS的NameNode。</td>
<td colspan="1" rowspan="1">/home/foo/hadoop/conf</td>
</tr>
<tr>
<td colspan="1" rowspan="1">-l</td>
<td colspan="1" rowspan="1">--logs</td>
<td colspan="1" rowspan="1">一个HDFS路径,须和log-destination-uri指定的是同一个HDFS路径,不带hdfs:// URI串,这点在<a href="hod_config_guide.html#3.7+hodring%E7%9A%84%E9%85%8D%E7%BD%AE%E9%A1%B9">配置指南</a>中提到过。</td>
<td colspan="1" rowspan="1">/user</td>
</tr>
<tr>
<td colspan="1" rowspan="1">-n</td>
<td colspan="1" rowspan="1">--dynamicdfs</td>
<td colspan="1" rowspan="1">如果为true,logcondense.py除要删除Map/Reduce日志之外还需删除HDFS日志。否则,它只删除Map/Reduce日志,这也是不指定这个选项时的默认行为。这个选项对下面的情况非常有用:一个动态的HDFS由HOD供应,一个静态的HDFS用来收集日志文件 - 也许这是测试集群中一个非常普遍的使用场景。</td>
<td colspan="1" rowspan="1">false</td>
</tr>
</table>
<p>比如,假如要删除所有7天之前的日志文件,hadoop-site.xml存放在~/hadoop-conf下,hadoop安装于~/hadoop-0.17.0,你可以这样:</p>
<p>
<em>python logcondense.py -p ~/hadoop-0.17.0/bin/hadoop -d 7 -c ~/hadoop-conf -l /user</em>
</p>
<a name="N1020D"></a><a name="checklimits.sh+-+%E7%9B%91%E8%A7%86%E8%B5%84%E6%BA%90%E9%99%90%E5%88%B6"></a>
<h3 class="h4">checklimits.sh - 监视资源限制</h3>
<p>checklimits.sh是一个针对Torque/Maui环境的HOD工具(<a href="http://www.clusterresources.com/pages/products/maui-cluster-scheduler.php">Maui集群调度器</a> 是一个用于集群和超级计算机的开源作业调度器,来自clusterresourcces)。当新提交的作业违反或超过用户在Maui调度器里设置的限制时,checklimits.sh脚本更新torque的comment字段。它使用qstat在torque的job-list中做一次遍历确定作业是在队列中还是已完成,运行Maui工具checkjob检查每一个作业是否违反用户限制设定,之后运行torque的qalter工具更新作业的'comment'的属性。当前,它把那些违反限制的作业的comment的值更新为<em>User-limits exceeded. Requested:([0-9]*) Used:([0-9]*) MaxLimit:([0-9]*)</em>。之后,HOD根据这个注释内容做出相应处理。
</p>
<a name="N1021D"></a><a name="%E8%BF%90%E8%A1%8Cchecklimits.sh"></a>
<h4>运行checklimits.sh</h4>
<p>checklimits.sh可以在hod_install_location/support目录下下找到。在具有得执行权限后,这个shell脚本可以直接通过<em>sh checklimits.sh </em>或者<em>./checklimits.sh</em>运行。这个工具运行的机器上应有Torque和Maui的二进制运行文件,并且这些文件要在这个shell脚本进程的路径中。为了更新不同用户作业的comment值,这个工具必须以torque的管理员权限运行。这个工具必须按照一定时间间隔重复运行,来保证更新job的约束条件,比如可以通过cron。请注意,这个脚本中用到的资源管理器和调度器命令运行代价可能会比价大,所以最好不要在没有sleeping的紧凑循环中运行。
</p>
<a name="N1022E"></a><a name="verify-account+-+%E7%94%A8%E4%BA%8E%E6%A0%B8%E5%AE%9E%E7%94%A8%E6%88%B7%E6%8F%90%E4%BA%A4%E4%BD%9C%E4%B8%9A%E6%89%80%E4%BD%BF%E7%94%A8%E7%9A%84%E5%B8%90%E5%8F%B7%E7%9A%84%E8%84%9A%E6%9C%AC"></a>
<h3 class="h4">verify-account - 用于核实用户提交作业所使用的帐号的脚本</h3>
<p>生产系统一般使用帐号系统来对使用共享资源的用户收费。HOD支持一个叫<em>resource_manager.pbs-account</em>的参数,用户可以通过这个参数来指定提交作业时使用的帐号。核实这个帐户在帐号管理系统中的有效性是有必要的。脚本<em>hod-install-dir/bin/verify-account</em>提供了一种机制让用户插入自定义脚本来实现这个核实过程。</p>
<a name="N1023D"></a><a name="%E5%9C%A8HOD%E4%B8%AD%E9%9B%86%E6%88%90verify-account"></a>
<h4>在HOD中集成verify-account</h4>
<p>在分配集群之前,HOD运行<em>verify-account</em>脚本,将<em>resource_manager.pbs-account</em>的值作为参数传递给用户自定义脚本来完成用户的确认。系统还可以通过这种方式来取代它本身的帐号系统。若该用户脚本中的返回值非0,就会导致HOD分配集群失败。并且在发生错误时,HOD还会将脚本中产生的错误信息打印出来。通过这种方式,任何描述性的错误信息都可以从用户脚本中返回给用户。
</p>
<p>在HOD中自带的默认脚本是不做任何的用户核实,并返回0。</p>
<p>如果HOD没有找到上面提到的verify-account脚本,HOD就会认为该用户核实的功能被关闭,然后继续自己以后的分配工作。</p>
</div>
</div>
<!--+
|end content
+-->
<div class="clearboth">&nbsp;</div>
</div>
<div id="footer">
<!--+
|start bottomstrip
+-->
<div class="lastmodified">
<script type="text/javascript"><!--
document.write("Last Published: " + document.lastModified);
// --></script>
</div>
<div class="copyright">
Copyright &copy;
2007 <a href="http://www.apache.org/licenses/">The Apache Software Foundation.</a>
</div>
<!--+
|end bottomstrip
+-->
</div>
</body>
</html>