Hadoop 组件启动关闭的三种方式

1. Hadoop2组件启动关闭的三种方式

1.1. 方式一:各服务守护进程逐一启动关闭

在各节点上执行开启关闭自己的服务

  • 例如:namenode节点执行 hadoop-daemon.sh start|stop namenode
  • 例如:datanode 节点执行 hadoop-daemon.sh start|stop datanode

hdfs服务:

1
hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode

yarn服务:

1
yarn-daemon.sh start|stop resourcemanager|nodemanager

mapreduce服务:

1
mr-jobhistory-daemon.sh start|stop historyserver

1.2. 方式二:各个服务组件逐一启动关闭

hdfs服务:

1
2
3
# 只能在namenode执行以下命令(datanode、secondarynamenode没有权限)
start-dfs.sh # 启动 namenode、datanode、secondarynamenode
stop-dfs.sh

yarn服务:

1
2
3
# 只能在resourcemanager执行以下命令(nodemanager没有权限)
start-yarn.sh # 启动 resourcemanager、nodemanager
stop-yarn.sh

mapreduce服务:因为只有一个守护进程,所以就是使用 mr-jobhistory-daemon.sh

1
mr-jobhistory-daemon.sh start|stop historyserver

1.3. 方式三:HDFS+YARN联合启动关闭

hdfs + yarn服务:

1
2
start-all.sh	# 相当于先后执行 start-dfs.sh 和 start-yarn.sh
stop-all.sh # 相当于先后执行 stop-dfs.sh 和 stop-yarn.sh

mapreduce服务:单独使用mr-jobhistory-daemon.sh

1
mr-jobhistory-daemon.sh start|stop historyserver

注意:start-all.sh/stop-all.sh 不建议使用。因为执行的前提是当前节点既是namenode,又是resourcemanager。但是实际不可能将namenode和resourcemanager放在一个节点上,倘若这个节点挂了,那么HDFS和YARN就都挂了。

panchaoxin wechat
关注我的公众号
支持一下