前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Hadoop2.6.5 start-dfs.sh 启动流程

Hadoop2.6.5 start-dfs.sh 启动流程

原创
作者头像
spbreak
发布2024-05-04 20:28:00
1310
发布2024-05-04 20:28:00
举报
文章被收录于专栏:HDFSHDFS

start-dfs.sh脚本是如何启动NameNode节点?

执行脚本链路: start-dfs.sh -> hdfs-config.sh -> hadoop-config.sh -> hadoop-daemons.sh -> slave.sh -> hadoop-daemon.sh -> hadoop-env.sh -> hdfs

  • start-dfs.sh 脚本入口
  • hdfs-config.sh - hadoop-config.sh - hadoop-env.sh 变量配置与环境配置
  • hadoop-daemons.sh - hadoop-daemon.sh 守护进程
  • hdfs 真正执行启动 NameNode 脚本

简化层次: 脚本入口 -> 配置各环境变量 -> 守护进程 -> 真正执行

start-dfs.sh 脚本详细执行顺序

start-dfs.sh 脚本详细执行顺序
start-dfs.sh 脚本详细执行顺序

真实启动NameNode语句

代码语言:bash
复制
.../hadoop-2.6.5/bin/hdfs
----
...
# 设置JAVA启动类路径CP
---运行时内容
export 'CLASSPATH=/opt/bigdata/hadoop-2.6.5/etc/hadoop
:/opt/bigdata/hadoop-2.6.5/share/hadoop/common/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/common/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/hdfs
:/opt/bigdata/hadoop-2.6.5/share/hadoop/hdfs/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/hdfs/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/yarn/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/yarn/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/mapreduce/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/mapreduce/*
:/opt/bigdata/hadoop-2.6.5/contrib/capacity-scheduler/*.jar'
---
export CLASSPATH=$CLASSPATH
...
# Check to see if we should start a secure datanode
if [ "$starting_secure_dn" = "true" ]; then
  ...
  # 启动 NameNode
  ---运行时内容
  exec /usr/java/default/bin/java
  -Dproc_namenode -Xmx1000m
  -Djava.net.preferIPv4Stack=true
  -Dhadoop.log.dir=/opt/bigdata/hadoop-2.6.5/logs
  -Dhadoop.log.file=hadoop.log
  -Dhadoop.home.dir=/opt/bigdata/hadoop-2.6.5
  -Dhadoop.id.str=root
  -Dhadoop.root.logger=INFO,console
  -Djava.library.path=/opt/bigdata/hadoop-2.6.5/lib/native
  -Dhadoop.policy.file=hadoop-policy.xml
  -Djava.net.preferIPv4Stack=true
  -Dhadoop.security.logger=INFO,RFAS
  -Dhdfs.audit.logger=INFO,NullAppender
  -Dhadoop.security.logger=INFO,NullAppender
  org.apache.hadoop.hdfs.server.namenode.NameNode
  ---
  exec "$JSVC" \
           -Dproc_$COMMAND -outfile "$JSVC_OUTFILE" \
           -errfile "$JSVC_ERRFILE" \
           -pidfile "$HADOOP_SECURE_DN_PID" \
           -nodetach \
           -user "$HADOOP_SECURE_DN_USER" \
            -cp "$CLASSPATH" \
           $JAVA_HEAP_MAX $HADOOP_OPTS \
           org.apache.hadoop.hdfs.server.datanode.SecureDataNodeStarter "$@"

...
代码语言:bash
复制
# 所以想直接执行NameNode
# 先设置类路径
export 'CLASSPATH=/opt/bigdata/hadoop-2.6.5/etc/hadoop
:/opt/bigdata/hadoop-2.6.5/share/hadoop/common/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/common/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/hdfs
:/opt/bigdata/hadoop-2.6.5/share/hadoop/hdfs/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/hdfs/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/yarn/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/yarn/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/mapreduce/lib/*
:/opt/bigdata/hadoop-2.6.5/share/hadoop/mapreduce/*
:/opt/bigdata/hadoop-2.6.5/contrib/capacity-scheduler/*.jar'
# 再执行JAVA
exec /usr/java/default/bin/java
  -Dproc_namenode -Xmx1000m
  -Djava.net.preferIPv4Stack=true
  -Dhadoop.log.dir=/opt/bigdata/hadoop-2.6.5/logs
  -Dhadoop.log.file=hadoop.log
  -Dhadoop.home.dir=/opt/bigdata/hadoop-2.6.5
  -Dhadoop.id.str=root
  -Dhadoop.root.logger=INFO,console
  -Djava.library.path=/opt/bigdata/hadoop-2.6.5/lib/native
  -Dhadoop.policy.file=hadoop-policy.xml
  -Djava.net.preferIPv4Stack=true
  -Dhadoop.security.logger=INFO,RFAS
  -Dhdfs.audit.logger=INFO,NullAppender
  -Dhadoop.security.logger=INFO,NullAppender
  org.apache.hadoop.hdfs.server.namenode.NameNode

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • start-dfs.sh脚本是如何启动NameNode节点?
    • 简化层次: 脚本入口 -> 配置各环境变量 -> 守护进程 -> 真正执行
    • start-dfs.sh 脚本详细执行顺序
    • 真实启动NameNode语句
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档


    http://www.vxiaotou.com