hadoop的安装步骤及配置,hadoop的安装方式

  hadoop的安装步骤及配置,hadoop的安装方式

  

目录

01 引言02 hadoop安装2.1 下载与安装2.2 hadoop配置2.3 免登陆配置2.4 配置环境变量2.5 配置域名2.6 启动03 相关命令3.1纱线相关命令3.2 hdfs相关命令04 一次填完所有的坑

 

  

01 引言

最近安装hadoop-2.7.7版本的时候遇到了很多坑,本文来详细讲解如何安装和解决遇到的问题。

 

  

02 hadoop 安装

 

  

2.1 下载与安装

Step1:下载

 

  百度网盘下载

  链接https://pan.baidu.com/s/1ydPDP3xL0iL6sKYxdiq2ew :号提取码: nnpf

  Step2:上传并解压

  CD/data tar-zxvf hadoop-2.7.7.tar.gz

  

2.2 hadoop配置

Step1:修改大数据安装目录/etc/hadoop下的hadoop-env.sh的文件内容

 

  [root @ server 11 Hadoop]# VI Hadoop-env。sh #指定JAVA _ HOME导出JAVA _ HOME=/usr/lib/JVM/腾讯kona-8。0 .Step21-242号,邮编:修改大数据安装目录/etc/hadoop下的核心网站。可扩展标记语言的文件内容

  [root @ server 19 Hadoop]# VI核心站点。XML配置!-指定分布式文件系统老大(namenode)的通信地址-namefs.defaultFS/name房产价值hdfs://服务器的真实ip:9002/value /property!-指定大数据运行时产生文件的存储路径-属性namehadoop.tmp.dir/name值/数据/Hadoop/tmp/值/属性/配置注:这里fs.defaultFS的价值最好是写本机的静态知识产权。当然写本机主机名,再配置主机是最好的,如果用本地主机,然后在窗子用爪哇岛操作分布式文件系统的时候,会连接不上主机。

  Step3:修改大数据安装目录/etc/hadoop下的hdfs-site.xml的文件内容

  配置属性namedfs.namenode.name.dir/name值/数据/Hadoop/Hadoop/HDFS/nn/值/属性属性namefs.checkpoint.dir/name值/数据/Hadoop/HDFS/snn/价值/属性属性namefs.checkpoint.edits.dir/name

   <value>/data/hadoop/hdfs/snn</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/data/hadoop/hdfs/dn</value> </property> <property> <name>dfs.name.dir</name> <value>/data/hadoop/name</value> </property> <property> <name>dfs.data.dir</name> <value>/data/hadoop/node</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.http.address</name> <value>服务器的真实ip:9000</value> </property> <property> <name>ipc.maximum.data.length</name> <value>134217728</value> </property></configuration>*Step4: 修改hadoop安装目录/etc/hadoop下的yarn-site.xml的文件内容

  

<configuration><!-- Site specific YARN configuration properties --><property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value></property><property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value></property><property> <name>yarn.application.classpath</name> <value> /data/hadoop-2.7.7/etc/*, /data/hadoop-2.7.7/etc/hadoop/*, /data/hadoop-2.7.7/lib/*, /data/hadoop-2.7.7/share/hadoop/common/*, /data/hadoop-2.7.7/share/hadoop/common/lib/*, /data/hadoop-2.7.7/share/hadoop/mapreduce/*, /data/hadoop-2.7.7/share/hadoop/mapreduce/lib/*, /data/hadoop-2.7.7/share/hadoop/hdfs/*, /data/hadoop-2.7.7/share/hadoop/hdfs/lib/*, /data/hadoop-2.7.7/share/hadoop/yarn/*, /data/hadoop-2.7.7/share/hadoop/yarn/lib/* </value></property></configuration>

 

  

2.3 免登陆配置

线上环境已配置,无需配置

 

  

#到 root 目录下:cd /root#执行生成密钥命令:ssh-keygen -t rsa#然后三个回车#然后复制公钥追加到第一台节点的公钥文件中:ssh-copy-id -i /root/.ssh/id_rsa.pub root@master01#选择 yes#输入登录第一台节点的密码(操作完成该节点公钥复制到第一台节点中)

 

  

2.4 配置环境变量

vi /etc/profile### 配置内容如下:export JAVA_HOME=/usr/lib/jvm/TencentKona-8.0.1-242export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexport HADOOP_HOME=/data/hadoop-2.7.7export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport HADOOP_CLASSPATH=`hadoop classpath`export HADOOP_CONF_DIR=/data/hadoop-2.7.7/etc/hadoop### 生效配置source /etc/profile

注意:配置HADOOP_CLASSPATH!

 

  

 

  

2.5 配置域名

可能会配置到,根据提示错误配置就好了

 

  

vi /etc/hosts127.0.0.1 localhost.localdomain localhost127.0.0.1 localhost4.localdomain4 localhost4127.0.0.1 VM-xx-centos gp-master::1 VM-xx-centos VM-xxx-centos::1 localhost.localdomain localhost::1 localhost6.localdomain6 localhost6服务器的真实ip VM-xxx-centos localhost.localdomain gp-master

 

  

2.6 启动

进入hadoop安装目录/sbin,执行start-all.sh文件:

 

  

./start-all.sh

使用jps命令验证是否已经启动成功(这些都启动了才算成功:ResourceManager、DataNode、SecondaryNameNode、NodeManager、TaskManagerRunner、YarnTaskExecutorRunner、NameNode):

 

  

jps

 

  浏览器打开:http://服务器地址:50070/,可以看到hadoop环境搭建好了:

  

 

  

 

  

03 相关命令

 

  

3.1 yarn相关命令

## 正在运行的任务yarn application -list## kill掉yarn正在运行的任务yarn application -kill application_1654588814418_0003## 查找yarn已经完成的任务列表yarn application -appStates finished -list## 查找yarn所有任务列表yarn application -appStates ALL -list## 查看容器日志curl http://127.0.0.1:8042/node/containerlogs/container_1654588814418_0003_01_000001/root/jobmanager.out/?start=0## 查看yarn内存使用情况curl http://127.0.0.1:8042/cluster

 

  

3.2 hdfs相关命令

# 因为在 HDFS 上没有为当前用户创建主目录,所以要先创建目录$ hadoop fs -mkdir -p /user/root# 目录只能一级级创建 ,不能一下子创建2个$ hadoop fs -mkdir ./flink # 上传$ hadoop fs -put /资源路径/相关资源 ./flink # 下载$ hadoop fs -get ./flink # 查看$ hadoop fs -ls ./flink # 删除整个文件夹$ hadoop fs -rm -rf flink# 此处为逐级删除$ hadoop fs -rm ./flink/资源# 备注:上面的 `./bin/hadoop fs`等同于`./bin/hdfs dfs`

 

  

04 一次填完所有的坑

1. 程序访问hdfs失败,提示Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message

 

  解决方案:使用命令hdfs getconf -confKey fs.default.name获取正确的端口号并配置到程序

  2. 首次安装hadoop,使用hdfs命令时,会提示‘.’: No such file or directory

  解决方案: 因为在 hdfs 上没有为当前用户创建主目录,所以要先创建目录$ hadoop fs -mkdir -p /user/root

  3. 首次安装hadoop,使用hdfs命令时,可能会提示‘There are 0 datanode(s) running and no node(s) are excluded in this operation.

  解决方案:可能是格式化两次hadoop,导致没有datanode。首先stop-all.sh停掉所有的服务,然后找到hadoop指定的data目录(线上是:/data/hadoop)删除,接着从新执行一下 hadoop namenode -format,最后使用start-all.sh 重启一下hadoop

  4. 使用hdfs命令,提示Caused by: org.apache.hadoop.ipc.RemoteException: Cannot create directory

  解决方案:是因为安全模式没有自动关闭,使用命令关闭hdfs dfsadmin -safemode leave,然后删除出错的block块,命令:hdfs fsck / -delete

  5. 启动hadoop时,可能会提示second node connection refuesd,即访问被拒绝

  解决方案: 修改hadoop安装目录/etc/hadoop下的hdfs-site.xml的文件内容

  

<property><name>dfs.http.address</name><value>11.41.140.96:9002</value></property><property><name>dfs.secondary.http.address</name><value>11.41.140.96:9002</value></property>

6.部署的时候可能会失败,提示 Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message,指的是端口号配置错了,查询端口号的命令:

 

  解决方案:修改查询端口号并修改

  

hdfs getconf -confKey fs.default.name

7.hadoop的日志在哪个目录:

 

  在:/data/hadoop-2.7.7/logs 05 Yarn相关配置

  本文顺带讲下yarn相关的配置(在/etc/hadoop/yarn-site.xml配置),可以直接跳过。

  配置描述yarn.nodemanager.resource.memory-mb表示该节点上YARN可使用的物理内存总量,默认是8192(MB),注意,如果你的节点内存资源不够8GB,则需要调减小这个值,而YARN不会智能的探测节点的物理内存总量。yarn.nodemanager.vmem-pmem-ratio任务每使用1MB物理内存,最多可使用虚拟内存量,默认是2.1。yarn.nodemanager.pmem-check-enabled是否启动一个线程检查每个任务正使用的物理内存量,如果任务超出分配值,则直接将其杀掉,默认是true。yarn.nodemanager.vmem-check-enabled是否启动一个线程检查每个任务正使用的虚拟内存量,如果任务超出分配值,则直接将其杀掉,默认是true。yarn.scheduler.minimum-allocation-mb单个任务可申请的最少物理内存量,默认是1024(MB),如果一个任务申请的物理内存量少于该值,则该对应的值改为这个数。yarn.scheduler.maximum-allocation-mb 单个任务可申请的最多物理内存量,默认是8192(MB)。06 文末

  本文主要讲解了如何安装hadoop、使用hadoop的命令及遇到的问题解决,希望能帮助到大家,谢谢大家的阅读,本文完!

郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。

留言与评论(共有 条评论)
   
验证码: