千家信息网

Hadoop怎样配置

发表于:2025-12-04 作者:千家信息网编辑
千家信息网最后更新 2025年12月04日,这篇文章给大家分享的是有关Hadoop怎样配置的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。1. 设置SSH免密码登录注意两点:自己跟自己的ssh免登也要设置;需要在/et
千家信息网最后更新 2025年12月04日Hadoop怎样配置

这篇文章给大家分享的是有关Hadoop怎样配置的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

1. 设置SSH免密码登录

注意两点:

  • 自己跟自己的ssh免登也要设置;

  • 需要在/etc/hosts中把localhost设置为自己的IP.

如果设置之后依然需要输入密码,可能是.ssh的权限问题,尝试以下命令

chown root /root/.ssh  chown root /root/.ssh/*  chmod 700 /root/.ssh  chmod 600 /root/.ssh/*

2. 修改etc/hadoop目录和sbin目录下的配置文件

core-site.xml

            fs.defaultFS        hdfs://backup01:8020        For namenode listening                io.file.buffer.size        4096                hadoop.tmp.dir        file:/usr/local/hadoop/tmp    

hdfs-site.xml

            dfs.namenode.name.dir        file:/usr/local/hadoop/name                dfs.datanode.data.dir        file:/usr/local/hadoop/data                 dfs.replication        1                dfs.webhdfs.enabled        true    

yarn-site.xml

            yarn.nodemanager.aux-services        mapreduce_shuffle                yarn.nodemanager.aux-services.mapreduce.shuffle.class        org.apache.hadoop.mapred.ShuffleHandler                yarn.resourcemanager.address        backup01:8032                yarn.resourcemanager.scheduler.address        backup01:8030                yarn.resourcemanager.resource-tracker.address        backup01:8031                yarn.resourcemanager.admin.address        backup01:8033        

mapred-site.xml

            mapred.job.tracker        backup01:9001    

hadoop-env.sh

在文件开头增加Java路径

export JAVA_HOME=/usr/local/jdkexport HADOOP_PID_DIR=/usr/local/hadoop/tmp

yarn-env.sh

在文件开头增加Java路径

export JAVA_HOME=/usr/local/jdk

master (注意3.x.x不需要配置master这个文件)

将backup01作为secondary namenode

backup01

slaves (注意3.x.x对应为workers文件)

backup02

sbin/yarn-daemon.sh

在开头增加一下代码

export YARN_PID_DIR=/usr/local/hadoop/tmp

3.x.x版本Hadoop所需的额外操作

需要在sbin路径下修改start-dfs.sh、stop-dfs.sh、start-yarn.sh和stop-yarn.sh 4个文件,否则运行hadoop时会抛出以下错误:

Attempting to operate on hdfs namenode as rootERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.

将start-dfs.sh,stop-dfs.sh两个文件顶部下一行添加以下参数

#!/usr/bin/env bashHDFS_DATANODE_USER=rootHADOOP_SECURE_DN_USER=rootHDFS_NAMENODE_USER=rootHDFS_SECONDARYNAMENODE_USER=root

start-yarn.sh、stop-yarn.sh顶部也需添加以下参数:

#!/usr/bin/env bashYARN_RESOURCEMANAGER_USER=rootHADOOP_SECURE_DN_USER=rootYARN_NODEMANAGER_USER=root

3. 输入以下命令以格式化HDFS

hdfs namenode -format

4. 启动Hadoop

$./bin/start-dfs.sh$./bin/start-yarn.sh

5. 输入以下命令验证Hadoop是否启动成功

hadoop fs -mkdir /inhadoop fs -ls /

感谢各位的阅读!关于"Hadoop怎样配置"这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

0