========一.hadoop偽分布式=========
偽分布式環境配置
需要安裝openjdk 和openjdk-devel軟件包(用的是1.8.0版本)
rpm -ql Java-openjdk-devel-1.8.0 | grep ‘/bin/javac’
vim /etc/profile
#Java
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.151-1.b12.el6_9.x86_64
CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
#hive
export HIVE_HOME=/data/hadoop/hive
export PATH=$HIVE_HOME/bin:$PATH
#hadoop
export HADOOP_HOME=/data/hadoop/hadoop-2.7.4
export PATH=$HADOOP_HOME/bin:$PATH
source /etc/profile
java -version
添加hadoop 用戶 useradd -m hadoop -s /bin/bash
給予sudo權限 visudo 編輯配置文件的98行,在root這行下添加hadoop用戶
root ALL=(ALL) ALL
hadoop ALL=(ALL) ALL
切換到hadoop 用戶
然后設置遠程登錄
生成密鑰對
ssh-keygen -t rsa
cat id_rsa.pub >> authorized_keys
chmod 600 ./authorized_keys(注意權限設置)
=========二.安裝hadoop=========
wget http://114.242.101.2:808/hadoop/hadoop-2.7.4.tar.gz
tar xf hadoop-2.7.4.tar.gz -C /data/hadoop
chown -R hadoop.hadoop /data/hadoop/hadoop-2.7.4
==========三.配置文件=============
/data/hadoop/hadoop-2.7.4/etc/hadoop/ 路徑下
hdfs-site.xml
core-site.xml
mapred-site.xml.template
hdfs-site.xml:這里面定義的是數據節點個數以塊文件大小
core-site.xml:定義的hadoop的header機
mapred-site.xml.template:定義的是hadoop文件存放的調度方式
針對偽分布式三個配置文件如下(默認為空)
core-site.xml配置文件如下:
hadoop.tmp.dir
file:/data/hadoop/hadoop-2.7.4/tmp
Abase for other temporary directories.
fs.defaultFS
hdfs://localhost:9000
hdfs-site.xml配置文件如下:
dfs.replication
1
dfs.namenode.name.dir
file:/data/hadoop/hadoop-2.7.4/tmp/dfs/name
dfs.datanode.data.dir
file:/data/hadoop/hadoop-2.7.4/tmp/dfs/data
mapred-site.xml.template配置文件如下:
mapreduce.framework.name
yarn
cd /data/hadoop/hadoop-2.7.4/
執行./bin/hdfs namenode -format 進行格式化
./sbin/start-dfs.sh
啟動完成后,可以通過命令 jps 來判斷是否成功啟動
若成功啟動則會列出如下進程: “NameNode”、”DataNode”和SecondaryNameNode
vim ~/.bashrc 添加
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.151-1.b12.el6_9.x86_64
source ~/.bashrc 后重新啟動
搭建完成
訪問:http://192.168.0.12:50070
網站題目:一.hadoop偽分布式部署
URL鏈接:
http://m.jcarcd.cn/article/gceosc.html