首家大数据培训挂牌机构 股票代码:837906 | EN CN
异常解决方案—NameNode 宕机读写测试
异常解决方案—NameNode 宕机切换实验
异常解决方案—Data Node 配置
异常解决方案—Backup Node配置
异常解决方案—NameNode配置
异常解决方案—6.5.1异常情况分析
安装及配置
5NameNode安装及配置以及6BackupNode安装及配置
6.4.4虚拟机集群架设
6.4.3安装JDK
3.配置操作系统
2.创建虚拟机与安装操作系统
6.4构建实验环境
实验方案说明
故障切换机制
日志池(journal spool)机制
元数据操作情景分——BackupNode更新磁盘上的日志文件
元数据操作情景分——NameNode通过日志输出流......
元数据操作情景分——NameNode将日志写入日志文件
元数据操作情景分——NameNode更新内存镜像
元数据操作情景分——客户端执行命令流程
元数据操作情景分
Hadoop的Backup Node方案——运行机制分析(5)
Hadoop的Backup Node方案——运行机制分析(4)
Hadoop的Backup Node方案——运行机制分析(3)
Hadoop的Backup Node方案——运行机制分析(2)
Hadoop的Backup Node方案——运行机制分析(1)
Hadoop的Backup Node方案——系统架构
Hadoop的Backup Node方案—Backup Node 概述
元数据可靠性机制以及使用说明
Checkpoint 过程情景分析
元数据更新及日志写入情景分析
NameNode启动加载元数据情景分析
Hadoop的元数据备份机制的进行分析
元数据应用场景分析
Format情景分析
磁盘元数据文件
HDFS之代码分析——元数据结构
HDFS之内存元数据结构
什么是HDFS的元数据
Hadoop中DRDB方案和AvatarNode方案
Hadoop中常用各方案的对比
Hadoop的BackupNode方案
Hadoop的CheckpointNode方案
Hadoop的SecondaryNameNode方案
Hadoop的元数据备份方案
影响HDFS可用性的几个因素
什么是高可用性? 详细解析
HDFS系统架构简介
如何安装和配置Hadoop集群
如何在Windows下安装Hadoop
在MacOSX上安装与配置Hadoop
Linux下安装Hadoop的步骤
Hadoop的集群安全策略介绍
Hive的数据管理介绍
HBase的数据管理介绍
HDFS的数据管理介绍
Hadoop计算模型之 MapReduce 简介
Hadoop于分布式开发
Hadoop体系结构介绍
Hadoop的项目结构详解
一文读懂Hadoop

异常解决方案—Data Node 配置

于2018-01-24由小牛君创建

分享到:


6.5.4 Data Node 配置

DataNode00为例说明,DataNode01DataNode03以及Client00Client03

配置同DataNode00

1.ssh无密码登录本地或远程节点

操作步骤请参考“ssh无密码登录本地或远程节点相关内容。

2.安装Hadoop

1)远程复制Hadoop

NameNode(namenode0)远程复制HadoopDataNode00

首先修改/usr/local目录的权限,使得普通用户可以进行读写。

$sudo chmod 777 /usr/local

接下来在user用户下将NameNodeHadoop复制到DataNode00

$cd /usr/local

$scp –r hadoop-0.21.0 192.168.1.13:/usr/local/

2)添加Hadoop路径信息,配置/etc/profile,在最后加入下面两行:

export HADOOP_HOME=/usr/local/hadoop-0.21.0

export PATH=$HADOOP_HOME/bin:$PATH

3)配置mastersslaves文件。

masters配置文件

192.168.1.12

slaves配置文件

192.168.1.13

192.168.1.14

192.168.1.15

192.168.1.16

4)配置/usr/local/hadoop-0.21.0/conf/core-site.sh

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://192.168.1.9:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/tmp</value>

</property>

</configuration>

5)配置/usr/local/hadoop-0.21.0/conf/hdfs-site.sh

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>dfs.http.address</name>

<value>192.168.1.9:50070</value>

</property>

<property>

<name>dfs.name.dir</name>

<value>/usr/local/hadoop/local/namenode</value>

</property>

<property>

<name>dfs.name.edits.dir</name>

<value>/usr/local/hadoop/local/editlog</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/usr/local/hadoop/block</value>

</property>

</configuration>

注意: fs.default.name dfs.http.address IP均配置为虚拟 IP地址192.168.1.9,当 NameNode宕机后,Backup  Node节点会接替 NameNode的虚拟 IP地址,这些对于 Data Node是透明的,因此,NameNode发生故障时,注意:fs.default.namedfs.http.addressIP均配置为虚拟IP地址192.168.1.9,当NameNode宕机后,BackupNode节点会接替NameNode的虚拟IP地址,这些对于DataNode是透明的,因此,NameNode发生故障时,DataNode无需作任何修改。

6)创建相关目录。

/usr/local/hadoop/tmp

/usr/local/hadoop/local/namenode

/usr/local/hadoop/local/editlog

/usr/local/hadoop/block

//hadoop临时目录

//镜像存储目录

//日志存储目录

//数据块存储目录

3.启动测试

执行下面的命令,启动DataNode

$/usr/local/hadoop-0.21.0/bin/hadoop datanode

结果如图6-32所示。

image.png