В hadoop 2.2.0 не удалось запустить мой datanode

#hadoop #centos6 #hadoop2

#hadoop #centos6 #hadoop2

Вопрос:

все, у меня небольшая проблема при сборке кластера Hadoop
На моем узле установлены CentOS 6.5, java1.7.60 и hadoop 2.2.0

Я хочу создать master и три slave-устройства
, я пытаюсь построить это так вот
Но в конце этого я пытаюсь запустить свой namenode и datanode

Мой / etc / hosts выглядит так:

 127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6

10.10.10.10 master
10.10.10.11 slave1
10.10.10.12 slave2
10.10.10.13 slave3
  

Точно так же, когда я набираю:

 $ hadoop namenode -fromat:

java.net.UnknownHostException: hadoop01.hadoopcluster: hadoop01.hadoopcluster
    at java.net.InetAddress.getLocalHost(InetAddress.java:1473)
    at org.apache.hadoop.net.DNS.resolveLocalHostname(DNS.java:264)
    at org.apache.hadoop.net.DNS.<clinit>(DNS.java:57)
    at org.apache.hadoop.hdfs.server.namenode.NNStorage.newBlockPoolID(NNStorage.java:914)
    at org.apache.hadoop.hdfs.server.namenode.NNStorage.newNamespaceInfo(NNStorage.java:550)
    at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:144)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:837)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1213)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1320)
Caused by: java.net.UnknownHostException: hadoop01.hadoopcluster
    at java.net.Inet4AddressImpl.lookupAllHostAddr(Native Method)
    at java.net.InetAddress$1.lookupAllHostAddr(InetAddress.java:901)
    at java.net.InetAddress.getAddressesFromNameService(InetAddress.java:1293)
    at java.net.InetAddress.getLocalHost(InetAddress.java:1469)
    ... 8 more
14/07/01 16:50:46 WARN net.DNS: Unable to determine address of the host-falling back to "localhost" address
java.net.UnknownHostException: hadoop01.hadoopcluster: hadoop01.hadoopcluster
    at java.net.InetAddress.getLocalHost(InetAddress.java:1473)
    at org.apache.hadoop.net.DNS.resolveLocalHostIPAddress(DNS.java:287)
    at org.apache.hadoop.net.DNS.<clinit>(DNS.java:58)
    at org.apache.hadoop.hdfs.server.namenode.NNStorage.newBlockPoolID(NNStorage.java:914)
    at org.apache.hadoop.hdfs.server.namenode.NNStorage.newNamespaceInfo(NNStorage.java:550)
    at org.apache.hadoop.hdfs.server.namenode.FSImage.format(FSImage.java:144)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:837)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1213)
    at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1320)
Caused by: java.net.UnknownHostException: hadoop01.hadoopcluster
    at java.net.Inet4AddressImpl.lookupAllHostAddr(Native Method)
    at java.net.InetAddress$1.lookupAllHostAddr(InetAddress.java:901)
    at java.net.InetAddress.getAddressesFromNameService(InetAddress.java:1293)
    at java.net.InetAddress.getLocalHost(InetAddress.java:1469)
    ... 8 more
  

и попытайтесь выдать start-dfs.sh и start-yarn.sh:

 $ start-dfs.sh
14/07/01 16:55:23 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Starting namenodes on [master]
master: namenode running as process 2395. Stop it first.
slave2: starting datanode, logging to /opt/hadoop/logs/hadoop-hadoop-datanode-hadoop03.hadopcluster.out
slave1: starting datanode, logging to /opt/hadoop/logs/hadoop-hadoop-datanode-hadoop02.hadopcluster.out
slave3: starting datanode, logging to /opt/hadoop/logs/hadoop-hadoop-datanode-hadoop04.hadopcluster.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: secondarynamenode running as process 2564. Stop it first.
14/07/01 16:55:31 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable


$ start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /opt/hadoop/logs/yarn-hadoop-resourcemanager-hadoop01.hadoopcluster.out
slave1: starting nodemanager, logging to /opt/hadoop/logs/yarn-hadoop-nodemanager-hadoop02.hadopcluster.out
slave3: starting nodemanager, logging to /opt/hadoop/logs/yarn-hadoop-nodemanager-hadoop04.hadopcluster.out
slave2: starting nodemanager, logging to /opt/hadoop/logs/yarn-hadoop-nodemanager-hadoop03.hadopcluster.out
  

и введите jps:

 $ jps
2564 SecondaryNameNode
5591 Jps
2395 NameNode
  

Я выгляжу только так, у меня не было DataNode, NodeManager, ResourceManger … и т. Д,
Это где-то неправильно, когда я его устанавливаю?
Может ли кто-нибудь предложить мне что-нибудь, спасибо!

Комментарии:

1. Есть ли start-all.sh ?

2. да, но это тоже не сработало

3. Что у вас есть в файле журнала /opt/hadoop/logs/hadoop-hadoop-datanode-hadoop03.hadopcluster.out ?

4. меньше $ / opt /hadoop /logs/hadoop-hadoop-datanode-hadoop03.hadopcluster.out /opt /hadoop /logs/hadoop-hadoop-datanode-hadoop03.hadopcluster.out: такого файла или каталога нет

5. в папке журнала не было этого файла журнала

Ответ №1:

DHCP (протокол динамической конфигурации хоста)

это сервер, развернутый в IP-сети, и он используется для выделения IP-адресов своим клиентам. Поэтому вам пришлось настроить DHCP как на стороне сервера, так и на стороне клиентов.

На стороне сервера:

  • получение пакета: isc-dhcp-server
  • редактирование / etc/network интерфейсы для настройки интерфейсов выберите статический IP-адрес для DHCP-сервера
  • указание локального сетевого интерфейса, который будет прослушиваться DHCP ( /etc/default/isc-dhcp-server )
  • редактирование файла конфигурации /etc/dhcp/dhcpd.conf чтобы выбрать IP-адреса, которые будут использоваться локальной сетью, определите DNS-сервер

На стороне клиента:

  • редактирование / etc / network interfaces для настройки интерфейсов

Вы можете убедиться, что он правильно установлен и настроен, вы можете использовать ifconfig и ping команды.

DNS (система доменных имен)

  • ввод bind9
  • редактирование /etc/bind/named.conf для добавления узлов

Удачи.