hadoop не может получить доступ к s3

#amazon-s3 #hadoop #amazon-web-services #hdfs

#amazon-s3 #hadoop #amazon-веб-сервисы #hdfs

Вопрос:

У меня вопрос о доступе к hadoop s3 на aws.

 <property>
<name>fs.default.name</name>
<value>s3n://testhadoophiveserver</value>
</property>

<property>

<name>fs.s3n.awsAccessKeyId</name>
<value>I have fill it</value>
</property>
<property>
<name>fs.s3n.awsSecretAccessKey</name>
<value>I have fill it</value>
</property>
 

итак, я получил код ошибки при запуске start-all.sh .
вот так :

 hadoopmaster: Exception in thread "main" java.net.UnknownHostException: unknown host: testhadoophiveserver
hadoopmaster:   at org.apache.hadoop.ipc.Client$Connection.<init>(Client.java:195)

hadoopmaster:   at org.apache.hadoop.ipc.Client.getConnection(Client.java:850)

adoopmaster:    at org.apache.hadoop.ipc.Client.call(Client.java:720)

hadoopmaster:   at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:220)

hadoopmaster:   at $Proxy4.getProtocolVersion(Unknown Source)

hadoopmaster:   at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:359)
hadoopmaster:   at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:346)
hadoopmaster:   at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:383)
hadoopmaster:   at org.apache.hadoop.ipc.RPC.waitForProxy(RPC.java:314)
 

но, если я использую HDFS, все в порядке.
теперь я не могу использовать файловую систему S3.
кто может мне помочь?

Ответ №1:

Я думаю, вам не следует запускать » start-all.sh «. Сценарии » start-all.sh » включите код запуска HDFS и MapReduce. Не нужно запускать HDFS, если вы настроили использование S3 в качестве базового уровня хранилища. The start-dfs.sh вызывается start-all.sh , поэтому он выполнит код для запуска HDFS, который вы не настраивали.