#hadoop #hbase #hdfs
#hadoop #hbase #hdfs
Вопрос:
Я знаю, что HDFS и MapReduce являются основными компонентами Hadoop. Это значит, что если мы хотим использовать HBase, мы должны его установить?
Ответ №1:
вы можете загрузить ванильную версию Hadoop, которая включает в себя HDFS и Mapreduce, отсюда. http://apache.mirrors.tds.net/hadoop/common/Любые приложения на Hadoop (HBase, Hive, Pig и т. Д.) Должны устанавливаться отдельно, И для них требуются библиотеки Hadoop. Эти приложения ожидают, что вы зададите системную переменную с именем $HADOOP_HOME
, которая укажет вам местоположение вашей установки Hadoop.
Ответ №2:
Если вы устанавливаете apache с открытым исходным кодом, вы получите только основные компоненты hadoop (HDFS, YARN и MapReduce 2 поверх него). Однако существует несколько дистрибутивов Hadoop (hortonWorks, Cloudera, MapR, IBM BigInsight, Pivotal), которые содержат больше компонентов. Вы также можете установить Ambari (также используется в HortonWorks) из Apache, и это позволит установить Hadoop и довольно много других компонентов