#Описание
Репозиторий для автоматической сборки кластера ADH (arenadata hadoop) по документации Первоначальная настройка с помощью ADCM API:
- Установку docker, скачивание образа и запуск adcm
- Скачивание и установку бандлов
- Создание кластеров по установленным бандлам
- Создание хостпровайдеров
- Добавление хостов
Centos 7 на всех нодах. Centos 8 упадет с ошибкой докера -- там ставится podman вместо него Юзер с правами sudo и возможностью подключаться по ключу на всех нодах sudo команды не должны требовать пароль SE Linux отключить (используется папка /opt для загрузки дистрибутивов) На неймноде открыть порт 8000 (adcm), 8080 (yarn) На ноде для zeppelin открыть 8080
- Скопировать проект на неймноду
- ./conf/nodes_list -- список ip всех нод, начиная с главной
- ./conf/env.sh:
- SETUP_ARENA_USERNAME - имя юзера на нодах с root правами
- SETUP_ARENA_KEYFILE=./ssh/id_rsa - приватный ключ юзера SETUP_ARENA_USERNAME
- SETUP_ARENA_ADCM_ADMIN_PASSWORD=lkadsjw91wds - пароль от admin к сервису adcm
- Поместить private ключ юзера SETUP_ARENA_USERNAME в ./ssh/id_rsa
- sudo chmod -R 777 ./
- sudo ./setup_cluster.sh
- Сменить пароль юзера admin в adcm
- Добавить хосты Hosts (верхнее меню) -> Create host -> Create
- Добавить ключи к хостам. Для каждого хоста на странице Hosts: Config (шестеренка) -> User, Ssh private key
- Clusters -> hadoop_cluster -> Services -> Add service Выбрать HDFS, Hive, MySQL, Spark 2, Spark 3, Yarn, Zeppelin, Zookeeper Save
- Задать пароли к базам MySQL -> Configuration -> Save Hive -> Configuration -> Save
- hadoop_cluster -> Hosts -> Add hosts Добавить хосты (если они ещё не привязаны к кластеру)
- Раскидать сервисы по хостам Hosts - Components -> Хост справа -> Кликаем по сервисам
На главной ноде: HDFS Name Node HDFS Client Hive Server, Hive metastore MeSQL Master server Spark History Server Zookeeper Server MapReduce History Server YARN Resource Manager Yarn Timeline Server HDFS HttpFS server
На второй ноде: HDFS Secondary Name Node
На дата нодах: HDFS Client HDFS DateNode Hive client Spark client, Spark3 Client YARN client, YARN NodeManager
ВМ с цеппелином: HDFS Client Zeppelin Server Spark Client Spark3 Client
-
Запустить установку. Кнопка рядом с hadoop_cluster -> Install
-
Когда упадет HDFS Check, продолжить установку сервисов в ручном режиме по порядку: YARN MySQL Hive Spark, Spark3 Zeppelin