Skip to content

eakot/setup-arenadata-cluster

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

13 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

#Описание

Репозиторий для автоматической сборки кластера ADH (arenadata hadoop) по документации Первоначальная настройка с помощью ADCM API:

  1. Установку docker, скачивание образа и запуск adcm
  2. Скачивание и установку бандлов
  3. Создание кластеров по установленным бандлам
  4. Создание хостпровайдеров
  5. Добавление хостов

Требования

Centos 7 на всех нодах. Centos 8 упадет с ошибкой докера -- там ставится podman вместо него Юзер с правами sudo и возможностью подключаться по ключу на всех нодах sudo команды не должны требовать пароль SE Linux отключить (используется папка /opt для загрузки дистрибутивов) На неймноде открыть порт 8000 (adcm), 8080 (yarn) На ноде для zeppelin открыть 8080

Запуск

  1. Скопировать проект на неймноду
  2. ./conf/nodes_list -- список ip всех нод, начиная с главной
  3. ./conf/env.sh:
    • SETUP_ARENA_USERNAME - имя юзера на нодах с root правами
    • SETUP_ARENA_KEYFILE=./ssh/id_rsa - приватный ключ юзера SETUP_ARENA_USERNAME
    • SETUP_ARENA_ADCM_ADMIN_PASSWORD=lkadsjw91wds - пароль от admin к сервису adcm
  4. Поместить private ключ юзера SETUP_ARENA_USERNAME в ./ssh/id_rsa
  5. sudo chmod -R 777 ./
  6. sudo ./setup_cluster.sh

Сразу после установки

  1. Сменить пароль юзера admin в adcm

Настройка кластера

  1. Добавить хосты Hosts (верхнее меню) -> Create host -> Create
  2. Добавить ключи к хостам. Для каждого хоста на странице Hosts: Config (шестеренка) -> User, Ssh private key
  3. Clusters -> hadoop_cluster -> Services -> Add service Выбрать HDFS, Hive, MySQL, Spark 2, Spark 3, Yarn, Zeppelin, Zookeeper Save
  4. Задать пароли к базам MySQL -> Configuration -> Save Hive -> Configuration -> Save
  5. hadoop_cluster -> Hosts -> Add hosts Добавить хосты (если они ещё не привязаны к кластеру)
  6. Раскидать сервисы по хостам Hosts - Components -> Хост справа -> Кликаем по сервисам

На главной ноде: HDFS Name Node HDFS Client Hive Server, Hive metastore MeSQL Master server Spark History Server Zookeeper Server MapReduce History Server YARN Resource Manager Yarn Timeline Server HDFS HttpFS server

На второй ноде: HDFS Secondary Name Node

На дата нодах: HDFS Client HDFS DateNode Hive client Spark client, Spark3 Client YARN client, YARN NodeManager

ВМ с цеппелином: HDFS Client Zeppelin Server Spark Client Spark3 Client

  1. Запустить установку. Кнопка рядом с hadoop_cluster -> Install

  2. Когда упадет HDFS Check, продолжить установку сервисов в ручном режиме по порядку: YARN MySQL Hive Spark, Spark3 Zeppelin

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages