Настройки → Дополнения#
В разделе Дополнения есть возможность подключения/отключения и настройки дополнений.
Auth-ldap – дополнение для LDAP аутентификации пользователей Numa Collider через LDAP#
Настройка доступа пользователей выполняется в следующей последовательности:
- Раскройте дополнение auth-ldap.
- Введите URI, указав IP-адрес или FQDN LDAP-сервера (например,
ldap//10.10.42.1
). - Укажите базовую ветку каталога для поиска пользователя (например,
DC=office,DC=example,DC=ru
). - Если для доступа к каталогу необходимо выполнить авторизацию, то раскройте форму Credentials. Для этого установите рядом с полем Заполните информацию (не обязательно). После введите имя и пароль пользователя, имеющего права доступа к каталогу.
- Укажите фильтр пользователей, по которому они буду добавляться в NC (например,
(sAMAccountName={{name}})
). Для MS AD также доступны другие фильтры, например:(sAMAccountName={{name}})
(sAMAccountName={{name}}@<domain>)
(userPrincipalName={{name}})
(&(sAMAccountName={{name}})(memberOf=<group DN>))
– если нужно указать принадлежность к группе.
- Укажите атрибут для сопоставления пользователя LDAP с пользователем Numa Collider (например,
dn
). Атрибут должен быть уникальным. - Нажмите
Сохранить конфигурацию. - Активируйте плагин
. -
Выполните тестовый запрос, указав имя и пароль пользователя.
Примечание
Пользователи начнут отображаться во вкладке "Пользователи" после их первого входа в Numa Collider.
-
После настройки плагина перейдите в меню «Пользователи» и убедитесь, что тестовый пользователь добавлен.
- Перейдите в меню «Контроль доступа».
- Выберите добавленного пользователя.
- Выберите объекты, доступные пользователю.
- Выберите роль пользователя и нажмите
Создать . - Выйдите из учетной записи Администратора Numa Collider.
- Авторизуйтесь под учетной записью пользователя AD.
- Убедитесь в наличии доступных объектов.
Настройка синхронизации групп выполняется в следующей последовательности:
- Раскройте форму Synchronize groups. Для этого установите рядом с полем Заполните информацию (не обязательно).
- Укажите базовую ветку каталога для поиска групп (например,
CN=Users,DC=office,DC=example,DC=ru
). - Укажите фильтр (например,
(ObjectClass=group)
). - Укажите атрибут для сопоставления группы LDAP с группой Collider (например,
dn
). Атрибут должен быть уникальным. - Укажите атрибут, используемый для определения названия группы в Collider, (например,
cn
). - Укажите атрибут, используемый для поиска членов группы (например,
member
). Значения должны ссылаться на идентификаторы пользователей (см. атрибут user ID). - Укажите пользовательский атрибут, используемый для сопоставления членов группы с пользователями, (например,
dn
). - Нажмите
Сохранить конфигурацию. - Выполните синхронизацию во вкладке Группы.
Примечание
Numa Collider не отображает количество пользователей групп из каталога LDAP.
Backup-reports – дополнение отправки отчетов о резервном копировании#
Отправить отчет с результатом выполнения резервного копирования можно на электронную почту и на XMPP (Jabber) сервер.
- Активируйте дополнение backup-reports, переключив его в положение
(включено). - Настройте и активируйте дополнение transport-email для возможности отправки отчетов через email-сообщения.
- Для получения отчета на электронную почту:
- В разделе mails выберите Заполните информацию (необязательно).
- Нажмите
Добавить. - Введите электронную почту получателя отчетов.
- Для получения отчета на XMPP-сервер NC1.2:
- Настройте XMPP-сервер.
- В разделе xmpp address выберите «Заполните информацию (необязательно)».
- Нажмите
Добавить. - Введите Jabber ID (JID) получателя отчетов в формате
имя-пользователя@доменное-имя-сервера
.
- Для тестирования дополнения:
- Скопируйте идентификатор выполненного задания резервного копирования, перейдя в Резервное копирование → вкладка Обзор → раздел Журнал → статус задания (1) → идентификатор задания (2) (см. рисунок);
- В разделе Test data введите в поле runId идентификатор и нажмите
Test plugin; - В результате на электронную почту и (или) XMPP-сервер, указанного(-ых) при создании задания резервного копирования, должно быть доставлено сообщение.
Load-balancer – балансировка нагрузки#
Для работы балансировки нагрузки (load-balancer) необходимо наличие двух и более серверов. Активация дополнения производится через меню Настройки → Дополнения → load-balancer. Для настройки дополнения создайте правило:
- Активируйте дополнение load-balancer
. - Раскройте настройки, нажав
. - В разделе Plan выберите Заполните информацию (необязательно).
-
Нажмите
Добавить. -
Заполните форму Plan:
- name: введите название создаваемой политики;
- mode: выберите режим (подробное описание режимов в Режимы балансировки нагрузки);
- pools: выберите пул(-ы), в котором(-ых) будет применена политика;
- execute host: выберите серверы, на которые не будет распространяться правило;
- anti-affinity tags: подробнее про правило Anti-affinity написано в VM anti-affinity (Правило Anti-affinity).
- Установите критические пороги использования ресурсов (опционально):
- максимальная нагрузка ЦП (%);
- максимальный объем ОЗУ (МБ).
- Добавьте еще одно правило (опционально).
- В разделе Advanced можно указать максимальное количество одновременных миграций ВМ, так как выполнение большого количества миграций значительно увеличивает время простоя мигрирующих ВМ NC1.2.
- Нажмите
Сохранить конфигурацию.
При достижении сервером из выбранного пула установленных критических значений нагрузки ЦП и (или) объема ОЗУ, Numa Collider начнет распределять ВМ из нагруженного сервера между другими доступными серверами для достижения максимальной производительности серверов.
Режимы балансировки нагрузки#
При создании правила балансировки нагрузки на выбор представлено 3 режима: Performance, Density и Simple.
Режим Performance обеспечивает достижение максимального уровня производительности для ВМ, распределяя ВМ по всем доступным серверам. Например, если на одном сервере развернуты несколько ВМ и в какой-то момент времени одна из ВМ начинает использовать большие ресурсы для своей работы, то другие ВМ перемещаются на другой менее нагруженный сервер во избежание снижения их производительности.
Режим Density наоборот размещает ВМ на минимальном количестве серверов для снижения энергопотребления за счет отключения не нагруженных серверов.
Режим Simple не производит балансировку нагрузки на основе производительности, он необходим для функционирования пользовательских правил размещения, таких как VM anti-affinity (Правило Anti-affinity).
VM anti-affinity (Правило Anti-affinity)#
Правило Anti-Affinity предотвращает запуск ВМ с одинаковыми пользовательскими метками на одном сервере и распределяет их между серверами, повышая производительность и отказоустойчивость системы. Применение данного правила полезно при разворачивании высоконагруженных систем на нескольких ВМ во избежание их одновременного функционирования с использованием ресурсов только одного сервера или если на нескольких ВМ развернута база данных с репликацией.
Перед настройкой правила Anti-affinity задайте пользовательские метки ВМ следующими способами:
-
В Инфраструктура → Виртуальные машины раскройте сведения о ВМ
, добавьте метки, нажав . или
-
Перейдите в ВМ во вкладку «Общее», под информацией о ресурсах нажмите
, введите наименование метки или выберите из существующих.
Для включения правила Anti-affinity перейдите в меню Настройки → Дополнения → load balancer, далее:
- Убедитесь, что включено дополнение load-balancer
. - Раскройте настройки, нажав
. - Выберите Заполните информацию (необязательно).
- Нажмите
Добавить. - Заполните форму Plan:
- name: введите название создаваемой политики;
- mode: выберите "Simple mode";
- pools: выберите пул(-ы), в котором(-ых) будет применена политика;
- anti-affinity tags: выберите необходимые метки ВМ.
- При необходимости укажите игнорируемые метки в поле Ignored VM tags.
- В разделе Advanced можно указать максимальное количество одновременных миграций ВМ, так как выполнение большого количества миграций значительно увеличивает время простоя мигрирующих ВМ NC1.2.
- Нажмите
Сохранить конфигурацию.
При запуске ВМ с одинаковыми метками, выбранных при настройке правила Anti-affinity, часть ВМ мигрирует на другой сервер.
Perf-alert – отправка оповещений на основе критериев производительности#
Дополнение позволяет отправлять оповещения на электронную почти, если будут достигнуты предельные значения критериев производительности (в %) для серверов, ВМ и хранилищ:
- для серверов и ВМ доступна установка предельных значений для использования ЦП (cpuUsage) и использования памяти (memoryUsage);
- для хранилищ доступна установка предельных значений для использования памяти (memoryUsage).
Пример. Настройка оповещений при достижении предельных значений использования ЦП для ВМ.#
- Загрузите дополнение perf-alert, переключив его в положение
(включено). - Настройте и загрузите дополнение transport-email для возможности отправки отчетов через email-сообщения.
- Раскройте дополнение perf-alert, нажав
. - В разделе VM Monitors установите рядом с полем Заполните информацию (не обязательно) и нажмите
Добавить. - В разделе «Элемент» установите следующие значения:
- Virtual Machines: выберите нужную ВМ.
- Alarm Type: выберите критерий производительности. В данном примере – cpuUsage.
- Comparator: выберите знак больше или меньше относительно заданного значения в Threshold. В данном примере – > (знак больше).
- Threshold: задайте предельное значение использования ЦП в процентах. В данном примере – 50.
- Average Length(s): выберите время. Если в течение указанного времени загруженность ЦП будет выше предельного значения, пользователь будет оповещен.
- В разделе «Email addresses» установите рядом с полем Заполните информацию (не обязательно) и введите электронную почту получателей оповещения.
Тестирование дополнения#
-
Установим пакет stress на ВМ с ОС Ubuntu командой:
-
Запустим пакет stress для загрузки ЦП.
-
Наблюдаем за статистикой использования ЦП во вкладке «Статистика» ВМ.
-
Убедимся, что через 60 секунд на электронную почту пришло уведомление о достижении использования ЦП более чем 50%.
SDN-controller – дополнение для настройки оверлейных сетей#
Виртуальный коммутатор значительно упрощает администрирование в виртуальных сетей – все настройки и данные статистики ВМ остаются связанными с ВМ, даже если она мигрирует с одного сервера общего пула на другой.
При использовании контроллера программно-определяемых сетей (SDN-controller) поддерживающего протокол OpenFlow, виртуальные коммутаторы обеспечивают дополнительную функциональность, например, списки управления доступом (Access Control List, ACL).
Примечание
Контроллер программно-определяемых сетей не входит в стандартный состав дистрибутива Numa vServer.
Определение сетевого стека#
-
Для определения сетевого стека, настроенного в настоящее время, выполните:
-
Если после выполнения команды вернулась строка "bridge", переключите стек на Open vSwitch и выполните перезагрузку:
-
Для возвращения к стеку Linux-моста выполните следующую команду и перезагрузите сервер:
Стек Linux-моста не поддерживает протокол OpenFlow, межсерверные частные сети (Cross Server Private Networks) и не может управляться посредством контроллера программно-определяемых сетей.
Настройка iptables#
Далее выполните настройку iptables на всех хостах Numa vServer.
-
Откройте через текстовый редактор nano файл для хранения правил iptables:
-
Добавьте строки:
В итоге /etc/iptables/iptables приобретет вид: -
Сохраните файл сочетанием клавиш Ctrl+O.
- Подтвердите сохранение изменений нажатием Enter .
- Выйдите из редактора nano сочетанием клавиш Ctrl+X.
- Перезагрузите МЭ.
Настройка TLS#
Для настройки TLS-соединения необходимо сгенерировать:
- Для каждого хоста виртуализации:
- Корневой сертификат (sdn-controller-ca.pem)
- Серверный сертификат (server-cert.pem)
- Серверный ключ (server-key.pem)
- Для ВМ Numa Collider:
- Корневой сертификат (ca-cert.pem)
- Сертификат клиента (client-cert.pem)
- Ключ клиента (client-key.pem)
Настройки в CLI Numa Collider, приведенные ниже, необходимо провести для каждого хоста виртуализации.
-
Скопируйте sdn-controller-ca.pem, server-cert.pem и server-key.pem в /etc/stunnel/certs/.
-
Войдите в CLI Numa vServer как суперпользователь root (ssh или локальная консоль).
-
Перейдите в каталог /etc/stunnel/certs/ и создайте файл xapi-stunnel-ca-bundle.pem. Для этого выполните следующие команды:
-
Находясь в /etc/stunnel/certs/, создайте файл xapi-ssl.pem и скопируйте его в /etc/xcp.
-
Включите SSL в Open vSwitch.
-
Перезапустите xe-toolstack и загрузите модуль vport_vxlan.
-
Войдите в CLI ВМ Numa Collider (ncvm), используя логин и пароль ncadmin.
-
Создайте каталог хранения сертификатов и ключа.
-
Скопируйте ca-cert.pem, client-cert.pem, client-key.pem в /home/ncadmin/certs/.
- В Numa Collider подключите настроенные серверы (Добавить → Сервер).
Настройка дополнения настройки оверлейных сетей sdn-controller#
В Numa Collider модуль sdn-controller является дополнением для настройки оверлейных сетей. Для настройки данного дополнения:
- Перейдите в меню Настройки → Дополнения. Найдите модуль sdn-controller.
Внимание
1 |
|
- В блоке "cert-dir" укажите путь к сертификатам в ncvm (/home/ncadmin/certs).
- Сохраните конфигурацию.
- Для загрузки дополнения переведите его в положение
(включено).
Создание оверлейной сети#
Далее рассматривается создание оверлейной сети с инкапсуляцией GRE. Сеть с VxLAN создается аналогично (на шаге 7 из выпадающего списка выбирается инкапсуляция VxLAN). Настройка IPTABLES, OPENVSWITCH и SDN-контроллера уже выполнена с учетом использования как GRE, так и VxLAN инкапсуляции.
Для создания сети:
- Перейдите в меню Добавить → Сеть.
- Выберите основной пул (1).
- Включите режим "Частная сеть" (2).
- Выберите сетевой интерфейс (3).
- Задайте имя для новой сети (4).
- При необходимости задайте MTU (5).
- Выберите тип инкапсуляции (6).
- Нажмите "Добавить пул" и выберите все пулы и их физические сетевые интерфейсы, для которых создается сеть (7).
- Нажмите "Создать сеть" (8).
По завершении процесса создания сети откроется вкладка «Сеть» мастер-хоста пула, который был назначен на шаге 2 создания сети.
Проверка работы созданной сети#
Проверить работу созданного туннеля возможно следующим способом:
- Создайте ВМ на хостах Numa vServer, содержащих tunnel0.
- Переведите VIF ВМ в сеть созданного ранее туннеля.
- Включите ВМ.
- Повторите шаги с 1, 2, 3 для других ВМ.
- В консоли ВМ выполните команду:
где
<ip_vm>
- IP другой виртуальной машины с VIF в сети созданного туннельного подключения.
Внимание!
В случае если в новой сети нет DHCP-сервера, сетевым интерфейсам ВМ необходимо установить статические IP-адреса.
Transport-email - дополнение для настройки отправки email-сообщений#
- В блоке from (1) укажите электронную почту, которая будет отображаться в качестве отправителя.
- В блоке transport (2) укажите данные почтового сервера.
- Сохраните конфигурацию (3).
- Дополнительно до загрузки дополнения можно протестировать настройки. Для этого введите в поле (4) адрес получателя и нажмите
Test plugin. В результате на указанную электронную почту должно быть доставлено сообщение. - Для загрузки дополнения переведите его в положение
(включено) (5).
Usage-report - дополнение отправки отчетов#
- В блоке emails (1) укажите всех получателей отчетов.
- Укажите периодичность отправки отчетов (2):
- ежедневная отправка - daily;
- еженедельная - weekly;
- ежемесячная - monthly.
- Нажмите
Сохранить конфигурацию(3). - Для загрузки дополнения переведите его в положение
(включено) (4).