Перейти к содержанию

Часто задаваемые вопросы по Numa vServer#

Ошибка "Connection refused". Что делать?#

Свернуть/раскрыть

Если при вводе любой команды xe в терминале Numa vServer выводится ошибка:

Error: Connection refused (calling connect)
[root@vserver:~]# xe pif-list
Error: Connection refused (calling connect)

то это означает, что вы не активировали лицензию Numa vServer, или истек срок действия тестовой лицензии.

Подробнее про лицензирование Numa vServer:

Почему не активируется Numa vServer?#

Свернуть/раскрыть
  1. Уточните количество физических процессоров и проверьте соответствие в выданной лицензии.

  2. Проверьте время на сервере пользователя. Если обнаружен сильный разбег с фактическим временем, выполните:

    • При наличии NTP-сервера:
      ntpdate -u <ntp-server-ip>
      
    • При отсутствии NTP-сервера:
      • введите команду:
        date + hwclock -w
        
      • настройте правильное время в BIOS.

Как установить дату и время в Numa vServer?#

При наличии NTP-сервера:#

Свернуть/раскрыть
  1. Утилитой nano откройте конфигурационный файл /etc/ntp.conf.
  2. Добавьте необходимый NTP-сервер. Например:

    server 172.16.1.1
    

  3. Сохраните изменения и закройте утилиту nano сочетанием клавиш Ctrl+O, Ctrl+X.

  4. Перезапустите службу ntpd:

    systemctl restart ntpd
    

  5. Для проверки статуса NTP воспользуйтесь командой:

    ntpd -pn
    

При отсутствии NTP-сервера:#

Свернуть/раскрыть
  1. Установка времени:

    date +%T -s "HH:MM:SS"
    

  2. Установка даты и времени:

    date -s "DD MONTH YYYY HH:MM:SS"
    

    Примечание

    В случае расхождения необходимо установить правильное время в БСВВ.

  3. Запись даты и времени в BIOS/UEFI:

    hwclock -w
    

    Внимание

    При смене даты и времени возможна деактивация триальной лицензии, исправить это возможно только с помощью переустановки системы.

Как включить/отключить высокую доступность (High availability)?#

Свернуть/раскрыть

Включение высокой доступности в пуле выполняется из CLI Numa vServer.

  1. Для включения выполните команду:

    xe pool-ha-enable heartbeat-sr-uuids=<UUID общего хранилища>
    

  2. UUID общего хранилища можно узнать, используя команду:

    xe sr-list
    
    или в Numa Collider, нажав на соответствующее хранилище (см. под именем хранилища).

    Примечание

    Рекомендуемое минимальное количество серверов для реализации высокой доступности 3 или больше. При меньшем количестве установите параметр pool-ha-compute-max-host-failures-to-tolerate равным 1.

    xe pool-param-set ha-host-failures-to-tolerate=1 uuid=<pool-uuid>
    

  3. UUID пула можно узнать, используя команду:

    xe pool-list
    

  4. После включения HA в пуле можно выставить приоритеты для ВМ машин (см. раздел Обеспечение высокой доступности (high availability) документа «Numa vServer. Руководство пользователя» 643.АМБН.00021-01 34 01). В Numa Collider приоритеты выставляются в расширенных настройках ВМ (см. раздел Механизм обеспечения высокой доступности (High Availability - HA) документа «Numa Collider. Руководство по эксплуатации» 643.АМБН.00027-01 90 01)

  5. Выключение высокой доступности выполняется командой:

    xe pool-ha-disable
    

  6. В случае если попытка выключения высокой доступности оканчивается сообщением:

    1
    2
    3
    The uuid you supplied was invalid.
    type: VDI 
    uuid: 'uuid'
    
    то высокая доступность выключается следующей последовательностью команд:
    xe host-emergency-ha-disable --force
    
    xe-toolstack-restart
    
    xe pool-ha-disable
    

Как настроить интерфейс управления на VLAN интерфейсе?#

Свернуть/раскрыть

Выполните в консоли следующие действия:

  1. Получите UUID всех физических сетевых интерфейсов:

    xe pif-list params=uuid,device physical=true
    
    зафиксируйте UUID интерфейса (далее – PIF-UUID), где планируется настроить VLAN.

    Подсказка

    Можно использовать для автодополнения клавишу Tab

  2. Создайте сеть. Имя может быть произвольным, например MGT. Зафиксируйте UUID новой сети (далее – NET-UUID):

    xe network-create name-label=MGT
    

  3. Создайте VLAN, используя PIF-UUID и NET-UUID, после создания зафиксируйте UUID нового интерфейса (далее – VLAN-UUID):

    xe vlan-create pif-uuid=PIF-UUID network-uuid=NET-UUID vlan=vlan_тег
    

  4. Подключите виртуальный интерфейс:

    xe pif-plug uuid=VLAN-UUID
    

  5. Перенастройте менеджмент интерфейс:

    • для работы в режиме DHCP:

      xe pif-reconfigure-ip uuid=VLAN-UUID mode=dhcp
      

    • для ввода статических настроек выполните:

      xe pif-reconfigure-ip uuid=VLAN-UUID mode=static IP=192.168.1.1 gateway=192.168.1.254 netmask=255.255.255.0 DNS=8.8.4.4
      

  6. Назначьте интерфейс управляющим:

    xe host-management-reconfigure pif-uuid=VLAN-UUID
    

Как переименовать сетевой интерфейс?#

Свернуть/раскрыть

Переименование сетевых интерфейсов осуществляется через скрипт interface_rename.py.

  1. Посмотрите актуальный перечень сетевых интерфейсов:

    interface_rename.py -l
    
    1
    2
    3
    4
    5
    6
    [root@vserver:~]# interface_rename.py -l
    Name   MAC                PCI              ethN  Phys  SMBios  Driver  Version  Firmware  
    eth0   00:50:b6:5b:ca:6a  0000:02:00.0[0]  eth0                igb     5.4.0-k  3.25, 0x800005cc
    eth1   00:50:b6:5b:ca:7a  0000:03:00.0[0]  eth1                igb     5.4.0-k  3.25, 0x800005cc
    eth2   00:50:b6:5b:ca:8a  0000:04:00.0[0]  eth2                igb     5.4.0-k  3.25, 0x800005d0
    eth3   00:50:b6:5b:ca:8b  0000:05:00.0[0]  eth3                igb     5.4.0-k  3.25, 0x800005d0
    
  2. Переименуйте интерфейс командой:

    interface_rename.py -u <eth_name>=MAC|PCI
    
    1
    2
    3
    [root@vserver:~]# interface_rename.py -u eth0=0000:03:00.0[0] eth1=0000:02:00.0[0]
    INFO     [2023-08-04 17:31:55] Performing manual update of rules.  Not actually renaming interfaces
    INFO     [2023-08-04 17:31:55] All done
    
  3. Для применения изменений выполните перезагрузку сервера:

    reboot
    

Примечание

Недопустимо использование двумя интерфейсами одного MAC или PCI-ID. Переименовывать необходимо парами либо всем списком.

Как развернуть Numa vServer на программном RAID1?#

Свернуть/раскрыть

Внимание

Для версии Numa vServer 1.1.87f2fd8a5 (от 09.08.2023) и выше.

Для установки Numa vServer на RAID необходимо:

  1. Загрузите Numa vServer с USB-флеш-накопителя.
  2. На экране загрузки выберите пункт загрузки «Консоль инсталлятора».
  3. В консоли создайте массив RAID1, например, из блочных устройств /dev/sda и /dev/sdb.
    mdadm -C /dev/md0 -l1 -n2 /dev/sda /dev/sdb --metadata=0.90
    
  4. Запустите установщик Numa vServer.
    tui-installer
    
  5. Дальнейшая установка осуществляется согласно инструкции (см. документ Numa vServer. Руководство администратора. Установка, настройка), в качестве целевого устройства для установки выберите созданный ранее RAID массив. В текущем примере /dev/md0.

Настройка MPIO#

RAIDIX Multipath#

Свернуть/раскрыть

Ввиду того, что RAIDIX использует нестандартный SCSI ID, для работы MPIO необходимо модифицировать /etc/multipath.conf:

device {
vendor "Raidix"
product ".*"
path_grouping_policy "group_by_prio"
    path_selector "round-robin 0"
    path_checker        "tur"
    prio "alua"
    failback immediate
    rr_min_io 100
    rr_weight "priorities"
    no_path_retry 12
    features "1 queue_if_no_path"
    hardware_handler "1 alua"
    getuid_callout "/usr/sys/systemd/lib/udev/scsi_id --whitelisted --replace-whitespace --device=/dev/%n"
}

Ключевой параметр и команда содержится в строке getuid_callout.

Multipath Аэродиск#

Свернуть/раскрыть

Необходимо модифицировать /etc/multipath.conf:

device {
    vendor "AERODISK"
    product ".*"
#      uid_attribute "ID_SERIAL"
    path_grouping_policy   group_by_prio
    path_selector "round-robin 0"
    hardware_handler "1 alua"
    prio alua
    failback immediate
    no_path_retry 12
    path_checker tur
}

Multipath Yadro#

Свернуть/раскрыть

Необходимо модифицировать /etc/multipath.conf:

device {
    vendor "YADRO"
    product "TATLIN"
    path_grouping_policy "multibus"
    path_selector "service-time 0"
    path_checker directio
    detect_checker no
    no_path_retry fail
    max_sectors_kb 1024
}

Как пробросить USB или PCI-устройство в ВМ?#

Свернуть/раскрыть

Настройка сквозного подключения USB-флеш-накопителей в ВМ с помощью Numa vServer описана в разделе Проброс USB-устройств в ВМ документа «Numa vServer. Руководство пользователя» 643.АМБН.00021-01 34 01.

Организация прямого доступа к PCI-устройствам в ВМ описана в разделе Прямой доступ к PCI-устройствам в ВМ документа «Numa vServer. Руководство пользователя» 643.АМБН.00021-01 34 01.

Как преобразовать и установить образ ВМ?#

Свернуть/раскрыть

Процедура преобразования и установки образа ВМ в Numa vServer описана в разделе Преобразование и установка образов ВМ документа «Numa vServer. Руководство пользователя» 643.АМБН.00021-01 34 01.

При установке Numa vServer автоматически выставил значения 8ГБ оперативной памяти и 16 vCPU, почему такие значения?#

Свернуть/раскрыть

Установщик сам выполняет расчет ОЗУ и vCPU для СВМ. Их размер зависит от спецификации хоста. В процессе эксплуатации эти параметры можно менять, например, если вы будете использовать блочные хранилища, то объем ОЗУ выделяемый для СВМ можно уменьшить. Минимальные параметры, при которых может работать СВМ 800МБ ОЗУ и 1 vCPU.

Формула для vCPU: Если ядер и потоков на сервере от 2 до 32, то для СВМ выделяется значение vCPU/2. Если больше 32, то 16.

Формула для ОЗУ: Если памяти от 1ГБ до 128ГБ, то для СВМ выделяется 1ГБ+5% от объема ОЗУ. Если больше 128ГБ, то выделяется 8ГБ.

В большинстве кейсов этих параметров хватает для корректной работы Numa vServer и, как следствие, СВМ. СВМ, как и все ВМ, не использует монопольно выделенные ядра, другим ВМ они тоже доступны, хоть и с меньшим приоритетом.