vRealize Operations Manager – это система комплексного мониторинга и управления виртуальной инфраструктурой VMware vSphere. И сегодня мы научимся разворачивать в среде его актуальную с 6 октября 2020 года 8.2.0-версию.
Требования
Вначале приведем минимальные требования к аппаратному оборудованию и ограничения по организации инфраструктуры самого vRealize Operations Manager 8.2.0.
Аппаратная часть и организация среды
Требования к CPU, памяти и дисковому пространству конкретной среды, в которой предстоит работать системе мониторинга, напрямую зависит от типа и количества в ней объектов, объемов данных, подлежащих обслуживанию. Сюда включается количество и тип установленных адаптеров, использование HA (High Availability) и CA (Continuous Availability), продолжительность хранения данных и, наконец, объем конкретных подлежащих отслеживанию направлений.
8-е поколение vRealize Operations Manager может устанавливаться исключительно на VMhardware 11-версии и выше. Более старые аппаратные версии следует обновить до 11-й, и только потом обновлять сам мониторинг.
Актуальное соотношение размера нод vRealize Operations и количества организованных Remote Collector (RC) с параметрами среды приведено в весьма информативной таблице:
где:
(*) Критично важно выделить достаточно CPU для функционирующих в максимальном масштабе сред, иначе производительность будет снижаться.
(**) Указано общее количество метрик из всех зон адаптера. Узнать эту цифру для своей среды можно в пункте «History» раздела «Administration», где нужно сформировать «Audit Report».
(***) В данной таблице число объектов и максимальные показатели для больших конфигураций специально занижены, чтобы оставить достаточный запас.
(****) vRealize Application Remote Collector отыскивает запущенные на ВМ приложения, собирает метрики работы в реальном времени операционной системы и приложений.
(*****) Пределы задержки обозначены в Round Trip Time (RTT).
(******) Цифры для пропускной способности сети представлены для работающих с максимальными соответствующими размерами Remote Collector.
Поддержка сетевых протоколов
vRealize Operations Manager поддерживает и IPv4, и IPv6, а также их комбинации. Если в среде предусмотрена дуальная поддержка протоколов, важно следить, чтобы все ноды одного кластера использовали одинаковый. Чтобы выбрать IPv6, необходимо в процессе разворота OVF поставить галочку на «Prefer IPv6», и именно их он будет использовать для внутренней коммуникации.
Важно! Локальная адресация для ссылок vRealize Operations Manager не поддерживается – только глобальные IPv6 адреса. Если узлы используют DHCP, то DHCP-сервер должен быть настроенным для поддержки IPv6. Аналогично для DNS-сервера.
Сеть
Давайте рассмотрим ограничения и рекомендации по параметрам сети для успешного разворота vRealize Operations Manager:
- Основная и реплицируемая ноды должны использовать статический IP-адрес или же полное доменное имя (FQDN) со статическим IP. Узел данных и Remote collector могут применять динамический протокол DHCP.
- Можно успешно преобразовывать DNS всех узлов, включая Remote collector, в их полное доменное имя, текущее имя хоста узла. Узлы, развернутые OVF, наделены именами, эквивалентными полученному полному доменному имени, по умолчанию.
- Все узлы должны иметь двунаправленную маршрутизацию по IP-адресу или же FQDN.
Важно! Нельзя разделять ноды кластера аналитики с сетевым адресом трансляции (NAT), загружайте балансировщик, файервол или прокси, запрещающие двунаправленную связь по IP-адресу или полному доменному имени.
- Узлы кластера аналитики не могут иметь одинаковые имена хостов.
- Ноды аналитического кластера следует поместить в одном дата-центре и подключить к одной локальной вычислительной сети (LAN).
- Узлы кластера аналитики следует разместить в одной сети второго уровня и IP-подсети. Растянутые сети второго уровня или маршрутизируемые сети третьего уровня не поддерживаются.
- Нельзя перекрывать сеть второго уровня между сайтами, создающими сетевые разделы или способными вызвать проблемы с производительностью.
- Задержка передачи пакетов между нодами аналитического кластера не должна превышать 5 мс. Пропускная способность сети при этом – не меньшая 1 Гбит/сек. Узлы кластера аналитики нельзя расшаривать в глобальную сеть (WAN). Для сбора данных оттуда, либо же из другого дата-центра, расположенных в другой географической зоне кластеров надо пользоваться Remote collector.
- Remote collector поддерживаются через маршрутизируемую сеть, но не через NAT.
- В имени любой ноды кластера запрещено использовать подчеркивание.
Важно! Помните, что базовая архитектура vSphere может создавать условия, при которых действия среды влияют на связь между компонентами vRealize Operations Manager. Например, vMotion, Storage vMotion, события HA, DRS, и др.
Поддержка браузера
Запуск vRealize Operations Manager может быть инициирован в следующих браузерах:
Google Chrome: версии 84 и 85
Mozilla Firefox: версия 80
Microsoft Internet Explorer: версия 11 (ограниченная поддержка)
Microsoft Edge: версии 84 и 85
Safari: версии 13 и 14.
Параметры структуры и режимы функционирования vRealize Operations Manager
Разговаривая о требованиях к архитектуре vRealize Operations Manager, важно остановиться на ряде ключевых моментов:
- требованиях к кластеру,
- требованиях к видам нод,
- реализации Continuous Availability,
- реализации High Availability.
Итак, пробежимся по ним:
- Все узлы кластера должны отрабатывать на одинаковой версии vRealize Operations Manager. Это означает, что мы не можем, к примеру, к кластеру на версии 8.2 добавить ноду на 8.1.
- В кластере аналитики можно держать только однотипные ноды (vApp). Параметры CPU, памяти и размера диска должны быть одинаковыми для всех его узлов. Размещать необходимо каждый из них на разных кластерах vSphere, но в одной географической зоне, потому что разнесенные территориально они не будут поддерживаться.
- Тип Remote Collector может быть непохожим на тот, что у нас в аналитике. Размер ноды Remote Collector способен отличаться как от того, что характеризует узлы этого же типа, так и от тех, что используют другие типы нод. Развернуть Remote Collector можно за файерволом. Использовать NAT между аналитическими нодами и Remote Collector нельзя.
- Узел-свидетель должен создаваться аналогичным развертыванием vApp. Его размер статичен и может отличаться от размеров Remote Collector и нод кластера аналитики. Располагать его надо отдельно от аналитических нод и на другом vSphere кластере.
- Если нода находится на виртуальной машине, то апдейтить софт этой ВМ можно только напрямую через обновление vRealize Operations Manager. Например, попытка в обход vRealize Operations Manager получить доступ к vSphere для апдейта VMware Tools не поддерживается.
Для защиты аналитического кластера от потери узла путем создания реплики поддерживается vRealize Operations Manager High Availability (HA). Для включения этой функции нужно иметь как минимум одну развернутую ноду в дополнение к основной. Вообще же при множественности нод можно настроить репликацию на любую из прочих.
Важно! В случае потери основного узла, только назначенная нода может выступить его полноценной заменой.
Механизм реплицирования High Availability спасает лишь одну ноду, поэтому никоим образом не может выступать механизмом аварийного восстановления, так как не в состоянии растянуть ее на множество кластеров vSphere в попытках заизолировать узлы или же построить зоны сбоев. По сути это – скорее, дополнительный уровень защиты приложений.
Важно! При включении High Availability объемы обработки и емкость vRealize Operations Manager сокращаются вдвое из-за резервного копирования. Это важно учитывать при планировании топологии среды.
По понятным причинам, работать с НА имеет смысл исключительно в том случае, если есть возможность сохранения реплицируемых нод на разных хостах.
Реализация vRealize Operations Continuous Availability (CA) позволяет нодам кластера растягиваться между двумя доменами отказа с возможностью пережить до одного случая сбоя. Это важно, ведь тогда восстановление не вызывает простой кластера. На каждом таком отрезке непрерывной доступности могут существовать следующие классы нод vRealize Operations, в зависимости от количества нод в них:
маленький – 1,
средний – 4,
большой – 8,
очень большой – 5.
Стоит заметить, что каждый кластер в таком случае должен иметь одну ноду-свидетеля с 2 vCPU и 8 ГБ памяти.
При этом на отрезке «домен отказа – домен отказа» важно, чтобы задержка не превышала 10мс с пиками до 20мс на протяжении интервалов в 20сек, максимальная потеря пакетов составляла менее 2% на том же участке времени, а пропускная способность каналов равнялась 10 Гбит/сек. На отрезке «домен отказа – нода-свидетель» значение аналогичных параметров: 30мс, те же 2% и 10 Мбит/сек.
В завершение обратим внимание, что максимальное число Remote Collector не должно превышать 60, а зон адаптеров vCenter – 120. На одном коллекторе можно оформить до сотни vCenter и число агентов End Point Operations при этом должно быть менее 10 000. Наконец, на каждой ноде можно разместить до 10 конкурирующих пользователей, и при этом всего количество сертифицированных конкурирующих пользователей не должно превышать трех сотен.
Примечание. Всю полноту теоретической информации о типах нод, функциях и компонентах системы мониторинга можно почерпнуть на авторизированных курсах VMware и в документации к vRealize Operations Manager.
Подготовка к инсталляции
Перед установкой следует скачать .ova-файл с сайта VMware:
Для автоматизации инсталляции, обновления, настройки и управления удобно использовать vRealize Suite Lifecycle Manager. Качается отсюда:
https://my.vmware.com/web/vmware/downloads/details?downloadGroup=VRSLCM-820&productId=938&rPId=52735.
Схема и форматы развертывания vRealize Operations Manager 8.2
vRealize Operations Manager разворачивается на существующей среде VMware по алгоритму:
В процессе используется клиент vSphere для подключения к серверу vCenter (о том, как развернуть предварительно vSphere 7.0 можно почитать здесь). В vCenter vRealize Operations Manager можно развернуть на хостах ESX/ESXi 6.0 и выше.
Важно! Для ESX / ESXi 6.5 (с номером сборки ниже 5969303) обязательно предварительно накатить Update 1. Если уже существует старая версия vRealize Operations Manager на ESXi 5.5, вначале надо обновить vCenter Server до версии 6.0/6.5 и выше, и только после этого обновлять сам vRealize Operations Manager до 8.2.
Лицензирование
Важно! Обновление до vRealize Operations Manager 7.0 и выше требует новых лицензионных ключей, кроме уже имеющихся под vRealize Operations for Horizon, vSOM Enterprise Plus и его надстроек. Пока не введен новый ключ, продукт предоставляется в режиме ознакомления (60 дней).
Совместимость SDDC
Для проверки совместимости с компонентами vSphere, VMware Cloud on AWS, vSAN 7.0, 6.7, 6.5, и 6.0, а также с NSX-T 2.3, 2.4, 2.5 и NSX-V 6.3.x, 6.4.x в vRealize Operations Manager 8.2 включены предупреждения о совместимости VMware vSphere Security Configuration Guide для версий 6.7U1, 6.5 и 6.0. Для vSphere 7.0 проверка на совместимость базируется на vSphere Security Configuration Guide 6.7U1.
Инсталляция
Для установки vRealize Operations Manager, в первую очередь, нам понадобится создать одну или несколько нод в кластере:
Чтобы начать этот процесс, в имеющуюся среду загружаем и устанавливаем актуальную версию vRealize Operations Manager.
Создание ноды разворотом OVF
Клиент vSphere используется для загрузки и разворота виртуальной машины vRealize Operations Manager по разу для каждого узла кластера.
Подготовка
- В инвентаре должно быть указано разрешение на развертывание шаблонов OVF.
- Если ESXi-хост – часть кластера, следует включить в нем DRS. Если работаем с принадлежащим к nonDRS-кластеру хостом, все функции пула ресурсов предварительно отключаем.
- Если этот узел должен быть основным, резервируем статический IP для ВМ и узнаем связанное с ним доменное имя, путь к домену, доменные имена серверов, GW по дефолту и значения маски сети. После установки зарезервированный адрес поменять будет сложно.
- Если ноде суждено стать узлом данных – репликой HA/CA, зарезервируйте статический IP для виртуальной машины и сохраните доменное имя, путь к домену, доменные имена серверов, GW по дефолту и значения маски сети, чтобы в дальнейшем им можно было пользоваться.
- В идеале, имя развернутой виртуальной машины должно начинаться буквой английского алфавита или цифрой (от 0 до 9) и содержать только эти типы символов, а также дефис («-»).
Строить архитектуру с нодами следует по правилам, описанным выше в разделе «Требования к параметрам структуры и режимам функционирования vRealize Operations Manager».
После этого можно загружать .ova-файл vRealize Operations Manager туда, куда настроен доступ клиента vSphere.
Важно! Если загружается ВМ с расширением .tar, его нужно изменить.
Наконец, подключаемся к vCenter Server – разворачивать будем исключительно из него (ни в коем случае не напрямую с хоста ESXi!).
Процедура создания ноды разворотом OVF
- Выбираем в клиенте vSphere опцию «Deploy OVF Template» и вводим путь к .ova-файлу vRealize Operations Manager:
- Проходим все шаги до поля имени ноды и вводим его. Примеры названий: «Ops1, Ops2 Ops-A, Ops-B». Нельзя использовать спецсимволы и «_». Для каждой ноды имя должно быть уникальным.
- Идем далее до определения размера конфигурации. Выбираем нужный размер (этот выбор не касается размера диска):
Важно! Дисковое пространство по умолчанию выделяется вне зависимости от указанного размера конфигурации:
- Если есть нужда в дополнительном пространстве для размещения данных, уже после развертывания следует добавить диск.
- Подтверждаем все до выбора формата диска. Их всего три:
«Thick Provision Lazy Zeroed» – создание диска толстого формата по умолчанию,
«Thick Provision Eager Zeroed» – создание диска толстого формата с улучшенной производительностью,
«Thin Provision» – создание тонкого диска, идеального для хранилища.
- Соглашаемся с выбором кнопкой «Next».
- В выпадающем меню выбираем «Destination Network». К примеру, «Network 1 = TEST». И кликаем «Next».
- В пункте «Networking Properties» раздела «Customize template», если у вас статический IP-адрес, указываем связанный по дефолту шлюз, доменное имя, путь к домену, сервера доменных имен, IP-адрес Network 1 и значения его маски. Основной и реплицирующей нодам требуется статический IP. Узел данных и Remote collector могут использовать DHCP или статический IP:
Важно! Имя хоста конфигурируется с использованием DHCP и DNS. Если используется статический IP-адрес, имя хоста настраивается в соответствии с именем узла, назначенным в процессе конфигурации уже после развертывания.
- Опционально в «Application» раздела «Properties» можно указать IPv6.
- В «Timezone Setting» оставляем зону UTC по умолчанию или же выбираем другую.
Важно! Нельзя конфигурировать отличающиеся ноды в разных временных зонах.
- Соглашаемся с выбором кнопкой «Next».
- Проверяем все параметры и завершаем разворот OVF, кликнув на «Finish»:
При создании кластера vRealize Operations Manager с несколькими нодами, всю процедуру повторяем для каждой из них.
Настройка новой ноды
В браузерном клиенте настраиваем новодобавленный узел как:
- основной,
- узел данных,
- high availability реплику,
- Remote collector:
В первую очередь нужно назначить основную ноду.
Типы инсталляции vRealize Operations Manager
После установки vRealize Operations Manager можно приступать к новой инсталляции, экспресс-инсталляции или расширить уже существующую:
Для тренировки и понимания сути процесса рассмотрим Express Installation – самый быстрый, простой и часто используемый случай.
Express Installation
С помощью инсталляции этого типа можно создавать основные узлы, добавлять новые узлы данных, формировать кластеры и проверять статус подключения. Ее инициировать может только администратор и только по отношению к пользователю, который администратором не является. На Setup-странице для этой функции есть специальная кнопка:
Чтобы создать основной узел, воспользуемся экспресс-установкой в пользовательском интерфейсе кластера vRealize Operations Manager. Проверяем наличие выделенного IP-адреса (созданного в OVF-файле) и проделываем следующие шаги:
- Переходим к имени или IP-адресу основной ноды. Появится окошко мастера-установщика.
- Выбираем «Express Installation» и попадаем в первое его окно, где показывается связь между объектами
затем кликаем «Next».
- Вводим логин «admin» (неизменяемый) и пароль администратора пользовательского аккаунта (минимум 8 знаков, 1 заглавная буква, 1 цифра и 1 спецсимвол)
- Завершаем инсталляцию кнопкой «Finish»:
После применения этих изменений, мы готовы добавлять окружение, которое будем мониторить:
Научиться использовать другие, более массивные типы инсталляции, осуществлять настройку отчетов и применять всю полноту функционала vRealize Operations Manager помогут авторизированные курсы VMware.