Могу ли я разместить ОДНУ виртуальную машину с двух серверов?
Немного осмотревшись, я не смог найти однозначного ответа. Моя настройка предназначена для образовательных целей, поскольку я участвую в программе CCNA/Cybersecurity в своем колледже.
Кто-нибудь, давайте приступим к делу~ ПК А находится наверху, прямо над моим основным маршрутизатором/модемом. На нем установлен Windows 2022 Datacenter, спасибо моему колледжу за предоставление таких инструментов. Этот сервер подключен к отдельному маршрутизатору через повторитель Wi-Fi, на котором есть ОДНО гигабитное соединение. Ретранслятор можно настроить как клиентскую точку доступа или мост. Учитывая, что у меня установлен гигабитный маршрутизатор, сервер теперь работает от маршрутизатора. Мне просто нужно было больше портов для всех моих машин — у меня есть переключатель внизу, но он еще не подключен. Компьютер B внизу жестко подключен к моему маршрутизатору. Это почти идентичная машина, только номер модели немного отличается: ПК A — HP 8570w, а ПК B — HP 8760w. У ПК A лучший процессор mSATA (где хранятся мои виртуальные машины) и 2 твердотельных накопителя на RAID0. ПК B немного медленнее, но с лучшим графическим процессором, но ТРИ SSD (все одинаковые), 2 из которых находятся на RAID0, а на основном диске установлена ОС 2022 Datacenter. У них также одинаковое количество оперативной памяти, по 32 ГБ каждая.
Цель состоит в том, чтобы развернуть виртуальную машину на клиентском ПК, используя оба сервера (я думаю, это так называемый пул). Я не использую никакого необычного программного обеспечения, виртуальная машина предназначена просто для студенческих занятий, если я решу сделать это на диване внизу. Клиент будет жестко привязан к моему маршрутизатору, как и ПК B.
Итак, переходим к делу:
Могу ли я использовать два сервера, чтобы «сбалансировать» требования к рабочей нагрузке для развертывания одной виртуальной машины? Компьютер A быстрее, и, возможно, разница составляет 1-2 мс, но компьютер B находится ниже моего клиентского ПК. Если да, то как? Возможно, ссылка на дальнейшие инструкции пнет меня в правильном направлении?
Полагаю, самый большой вопрос: есть ли смысл? В условиях крупной корпорации я понимаю, почему отказоустойчивые кластеры и репликация могут быть полезны, но это не моя цель. Я просто хочу сбалансировать рабочую нагрузку, чтобы, если процессор ПК B находится на красной линии, компьютер A мог помочь — или наоборот. То же самое и с оперативной памятью. Я ни в коем случае не планирую использовать виртуальную машину, скажем, с 64 г ОЗУ. У большинства 8гб, динамический конечно. Любая помощь или совет в этой ситуации?
Всем спасибо!
1 ответ
- Да и нет.
Высокая доступность и отказоустойчивость могут обеспечиваться с помощью репликации или отказоустойчивой кластеризации. В старых версиях HyperV это не поддерживалось, и приходилось мигрировать системы вручную. В более новых версиях это поддерживается изначально.
Вот как настроить репликацию Hyper V:https://docs.microsoft.com/en-us/windows-server/virtualization/hyper-v/manage/set-up-hyper-v-replica.
Вот как настроить отказоустойчивый кластер Hyper V:https://docs.microsoft.com/en-us/windows-server/failover-clustering/create-failover-cluster.
Если вы говорите о разделении одной рабочей нагрузки (например, веб-службы) на две виртуальные машины, это не совсем цель репликации или отказоустойчивой кластеризации. Вам потребуется добавить какую-то технологию балансировки нагрузки поверх решения репликации или отказоустойчивого кластера.
- Да и нет.
Дело не в размере компании. Речь идет о том, какой риск компания готова принять. Если компания не может допускать простоев, то им нужны эти функции. Если компания заявляет, что может потратить X часов, пока кто-то пытается решить проблему, тогда потребность в этих функциях снижается.
В противном случае вы говорите о балансировке нагрузки. Не следует использовать репликацию или отказоустойчивую кластеризацию для управления проблемами ресурсов.
Вам следует прочитать эту документацию по диспетчеру виртуальных машин System Center:https://docs.microsoft.com/en-us/system-center/vmm/whats-new-in-vmm?view=sc-vmm-2019.