openstack разделяет PCI между numa с SR-IOV

Я строю вычислительный узел с поддержкой SR-IOV на HP 360g8 аппаратное обеспечение и у меня есть Qlogic интерфейсная карта, мой вычислительный узел имеет 32 ядра и 32 ГБ памяти.

Проблема:

когда я запускаю vm-1 (с 16 ядром vCPU) на openstack успешно запускается на узле numa0 и работает отлично. но когда я запускаю vm-2 то же самое, что он запускается, а затем сам выключается через несколько секунд, короче говоря, я не могу запустить экземпляр на numa1 узел, потому что мой PCIe прикрепить к numa0 узел, который я вижу в lstopo команда.

поэтому в настоящее время я потеряю половину вычислительной мощности, если это реальная проблема, потому что я не могу использовать numa1 для запуска экземпляра, поддерживаемого SR-IOV.

после Google я нашел эту ссылку https://blueprints.launchpad.net/nova/+spec/share-pci-device-between-numa-nodes

и по этой ссылке, если я могу установить hw:pci_numa_affinity_policy=preferred во вкусе это позволит мне раскрутить экземпляр через узел numa, но каким-то образом он не работает, и все же я не могу раскрутить экземпляр (он запускает экземпляр, но затем сам выключается)

Есть идеи, что здесь не так?

0 ответов

Другие вопросы по тегам