openstack разделяет PCI между numa с SR-IOV
Я строю вычислительный узел с поддержкой SR-IOV на HP 360g8
аппаратное обеспечение и у меня есть Qlogic
интерфейсная карта, мой вычислительный узел имеет 32 ядра и 32 ГБ памяти.
Проблема:
когда я запускаю vm-1
(с 16 ядром vCPU) на openstack успешно запускается на узле numa0 и работает отлично. но когда я запускаю vm-2
то же самое, что он запускается, а затем сам выключается через несколько секунд, короче говоря, я не могу запустить экземпляр на numa1
узел, потому что мой PCIe
прикрепить к numa0
узел, который я вижу в lstopo
команда.
поэтому в настоящее время я потеряю половину вычислительной мощности, если это реальная проблема, потому что я не могу использовать numa1 для запуска экземпляра, поддерживаемого SR-IOV.
после Google я нашел эту ссылку https://blueprints.launchpad.net/nova/+spec/share-pci-device-between-numa-nodes
и по этой ссылке, если я могу установить hw:pci_numa_affinity_policy=preferred
во вкусе это позволит мне раскрутить экземпляр через узел numa, но каким-то образом он не работает, и все же я не могу раскрутить экземпляр (он запускает экземпляр, но затем сам выключается)
Есть идеи, что здесь не так?