Openstack Mitaka - Сетевой контроллер и вычислительный узел в разных сегментах сети
Я довольно новичок в Openstack, и у меня очень ограниченное понимание концепций Advanced network. Я пытаюсь настроить простую настройку Openstack Mitaka для работы, следуя официальным инструкциям по установке. Я думал, что добился довольно хороших успехов, пока не достиг сетевой биты.
У меня есть следующая конфигурация:
- Один узел контроллера на виртуальной машине VMWare на 10.110.166.XXX подсеть - присутствуют 2 сетевые карты
- Один вычислительный узел на сервере Bare Metal 10.110.167.XXX подсеть - присутствуют 2 сетевые карты
Я развернул компоненты Keystone, Nova, Glance и Neutron на контроллере. Нова-вычислительный сервис и linuxbridge-agent на вычислительном узле. Попытка заставить настройку сети работать с плагином ML2, который был рекомендован в руководстве по установке.
Выполнив все перечисленные инструкции, я не могу проверить связь ни с одним из экземпляров виртуальной машины, которые запускаются ни с моего компьютера, ни с моего узла контроллера. Это также может быть причиной того, что я не могу подключиться к экземплярам консоли VNC. Я ясно вижу, что мои настройки сети неверны, поскольку мой экземпляр Ubuntu застревает при загрузке, ожидая появления сетевых интерфейсов.
Я несколько раз воссоздавал настройку сети в Openstack, но не увенчался успехом. Сейчас я все очистил и у меня нет провайдера или каких-либо других сетей, определенных в Neutron. Я был бы очень признателен, если бы кто-нибудь смог помочь мне в этом процессе.
У меня есть сомнения относительно того, возможно ли иметь контроллеры и вычислительные узлы в разных сегментах локальной сети. Не удалось найти решения для этого.
Настройка кажется хорошей, судя по этим выводам:
neutron agent-list
+--------------------------------------+--------------------+------------+-------------------+-------+----------------+---------------------------+
| id | agent_type | host | availability_zone | alive | admin_state_up | binary |
+--------------------------------------+--------------------+------------+-------------------+-------+----------------+---------------------------+
| 11ff8610-8eb2-45d5-91e8-d7905beb668c | Linux bridge agent | controller | | :-) | True | neutron-linuxbridge-agent |
| 370794ac-0091-4908-8293-00d007f7f8be | Linux bridge agent | compute1 | | :-) | True | neutron-linuxbridge-agent |
| 444eca8d-3a34-4018-97ab-f23925e65713 | DHCP agent | controller | nova | :-) | True | neutron-dhcp-agent |
| 90f70ca7-afd2-4127-97f1-f623fac26e29 | Metadata agent | controller | | :-) | True | neutron-metadata-agent |
| ad2a6012-a348-47c7-8ee9-f41401fb048f | L3 agent | controller | nova | :-) | True | neutron-l3-agent |
+--------------------------------------+--------------------+------------+-------------------+-------+----------------+---------------------------+
Я добавил конфиги ниже, которые могут помочь с этой проблемой.
Контроллер Узел:
/ и т.д. / сеть / интерфейсы
# The loopback network interface
auto lo
iface lo inet loopback
# The provider network interface
auto ens192
iface ens192 inet manual
up ip link set dev $IFACE up
down ip link set dev $IFACE down
# primary network interface
auto ens160
iface ens160 inet dhcp
Вывод ifconfig:
ens160 Link encap:Ethernet HWaddr 00:50:56:99:c5:74
inet addr:10.105.166.87 Bcast:10.105.166.255 Mask:255.255.255.0
inet6 addr: fe80::250:56ff:fe99:c574/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:995476 errors:0 dropped:0 overruns:0 frame:0
TX packets:639007 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:578268831 (578.2 MB) TX bytes:522577815 (522.5 MB)
ens192 Link encap:Ethernet HWaddr 00:50:56:99:14:d4
inet6 addr: fe80::250:56ff:fe99:14d4/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:23276 errors:0 dropped:292 overruns:0 frame:0
TX packets:28 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:1697881 (1.6 MB) TX bytes:1988 (1.9 KB)
Interrupt:19 Memory:fd3a0000-fd3c0000
маршрут -n:
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 10.105.166.251 0.0.0.0 UG 0 0 0 ens160
10.105.166.0 0.0.0.0 255.255.255.0 U 0 0 0 ens160
/etc/neutron/plugins/ml2/linuxbridge_agent.ini: [linux_bridge]
#
# From neutron.ml2.linuxbridge.agent
#
# Comma-separated list of <physical_network>:<physical_interface> tuples
# mapping physical network names to the agent's node-specific physical network
# interfaces to be used for flat and VLAN networks. All physical networks
# listed in network_vlan_ranges on the server should have mappings to
# appropriate interfaces on each agent. (list value)
physical_interface_mappings = provider:ens192
# List of <physical_network>:<physical_bridge> (list value)
#bridge_mappings =
[vxlan]
#
# From neutron.ml2.linuxbridge.agent
#
# Enable VXLAN on the agent. Can be enabled when agent is managed by ml2 plugin
# using linuxbridge mechanism driver (boolean value)
enable_vxlan = True
local_ip = 10.105.166.87
l2_population = True
Вычислительный узел:
/ и т.д. / сеть / интерфейсы:
# The provider network interface
auto eno1
iface eno1 inet manual
up ip link set dev $IFACE up
down ip link set dev $IFACE down
# main network
auto enp4s0f3
iface enp4s0f3 inet dhcp
Ifconfig:
eno1 Link encap:Ethernet HWaddr 00:1e:67:d8:ae:36
inet6 addr: fe80::21e:67ff:fed8:ae36/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:62075 errors:0 dropped:0 overruns:0 frame:0
TX packets:8 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:10075695 (10.0 MB) TX bytes:648 (648.0 B)
Memory:91920000-9193ffff
enp4s0f3 Link encap:Ethernet HWaddr 00:1e:67:d8:ae:37
inet addr:10.105.167.134 Bcast:10.105.167.255 Mask:255.255.255.0
inet6 addr: fe80::21e:67ff:fed8:ae37/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:358572 errors:0 dropped:0 overruns:0 frame:0
TX packets:243401 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:203461227 (203.4 MB) TX bytes:75659105 (75.6 MB)
Memory:91900000-9191ffff
маршрут -a:
root@compute1:~# route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
0.0.0.0 10.105.167.251 0.0.0.0 UG 0 0 0 enp4s0f3
10.105.167.0 0.0.0.0 255.255.255.0 U 0 0 0 enp4s0f3
/etc/neutron/plugins/ml2/linuxbridge_agent.ini:
[linux_bridge]
#
# From neutron.ml2.linuxbridge.agent
#
# Comma-separated list of <physical_network>:<physical_interface> tuples
# mapping physical network names to the agent's node-specific physical network
# interfaces to be used for flat and VLAN networks. All physical networks
# listed in network_vlan_ranges on the server should have mappings to
# appropriate interfaces on each agent. (list value)
physical_interface_mappings = provider:eno1
# List of <physical_network>:<physical_bridge> (list value)
#bridge_mappings =
[securitygroup]
#
# From neutron.ml2.linuxbridge.agent
#
# Driver for security groups firewall in the L2 agent (string value)
firewall_driver = neutron.agent.linux.iptables_firewall.IptablesFirewallDriver
Это мои цели в отношении настройки сети:
1) Я не хочу больше использовать IP-адреса в физической сети. 2) Экземплярам виртуальных машин будут выделены IP-адреса в сегменте виртуализированной сети. 3) Какой-то вид оверлейной сети, позволяющий им соединяться друг с другом. 4) Сетевое подключение к Требуется интернет
Я читал об OpenVSwitch и о том, как его можно использовать здесь, однако он кажется довольно сложным, и я не уверен, нужно ли мне действительно вкладывать усилия в получение этой установки. Я был бы признателен за некоторые советы о том, как это можно настроить.
Очень ценю помощь. Спасибо!