VIRL - problem z Nexus 9000v
: 30 cze 2017, 13:03
Witam,
Próbuję uruchomić około 12 instancji Nexus 9000v. Jeżeli VIRL uruchomiony jest tylko na jednym serwerze (ESXi 6.0) (bez klastra), uruchamiają się wszystkie nody, niestety, po wgraniu konfiguracji, serwer nie wytrzymuje obciążenia, i nody zachowują się niestabilnie.
Kiedy dołożyłem 3 kolejne serwery (każdy na ESXi 5.5) i na każdym z nich zainstalowałem compute nody zgodnie z instrukcja na stronie, wszystkie nody są widziane prawidłowo,
ale kiedy próbuję uruchamiać Nexus-y w tej konfiguracji, tylko instancje na kontrolerze są uruchamiane, reszta kończy się komunikatem
"
(ERROR) [Jun/30/2017 09:13:24] Node "nx-osv9000-8" state changed from BUILDING to ERROR with message: No valid host was found. Exceeded max scheduling attempts 3 for instance 9a674029-87fe-4edc-b21c-fcbe28e19afe. Last exception: [u'Traceback (most recent call last):\n', u' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 2248, in _do: File "/usr/lib/python2.7/dist-packages/nova/conductor/manager.py", line 669, in build_instances
"
Co ciekawe kiedy próbuję uruchomic 20x IOS XRv 9000v wszystko działa prawidłowo, i obciążenie rozkłada się równomiernie na wszystkie hosty w klastrze.
próbowałem z wersją 7.0.3.I6.1 (doinstalowana ręcznie) oraz 7.0.3.I5.1 (pochodząca z aktualizacji), za każdym razem ten sam efekt.
virl@virl:~$ nova service-list
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| Id | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| 6 | nova-cert | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 7 | nova-consoleauth | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 8 | nova-scheduler | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 9 | nova-conductor | virl | internal | enabled | up | 2017-06-30T10:59:20.000000 | - |
| 10 | nova-compute | virl | nova | enabled | up | 2017-06-30T10:59:16.000000 | - |
| 11 | nova-compute | compute2 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 12 | nova-compute | compute3 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 13 | nova-compute | compute1 | nova | enabled | up | 2017-06-30T10:59:20.000000 | - |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
virl@virl:~$ neutron agent-list
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| id | agent_type | host | alive | admin_state_up | binary |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| 106f86ca-8f0b-4f29-ae95-d0ff4a9695d3 | Linux bridge agent | compute1 | | True | neutron-linuxbridge-agent |
| 4d0533fb-d826-4bc2-847d-c074e3ba574e | L3 agent | virl | | True | neutron-l3-agent |
| 4f08285b-0a18-4a1a-ba4d-56e131105af8 | Linux bridge agent | virl | | True | neutron-linuxbridge-agent |
| 67ebfda5-3cc7-4134-b090-f0bad8f04839 | Linux bridge agent | compute3 | | True | neutron-linuxbridge-agent |
| a8b769bf-ee21-44eb-90d9-ef4db70e162c | Metadata agent | virl | | True | neutron-metadata-agent |
| c3890553-6b81-45fc-8cc4-10c487d3ec64 | Linux bridge agent | compute2 | | True | neutron-linuxbridge-agent |
| d2ad9c65-4ed9-40b1-a5c3-6cdf7c6d671c | DHCP agent | virl | | True | neutron-dhcp-agent |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
Miał ktoś może podobny przypadek?
z góry dzięki za pomoc.
Próbuję uruchomić około 12 instancji Nexus 9000v. Jeżeli VIRL uruchomiony jest tylko na jednym serwerze (ESXi 6.0) (bez klastra), uruchamiają się wszystkie nody, niestety, po wgraniu konfiguracji, serwer nie wytrzymuje obciążenia, i nody zachowują się niestabilnie.
Kiedy dołożyłem 3 kolejne serwery (każdy na ESXi 5.5) i na każdym z nich zainstalowałem compute nody zgodnie z instrukcja na stronie, wszystkie nody są widziane prawidłowo,
ale kiedy próbuję uruchamiać Nexus-y w tej konfiguracji, tylko instancje na kontrolerze są uruchamiane, reszta kończy się komunikatem
"
(ERROR) [Jun/30/2017 09:13:24] Node "nx-osv9000-8" state changed from BUILDING to ERROR with message: No valid host was found. Exceeded max scheduling attempts 3 for instance 9a674029-87fe-4edc-b21c-fcbe28e19afe. Last exception: [u'Traceback (most recent call last):\n', u' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 2248, in _do: File "/usr/lib/python2.7/dist-packages/nova/conductor/manager.py", line 669, in build_instances
"
Co ciekawe kiedy próbuję uruchomic 20x IOS XRv 9000v wszystko działa prawidłowo, i obciążenie rozkłada się równomiernie na wszystkie hosty w klastrze.
próbowałem z wersją 7.0.3.I6.1 (doinstalowana ręcznie) oraz 7.0.3.I5.1 (pochodząca z aktualizacji), za każdym razem ten sam efekt.
virl@virl:~$ nova service-list
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| Id | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| 6 | nova-cert | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 7 | nova-consoleauth | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 8 | nova-scheduler | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 9 | nova-conductor | virl | internal | enabled | up | 2017-06-30T10:59:20.000000 | - |
| 10 | nova-compute | virl | nova | enabled | up | 2017-06-30T10:59:16.000000 | - |
| 11 | nova-compute | compute2 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 12 | nova-compute | compute3 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 13 | nova-compute | compute1 | nova | enabled | up | 2017-06-30T10:59:20.000000 | - |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
virl@virl:~$ neutron agent-list
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| id | agent_type | host | alive | admin_state_up | binary |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| 106f86ca-8f0b-4f29-ae95-d0ff4a9695d3 | Linux bridge agent | compute1 | | True | neutron-linuxbridge-agent |
| 4d0533fb-d826-4bc2-847d-c074e3ba574e | L3 agent | virl | | True | neutron-l3-agent |
| 4f08285b-0a18-4a1a-ba4d-56e131105af8 | Linux bridge agent | virl | | True | neutron-linuxbridge-agent |
| 67ebfda5-3cc7-4134-b090-f0bad8f04839 | Linux bridge agent | compute3 | | True | neutron-linuxbridge-agent |
| a8b769bf-ee21-44eb-90d9-ef4db70e162c | Metadata agent | virl | | True | neutron-metadata-agent |
| c3890553-6b81-45fc-8cc4-10c487d3ec64 | Linux bridge agent | compute2 | | True | neutron-linuxbridge-agent |
| d2ad9c65-4ed9-40b1-a5c3-6cdf7c6d671c | DHCP agent | virl | | True | neutron-dhcp-agent |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
Miał ktoś może podobny przypadek?
z góry dzięki za pomoc.