CCIE.pl

site 4 CCIE wannabies
Dzisiaj jest 18 lis 2017, 13:04

Strefa czasowa UTC+01:00




Nowy temat  Odpowiedz w temacie  [ Posty: 2 ] 
Autor Wiadomość
Post #1 : 30 cze 2017, 13:03 
Offline
fresh
fresh

Rejestracja: 03 gru 2008, 16:55
Posty: 4
Witam,

Próbuję uruchomić około 12 instancji Nexus 9000v. Jeżeli VIRL uruchomiony jest tylko na jednym serwerze (ESXi 6.0) (bez klastra), uruchamiają się wszystkie nody, niestety, po wgraniu konfiguracji, serwer nie wytrzymuje obciążenia, i nody zachowują się niestabilnie.

Kiedy dołożyłem 3 kolejne serwery (każdy na ESXi 5.5) i na każdym z nich zainstalowałem compute nody zgodnie z instrukcja na stronie, wszystkie nody są widziane prawidłowo,
ale kiedy próbuję uruchamiać Nexus-y w tej konfiguracji, tylko instancje na kontrolerze są uruchamiane, reszta kończy się komunikatem

"
(ERROR) [Jun/30/2017 09:13:24] Node "nx-osv9000-8" state changed from BUILDING to ERROR with message: No valid host was found. Exceeded max scheduling attempts 3 for instance 9a674029-87fe-4edc-b21c-fcbe28e19afe. Last exception: [u'Traceback (most recent call last):\n', u' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 2248, in _do: File "/usr/lib/python2.7/dist-packages/nova/conductor/manager.py", line 669, in build_instances
"

Co ciekawe kiedy próbuję uruchomic 20x IOS XRv 9000v wszystko działa prawidłowo, i obciążenie rozkłada się równomiernie na wszystkie hosty w klastrze.

próbowałem z wersją 7.0.3.I6.1 (doinstalowana ręcznie) oraz 7.0.3.I5.1 (pochodząca z aktualizacji), za każdym razem ten sam efekt.

virl@virl:~$ nova service-list
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| Id | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| 6 | nova-cert | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 7 | nova-consoleauth | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 8 | nova-scheduler | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 9 | nova-conductor | virl | internal | enabled | up | 2017-06-30T10:59:20.000000 | - |
| 10 | nova-compute | virl | nova | enabled | up | 2017-06-30T10:59:16.000000 | - |
| 11 | nova-compute | compute2 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 12 | nova-compute | compute3 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 13 | nova-compute | compute1 | nova | enabled | up | 2017-06-30T10:59:20.000000 | - |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
virl@virl:~$ neutron agent-list
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| id | agent_type | host | alive | admin_state_up | binary |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| 106f86ca-8f0b-4f29-ae95-d0ff4a9695d3 | Linux bridge agent | compute1 | :-) | True | neutron-linuxbridge-agent |
| 4d0533fb-d826-4bc2-847d-c074e3ba574e | L3 agent | virl | :-) | True | neutron-l3-agent |
| 4f08285b-0a18-4a1a-ba4d-56e131105af8 | Linux bridge agent | virl | :-) | True | neutron-linuxbridge-agent |
| 67ebfda5-3cc7-4134-b090-f0bad8f04839 | Linux bridge agent | compute3 | :-) | True | neutron-linuxbridge-agent |
| a8b769bf-ee21-44eb-90d9-ef4db70e162c | Metadata agent | virl | :-) | True | neutron-metadata-agent |
| c3890553-6b81-45fc-8cc4-10c487d3ec64 | Linux bridge agent | compute2 | :-) | True | neutron-linuxbridge-agent |
| d2ad9c65-4ed9-40b1-a5c3-6cdf7c6d671c | DHCP agent | virl | :-) | True | neutron-dhcp-agent |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+

Miał ktoś może podobny przypadek?
z góry dzięki za pomoc.


Na górę
Post #2 : 17 lip 2017, 20:06 
Offline
fresh
fresh

Rejestracja: 03 gru 2008, 16:55
Posty: 4
Miałem chwile czasu, i znalazłem problem.
może się komuś przyda.
Niestety, wersje compute node dostępne ze strony VIRL-a, nie maja pliku n9kbios.bin (nie testowałem dodania compute nodów przed aktualizacją VIRL-a).
Po przeniesieniu go z kontrolera (virl) do pozostałych nodów, do katalogu /usr/share/seabios oraz dodaniu dowiązania symbolicznego, w katalogu /usr/share/qemu (sudo ln -s ../seabios/n9kbios.bin n9kbios.bin), wszystko zaczęło działać normalnie, a hosty normalnie uruchamiały wszystkie instancje Nexus 9k, w najnowszej wersji dostępnej na cisco.com, i równo się obciążały. W tej chwili odpalenie 20 nodów N9k, nie stanowi problemu.


Na górę
Wyświetl posty nie starsze niż:  Sortuj wg  
Nowy temat  Odpowiedz w temacie  [ Posty: 2 ] 

Strefa czasowa UTC+01:00


Kto jest online

Użytkownicy przeglądający to forum: Obecnie na forum nie ma żadnego zarejestrowanego użytkownika i 1 gość


Nie możesz tworzyć nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz dodawać załączników

Szukaj:
Przejdź do:  
cron
This Website is not sponsored by, endorsed by or affiliated with Cisco Systems, Inc. Cisco, Cisco Systems, CCDA, CCNA, CCDP, CCNP, CCIE, CCSI, CCIP, the Cisco Systems logo and the CCIE logo are trademarks or registered trademarks of Cisco Systems, Inc. in the United States and certain other countries. Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach reklamowych i statystycznych oraz w celu dostosowania naszych serwisów do indywidualnych potrzeb użytkowników. Mogą też stosować je współpracujące z nami firmy. W programie służącym do obsługi internetu można zmienić ustawienia dotyczące cookies. Korzystanie z naszych serwisów internetowych bez zmiany ustawień dotyczących cookies oznacza, że będą one zapisane w pamięci urządzenia.



Technologię dostarcza phpBB® Forum Software © phpBB Limited
Polski pakiet językowy dostarcza phpBB.pl