CCIE.pl

site 4 CCIE wannabies
It is currently 23 Sep 2017, 18:19

All times are UTC+02:00





Post new topic  Reply to topic  [ 2 posts ] 
Author Message
Post #1 Posted: 30 Jun 2017, 13:03 
Offline
fresh
fresh

Joined: 03 Dec 2008, 16:55
Posts: 4
Witam,

Próbuję uruchomić około 12 instancji Nexus 9000v. Jeżeli VIRL uruchomiony jest tylko na jednym serwerze (ESXi 6.0) (bez klastra), uruchamiają się wszystkie nody, niestety, po wgraniu konfiguracji, serwer nie wytrzymuje obciążenia, i nody zachowują się niestabilnie.

Kiedy dołożyłem 3 kolejne serwery (każdy na ESXi 5.5) i na każdym z nich zainstalowałem compute nody zgodnie z instrukcja na stronie, wszystkie nody są widziane prawidłowo,
ale kiedy próbuję uruchamiać Nexus-y w tej konfiguracji, tylko instancje na kontrolerze są uruchamiane, reszta kończy się komunikatem

"
(ERROR) [Jun/30/2017 09:13:24] Node "nx-osv9000-8" state changed from BUILDING to ERROR with message: No valid host was found. Exceeded max scheduling attempts 3 for instance 9a674029-87fe-4edc-b21c-fcbe28e19afe. Last exception: [u'Traceback (most recent call last):\n', u' File "/usr/lib/python2.7/dist-packages/nova/compute/manager.py", line 2248, in _do: File "/usr/lib/python2.7/dist-packages/nova/conductor/manager.py", line 669, in build_instances
"

Co ciekawe kiedy próbuję uruchomic 20x IOS XRv 9000v wszystko działa prawidłowo, i obciążenie rozkłada się równomiernie na wszystkie hosty w klastrze.

próbowałem z wersją 7.0.3.I6.1 (doinstalowana ręcznie) oraz 7.0.3.I5.1 (pochodząca z aktualizacji), za każdym razem ten sam efekt.

virl@virl:~$ nova service-list
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| Id | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
| 6 | nova-cert | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 7 | nova-consoleauth | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 8 | nova-scheduler | virl | internal | enabled | up | 2017-06-30T10:59:24.000000 | - |
| 9 | nova-conductor | virl | internal | enabled | up | 2017-06-30T10:59:20.000000 | - |
| 10 | nova-compute | virl | nova | enabled | up | 2017-06-30T10:59:16.000000 | - |
| 11 | nova-compute | compute2 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 12 | nova-compute | compute3 | nova | enabled | up | 2017-06-30T10:59:18.000000 | - |
| 13 | nova-compute | compute1 | nova | enabled | up | 2017-06-30T10:59:20.000000 | - |
+----+------------------+----------+----------+---------+-------+----------------------------+-----------------+
virl@virl:~$ neutron agent-list
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| id | agent_type | host | alive | admin_state_up | binary |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+
| 106f86ca-8f0b-4f29-ae95-d0ff4a9695d3 | Linux bridge agent | compute1 | :-) | True | neutron-linuxbridge-agent |
| 4d0533fb-d826-4bc2-847d-c074e3ba574e | L3 agent | virl | :-) | True | neutron-l3-agent |
| 4f08285b-0a18-4a1a-ba4d-56e131105af8 | Linux bridge agent | virl | :-) | True | neutron-linuxbridge-agent |
| 67ebfda5-3cc7-4134-b090-f0bad8f04839 | Linux bridge agent | compute3 | :-) | True | neutron-linuxbridge-agent |
| a8b769bf-ee21-44eb-90d9-ef4db70e162c | Metadata agent | virl | :-) | True | neutron-metadata-agent |
| c3890553-6b81-45fc-8cc4-10c487d3ec64 | Linux bridge agent | compute2 | :-) | True | neutron-linuxbridge-agent |
| d2ad9c65-4ed9-40b1-a5c3-6cdf7c6d671c | DHCP agent | virl | :-) | True | neutron-dhcp-agent |
+--------------------------------------+--------------------+----------+-------+----------------+---------------------------+

Miał ktoś może podobny przypadek?
z góry dzięki za pomoc.


Top
   
Post #2 Posted: 17 Jul 2017, 20:06 
Offline
fresh
fresh

Joined: 03 Dec 2008, 16:55
Posts: 4
Miałem chwile czasu, i znalazłem problem.
może się komuś przyda.
Niestety, wersje compute node dostępne ze strony VIRL-a, nie maja pliku n9kbios.bin (nie testowałem dodania compute nodów przed aktualizacją VIRL-a).
Po przeniesieniu go z kontrolera (virl) do pozostałych nodów, do katalogu /usr/share/seabios oraz dodaniu dowiązania symbolicznego, w katalogu /usr/share/qemu (sudo ln -s ../seabios/n9kbios.bin n9kbios.bin), wszystko zaczęło działać normalnie, a hosty normalnie uruchamiały wszystkie instancje Nexus 9k, w najnowszej wersji dostępnej na cisco.com, i równo się obciążały. W tej chwili odpalenie 20 nodów N9k, nie stanowi problemu.


Top
   
Display posts from previous:  Sort by  
Post new topic  Reply to topic  [ 2 posts ] 

All times are UTC+02:00


Who is online

Users browsing this forum: No registered users and 1 guest


You cannot post new topics in this forum
You cannot reply to topics in this forum
You cannot edit your posts in this forum
You cannot delete your posts in this forum
You cannot post attachments in this forum

Search for:
Jump to:  
This Website is not sponsored by, endorsed by or affiliated with Cisco Systems, Inc. Cisco, Cisco Systems, CCDA, CCNA, CCDP, CCNP, CCIE, CCSI, CCIP, the Cisco Systems logo and the CCIE logo are trademarks or registered trademarks of Cisco Systems, Inc. in the United States and certain other countries. Używamy informacji zapisanych za pomocą cookies i podobnych technologii m.in. w celach reklamowych i statystycznych oraz w celu dostosowania naszych serwisów do indywidualnych potrzeb użytkowników. Mogą też stosować je współpracujące z nami firmy. W programie służącym do obsługi internetu można zmienić ustawienia dotyczące cookies. Korzystanie z naszych serwisów internetowych bez zmiany ustawień dotyczących cookies oznacza, że będą one zapisane w pamięci urządzenia.



Powered by phpBB® Forum Software © phpBB Limited