-
Fototrend
Sziasztok, udvozlunk mindenkit Magyarorszag legnagyobb VMware forumjaban!
Új hozzászólás Aktív témák
-
-
almi
senior tag
Sziasztok!
Licenszeléssel kapcsolatban lenne kérdésem.
Hozzájutottunk egy egészen komoly, Vmware vSphere 6 with operations management enterprise plus acceleration kit for 6 processors licenszhez, viszont a 3 éves Support már sajnos lejárt.
Az világos, hogy konvertálni vmware 7-re aktív support nélkül nem fogom tudni (Ezt a verziót már egyébként sem lenne geyszerű, mert End of Avilibility, ha jól tudom), viszont a 6.7 U3 tetejéig tudom frissíteni további költségek nélkül?
Köszi!
Üdv.,
almi[ Szerkesztve ]
-
addikt
Ja és ha nincs benne vCenter licensz akkor azért korlátozottak lesznek a funkciók (6 proci az ugye 3-6 gép). Na meg kellene valamilyen tárolórendszer és/vagy vSAN licensz és diszkek/SSD. Ja és ez az egész azért legyen benne HCL-ben.
Valamint ha éles környezetet teszel rá azért nem árt egy SnS"After successfully ignoring Google, FAQ's, the board search and leaving a undecipherable post in the wrong sub-forum don't expect an intelligent reply."
-
bugizozi
őstag
Sziasztok!
Törölt már valaki vib-eket ESXi update után, hogy be tudja kapcsolni a secure boot-ot?
vCenter, ESXi 6.0 -> 6.7 frissítés után TPM hibát jelez a host, bekapcsoltam a secure boot-ot, de lila hál lett az eredménye. Olvastam a zinterneten, hogy le kell törölni azokat a vib-eket, amik miatt nem megy. Ebből nem lesz gond később? Sajnos nem "fényképeztem" le hogy pontosan melyekre panaszkodik.Köszönöm!
VCP7-DCV, CCNA ||| Ami működik, ahhoz nem szabad hozzányúlni!
-
almi
senior tag
Köszi az infókat.
Van vCenter licenszünk is. Egyelőre csak egy host lesz a "clusterben". Tudom, hogy így nincs meg a HA, de dev+test+uat környezetek fognak rajta futni, prod nem.
Indulásnak ennek is örülünk, később pedig ha úgy alakul (reméljük, hogy úgy fog ) , hozzá lehet csapni + hostokat, esetleg storage-ot vagy vSAN-t, vásárolni SnS-t.
Egyelőre simán a host local disk-jei lesznek használva DS-oknak.
A diskek raid 10-ben hardveres raid vezérlővel és természetesen SSD-k. -
bugizozi
őstag
válasz bugizozi #4955 üzenetére
Megcsináltam, letöröltem a VIB-eket, utána ment a secure boot, elindult az ESXi.
Most más gonddal jönnék
Új rendszer, a szerver iSCSI protokollon keresztül éri el a tárolót, átmigráltam rá egy melévő VM-et korábbi szerverről amiben lokál diszkek vannak, és panaszkodnak, hogy lassú. Találtam róla egy KB-t, miszerint le kell tiltani a Delayed ACK-t [link]. Ezt megtettem, de reboot után visszaállt az eredeti konfig. Olvastam, hogy ez meglévő konfignál nem elegendő, hanem ki kell törölni a dinamikus és statikus targeteket Disable Delayed Ack for iSCSI on ESXi, not always workingPut the host in “maintenance mode”
Remove all iSCSI target from the host in dynamic discover and static target, close the window
Rescan storage
Readd all dynamic discover target
Rescan storageIlyenkor a meglévő datastore-ral mi lesz? Megmarad ugyanúgy, illetve rajta a VM-ek?
Köszi!
[ Szerkesztve ]
VCP7-DCV, CCNA ||| Ami működik, ahhoz nem szabad hozzányúlni!
-
-
Immy
őstag
Sziasztok,
Vcenter essentials alá szeretnék bekötni olyan esxi server-t ami fizikailag másik földrészen van. Mennyire támogatott ez a felállás? Mennyire érzékeny a késleltetésre?
Üdv.Apró: https://hardverapro.hu/aprok/hirdeto/immy/index.html
-
addikt
Mennyi a latency és bandwidth? 100ms felett nem ajánlott, de működhet.
Azt vedd figyelembe, hogy minden művelet lassabb lesz valamivel, itt egy whitepaper:
https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/performance/robo-vcenter67-perf.pdf"After successfully ignoring Google, FAQ's, the board search and leaving a undecipherable post in the wrong sub-forum don't expect an intelligent reply."
-
Immy
őstag
Köszi a linket, nagyon jó infók vannak benne.
A terv az lenne, hogy az Indiában lévő egyik esxi servert is bevonni vcenter alá. A kapcsolat elvileg jó, rendes SLA-val, de biztos hogy vannak döccenések, amikor a közelébe se ér a 100ms-nek. Backup nincs tervezve a két site között.Apró: https://hardverapro.hu/aprok/hirdeto/immy/index.html
-
zex
aktív tag
Sziasztok! Nagyon új vagyok még a témában. Szerettem volna egy ESXi 6.7 vagy 7.0-t feltelepíteni a Fujitsu Primergy TX100S3-as szerveremre (Xeon E3 1220-as CPU és 12GB RAM). Sajnos nem jön össze, az alábbi hibával elszáll a telepítő bootolás közben:
Találtam a neten, hogy létezik FUJITSU Customized Image is az ESXi oldalán, de ezzel is ugyanez a hiba.
Írtam a Fujitsu supportnak, de lepattintottak, hogy régi a vas, meg különben sem támogatott rajta az ESXi... Pedig volt egy hulladék Lenovo i5-560-as CPUval, meg 8GB DDR3-as rammal és arra sikerült felraknom, csak az elején kellett megadni, hogy allowLegacyCPU=true, mert kicsit panaszkodott, hogy régi a CPU.Tudna esetleg valaki segíteni, hogy hogyan tudnám életre kelteni a sokkal fiatalabb és erősebb Fujitsu-n az ESXi-t?
Köszönöm előre is!
-
zex
aktív tag
Nem gondolnám, hogy ez a baja. Ugyan is próbáltam egy szintén Fujitsu asztali PC-n, i5-3470-es CPU-val (amúgy az E3 1220-as is 3. genes i prociknak felel meg), és ott is ugyanezt a hibaüzenetet kaptam. A Lenovo-n meg amiben első genes i5-560-as van, ott szépen kiírja, hogy "Unsupported CPU", de azt a problémát simán át is hidaltam.
-
[Newman]
tag
Talán azért van mert a Fujitsu Customized ESXi ISO sem tartalmazza a szükséges driver-eket a szerveredhez. Attól, hogy egy processzoron egy másik típusban/gyártónál támogatott, még nem lesz támogatott bármelyik gyártónál. Lásd a HPE-nél a vSphere 7 már rég támogatott a DL380 Gen10 szervereken, de érdekes módon az azonos processzorral szerelt Synergy 480 Gen10-eken nem volt támogatott - most is úgy lett csak az, hogy jött hozzá SPP - fw.
A "Fujitsu Primergy TX100S3" egyáltalán nem szerepel a VMware HCL-jében, de ha csak simán Primergy-re keresel és ott szűkíted a processzorra, akkor sem támogat semmi mást 6.U1/U3.
Ha fel is megy rá és elindul, akkor bíznál benne?
[link]VCIX-DCV,VCIX-NV,vExpert,vExpert Pro,vExpert NSX,VMCA - newman.cloud
-
szolnoki
csendes tag
Sziasztok, én már ezt azt csináltam ESXi-ben, de azok leginkább egszerű 1 db ESXi host, X db lemezzel, helyi VMFS datastore-okkal.
De most giga mega át akrom alakítani az itthoni lab-ot. (Keretik nem azt kritizálni, hogy miért ekkorát... csak... mert ez a hobbim )
Szóval tudom mit szeretnék, csak performancia stempontjából nem tudom melyik lenne a jó megoldás. Igazából azt nem tudom a Datastore hogyanan vagyis HOL legyen? Az biztos, hogy erre célra lesz pár TB SSD hardware LSI RAID5-ben, és pár tucat terabájtnyi SAS winyó. RAID5-vagy JBOD ez majd fájlrendszer függő.. Ja és van egy LTO-7 library Vagy VM-be migrálódna, vagy standalone vas lenne: egy tűzfal, egy archiváló rendszer + LTO7 kezelés, NAS, na meg sok tucat VM erre-arra
A "basic" megoldás amit nem akarok:
- Egy db ESXI, sok datastore-al, minden VM lokális VMFS/VMDK-ban. Tűzfal, archiváló rendszer, NAS, st... minden VMFS-en, VMDK-val. Ahogy a klegeccerűbb... Ami ezzel bajom van, hogy nagyon félek hogy teljesen szétforgácsolódik a lemez teljesítmény...Opció A (kicsit trükkös):
- Egy db ESXi. Az SSD-k szokásos VMFS alapú datastore. Erről bootol az ESXI is. De a NAS is csak egy VM lenne ebben, aki az összes HDD-t megkapná RDM-ben, vagy akár azt a komplett SCSI vezérlőt passthrough-ban amin a HDD-k vannak. Aztán ebben a VM-ben Linux alatt ZFS, Btrfs, stb lenne. Aki "visszaosztaná" a Datastore-t NFS-ben magának a host ESXi-nek EZ mondjuk vicces így tudom, de működne... Ami nem teccik, hogy szerintem az LTO-7 "éhségét" (~300-600 MB/s vagy több) nem igazán bírná ez VM kiszolgálni. És hát a VM-ben kialakított NAS-tól sem kelle túl sokat várni (Bár mondjuk maga az ESXi itt a VM direkt "fizikai" lemezkezelése miatt nem sokat szólna ebbe bele...)Opció B:
- Egy valós vas, közepes telesítménnyel, natív Linux-al. Ezen semmi VM. Ebben lenne az összes HDD és az LTO-7 library etetése (+backup és miegymás). Fájlrendszer mint fentebb (ZFS,Btrfs, stb). Itt aztán diszk performancia (a lehetőségekhez képest) maxon lenne... Szóval egy natív NAS ahogy kell. 10Gbe interfésszel...
Valamint lenne egy külön ESXi vas, amiben az SSD lenne, szokásos VMFS-ben. És egy 10Gbe csatolón az előbbi NFS alapú Datastore-t is használná... Ami itt nem teccik, hogy még egy energizabáló hangos hősugárzóVan amit nem igazán vettem figyelembe, ami a döntést segíti?
Jogos a félelmem (tapasztalatom) hogy a lemezkezelés a VM-ben (főleg ha még egy VMFS-VMDK "réteg" is közte van) azért odavág a teljesítménynek? Főleg... HDD-nél.
[ Szerkesztve ]
-
jerry311
nagyúr
ESXi 6.7
Tud ez olyat, hogy bridgel 2 hálókártyát (vagy 1 kártya 2 portját)?
Tehát ami bejön az 1. porton, azt kiküldi a 2. porton, mint egy "rendes" bridge (vagy switch ha több mint két port). -
Chal
addikt
válasz jerry311 #4969 üzenetére
A fizikai portokat csak uplink portnak tudod használni, tehát bridge itt nem lesz, nem erre való. Annak viszont semmi akadálya, hogy csinálj egy vm-et, és abban valósítsd meg a bridge funkciót. Persze ez esetben két külün vswithcen legyen a két fizikai NIC mint uplink, és mindkét vswithcbe legyen a vm-nek 1-1 lába + a switchek security beállításainál mindhárom opció legyen engedélyezve (pormisc. mode, forged transmits, mac address changes).
Egyébként - bár működik - de ez sem túl szép megoldás, miért nem kötöd eleve össze a fizikai switcheket inkább?
[ Szerkesztve ]
-
jerry311
nagyúr
-
Mykroft
tag
Jerry!
Nálam "hasonló" a felállás, de valamit mégis kihagyhattam. (ESXi 6.7 u3, HP Microserver Gen8)
Többek között fut egy VPN szerver és egy Kamera szerver VM-ben. A vpn-en bejövő kamera forgalom viszont kijön a vasból a routerbe és vissza is megy a kamera szerverbe ugyan azon a csatolón át.
Mit kellene tennem ahhoz, hogy a VM-ek egymás közötti forgalma ne jönnön ki a fizikai csatolóra?[ Szerkesztve ]
-
Mykroft
tag
najó, ismeritek azt az érzést, amikor a fától nem látjátok az erdőt?
szóval az NVR-en egy routolt tartományból vettem fel a kamerákat (jó régen már), amit ugye a router intéz, és küldi át az adatokat VPN-en át. Így hát ezért lép ki és vissza a forgalom a routerhez.
Köszönöm a rávezetést, ezt benéztem -
Micsurin
nagyúr
Hello!
Mivel nincs összefoglaló felteszek egy banális kérdést.
Adott két készen kapott valamennyire beállított gép, mindkettő azonos virtuális hálózaton van mégsem hajlandóak látni egymást statikus címek esetén sem. Hol merre induljak?
Címek jók és biztosan stimmelnek.mod.: Lan szegmenst is próbáltam, semmi változás nem látják egymást.
[ Szerkesztve ]
The Separatists have no regard for innocent life. They don't care who walks away from war and who doesn't. That's why we move on them now, Commander……and Wolfpack leads the hunt.
-
anorche1
őstag
Sziasztok!
Hatha tudtok itt segiteni. A problemam, hogy manjaro kde rendszert hasznalok, es ez alatt kellene vmware horizonon keresztul egy tavoli virtualis gepet hasznalnom. Minden oke, van kep, van hang, csak a mikrofon nem jo.
Sem a laptop mikrofonja, sem a (jack -es) fejhallgato mikrofonja.
A virtualis gep egy windows 7, annak a hangbeallitasaban a felvevo resznel van egy eszkoz, de ott sem erzekel semmit.
Manjaro kde alatt ha egy alkalmazas hasznalja a mikrofont, akkor megjelenik a talcan egy ikon errol, hogy valami hasznalja a mikrofont. Ez vmware haszanalatkor nem tortenik meg.
Valakinek otlet?"It never gets easier, you just go faster." Greg LeMond
-
Micsurin
nagyúr
Hm? Virtuális hálózaton nem látják egymást.
Newman két ablakban futnak ha erre gondolsz, sajnálom kínai még a téma először találkozok vele.
The Separatists have no regard for innocent life. They don't care who walks away from war and who doesn't. That's why we move on them now, Commander……and Wolfpack leads the hunt.
-
Micsurin
nagyúr
válasz bugizozi #4983 üzenetére
Vagy valami hiányzik és nem pusztán azonos virtuális hálózatra kéne őket tenni?
Semmilyen egyéb menüt nem találtam ezen kívül VM-ben.Ezelőtt Lag szegmensen volt, OK után azonos virtuális háló mellett sem látják egymást.
[ Szerkesztve ]
The Separatists have no regard for innocent life. They don't care who walks away from war and who doesn't. That's why we move on them now, Commander……and Wolfpack leads the hunt.
-
jerry311
nagyúr
Újra kellett húznom az ESXi-t, mert valami nagyon korrupt lett rajta, korruptabb, mint bármelyik magyar kormány.
Szóval, hogy az 5 datastore-ból 1-et lát, 4-et nem, illetve látja még a 4 új HDD-t.
Ha új datastore-t akarok készíteni, akkor csak a 4 új disket mutatja.
Hogyan tudom a régi 4-et importálni vagy mountolni, hogy aztán következő indításnál is meglegyen mind? -
jerry311
nagyúr
Bizony, titkos, csak pénzért adom, ebből leszek milliárdos.
Aki a megfelelő keresőszavakat használja, az előbb megtalálja a megoldást, mint ezt a bejegyzést. (nem úgy mint én, aki bénázott a kereséssel) -
bugizozi
őstag
Sziasztok!
Egy vCenter 6.7-re nem lehetett bejelentkezni, AD auth, felh/jelszo után kiírta hogy SSO hiba, újraindították, mostmár a webes felület sem jön be. (503 Service Unavailable (Failed to connect to endpoint: [N7Vmacore4Http20NamedPipeServiceSpecE:0x00007fe8640079a0] _serverNamespace = / action = Allow _pipeName =/var/run/vmware/vpxd-webserver-pipe)) Néztem, hogy a szervizek nem indulnak el, ilyen hibát dob:
root@vCenter [ /bin ]# service-control --start vmware-vpxd
Operation not cancellable. Please wait for it to finish...
Performing start operation on service vpxd...
Error executing start on service vpxd. Details {
"componentKey": null,
"resolution": null,
"detail": [
{
"args": [
"vpxd"
],
"id": "install.ciscommon.service.failstart",
"localized": "An error occurred while starting service 'vpxd'",
"translatable": "An error occurred while starting service '%(0)s'"
}
],
"problemId": null
}
Service-control failed. Error: {
"componentKey": null,
"resolution": null,
"detail": [
{
"args": [
"vpxd"
],
"id": "install.ciscommon.service.failstart",
"localized": "An error occurred while starting service 'vpxd'",
"translatable": "An error occurred while starting service '%(0)s'"
}
],
"problemId": null
}A vpxd-log-ban ilyen bejegyzések vannak:
tail -n 50 /var/log/vmware/vpxd/vpxd.log
--> [context]zKq7AVECAAAAAHna9AAWdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAIyfGAFrSQJsaWJzc29jbGllbnQuc28AAbZNAgHGUgIB61MCAWAWAgJ+6wBsaWJzc291dGlsLnNvAAKN5gAD08qednB4ZAADilCgBMDtAWxpYmF1dGh6Y2xpZW50LnNvAARpBgIE4o0CBMSFAgPB8J4DOhRUA4pzVAMZ0VIFkAUCbGliYy5zby42AAOlyVI=[/context]
2020-09-23T14:28:14.508+02:00 info vpxd[31280] [Originator@6876 sub=VpxdAuthClient] fallback to loginByCertificate
2020-09-23T14:28:14.508+02:00 warning vpxd[31359] [Originator@6876 sub=Default] Failed to connect socket; <io_obj p:0x00007f630c4ae0e0, h:23, <TCP '127.0.0.1 : 40778'>, <TCP '127.0.0.1 : 10080'>>, e: 111(Connection refused)
2020-09-23T14:28:14.508+02:00 error vpxd[31280] [Originator@6876 sub=httpUtil] Error in sending request: N7Vmacore15SystemExceptionE(Connection refused: The remote service is not running, OR is overloaded, OR a firewall is rejecting connections.)
--> [context]zKq7AVECAAAAAHna9AAOdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGADHOCMADN0lAFTlJQDqASYAsQsmADmiIwBxbyMAOnIjAJ1WKwHUcwBsaWJwdGhyZWFkLnNvLjAAAt2ODmxpYmMuc28uNgA=[/context]
2020-09-23T14:28:14.509+02:00 error vpxd[31280] [Originator@6876 sub=ServerAccess] Remote login failed: N3Vim5Fault9HttpFault9ExceptionE(Fault cause: vim.fault.HttpFault
--> )
--> [context]zKq7AVECAAAAAHna9AATdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGAHu/FN2cHhkAAHUvmMBCIpzAa3MYwE7aKABslGgAsDtAWxpYmF1dGh6Y2xpZW50LnNvAAJpBgIC4o0CAsSFAgHB8J4BOhRUAYpzVAEZ0VIDkAUCbGliYy5zby42AAGlyVI=[/context]
2020-09-23T14:28:14.510+02:00 error vpxd[31280] [Originator@6876 sub=AuthzStorageProvider] [AuthzStorageProvider::CreateAuthzMgr] Failed to connect to IS: <N5Vmomi5Fault17HostCommunication9ExceptionE(Fault cause: vmodl.fault.HostCommunication
--> )
--> [context]zKq7AVECAAAAAHna9AASdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGAHu/FN2cHhkAAFI4VoBKM9jATtooAGyUaACwO0BbGliYXV0aHpjbGllbnQuc28AAmkGAgLijQICxIUCAcHwngE6FFQBinNUARnRUgOQBQJsaWJjLnNvLjYAAaXJUg==[/context]>
2020-09-23T14:28:14.511+02:00 info vpxd[31280] [Originator@6876 sub=AuthzStorageProvider] [AuthzStorageProvider::CreateAuthzMgr] Retry for this error: attempt count 59
2020-09-23T14:28:17.525+02:00 error vpxd[31280] [Originator@6876 sub=[SSO][SsoWrapperImpl]] [AcquireToken] AcquireToken exception: N9SsoClient27InvalidCredentialsExceptionE(Authentication failed: Invalid credentials)
--> [context]zKq7AVECAAAAAHna9AAWdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAIyfGAFrSQJsaWJzc29jbGllbnQuc28AAbZNAgHGUgIB61MCAWAWAgJ+6wBsaWJzc291dGlsLnNvAAKN5gAD08qednB4ZAADilCgBMDtAWxpYmF1dGh6Y2xpZW50LnNvAARpBgIE4o0CBMSFAgPB8J4DOhRUA4pzVAMZ0VIFkAUCbGliYy5zby42AAOlyVI=[/context]
2020-09-23T14:28:17.526+02:00 warning vpxd[31280] [Originator@6876 sub=VpxdAuthClient] [ConnectAndLogin] Failed to loginBySamlToken: N9SsoClient27InvalidCredentialsExceptionE(Authentication failed: Invalid credentials)
--> [context]zKq7AVECAAAAAHna9AAWdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAIyfGAFrSQJsaWJzc29jbGllbnQuc28AAbZNAgHGUgIB61MCAWAWAgJ+6wBsaWJzc291dGlsLnNvAAKN5gAD08qednB4ZAADilCgBMDtAWxpYmF1dGh6Y2xpZW50LnNvAARpBgIE4o0CBMSFAgPB8J4DOhRUA4pzVAMZ0VIFkAUCbGliYy5zby42AAOlyVI=[/context]
2020-09-23T14:28:17.527+02:00 info vpxd[31280] [Originator@6876 sub=VpxdAuthClient] fallback to loginByCertificate
2020-09-23T14:28:17.528+02:00 warning vpxd[31372] [Originator@6876 sub=Default] Failed to connect socket; <io_obj p:0x00007f62e4443be0, h:23, <TCP '127.0.0.1 : 40792'>, <TCP '127.0.0.1 : 10080'>>, e: 111(Connection refused)
2020-09-23T14:28:17.528+02:00 error vpxd[31280] [Originator@6876 sub=httpUtil] Error in sending request: N7Vmacore15SystemExceptionE(Connection refused: The remote service is not running, OR is overloaded, OR a firewall is rejecting connections.)
--> [context]zKq7AVECAAAAAHna9AAOdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGADHOCMADN0lAFTlJQDqASYAsQsmADmiIwBxbyMAOnIjAJ1WKwHUcwBsaWJwdGhyZWFkLnNvLjAAAt2ODmxpYmMuc28uNgA=[/context]
2020-09-23T14:28:17.528+02:00 error vpxd[31280] [Originator@6876 sub=ServerAccess] Remote login failed: N3Vim5Fault9HttpFault9ExceptionE(Fault cause: vim.fault.HttpFault
--> )
--> [context]zKq7AVECAAAAAHna9AATdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGAHu/FN2cHhkAAHUvmMBCIpzAa3MYwE7aKABslGgAsDtAWxpYmF1dGh6Y2xpZW50LnNvAAJpBgIC4o0CAsSFAgHB8J4BOhRUAYpzVAEZ0VIDkAUCbGliYy5zby42AAGlyVI=[/context]
2020-09-23T14:28:17.530+02:00 error vpxd[31280] [Originator@6876 sub=AuthzStorageProvider] [AuthzStorageProvider::CreateAuthzMgr] Failed to connect to IS: <N5Vmomi5Fault17HostCommunication9ExceptionE(Fault cause: vmodl.fault.HostCommunication
--> )
--> [context]zKq7AVECAAAAAHna9AASdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGAHu/FN2cHhkAAFI4VoBKM9jATtooAGyUaACwO0BbGliYXV0aHpjbGllbnQuc28AAmkGAgLijQICxIUCAcHwngE6FFQBinNUARnRUgOQBQJsaWJjLnNvLjYAAaXJUg==[/context]>
2020-09-23T14:28:17.531+02:00 info vpxd[31280] [Originator@6876 sub=AuthzStorageProvider] [AuthzStorageProvider::CreateAuthzMgr] Retry for this error: attempt count 60
2020-09-23T14:28:20.553+02:00 error vpxd[31280] [Originator@6876 sub=[SSO][SsoWrapperImpl]] [AcquireToken] AcquireToken exception: N9SsoClient27InvalidCredentialsExceptionE(Authentication failed: Invalid credentials)
--> [context]zKq7AVECAAAAAHna9AAWdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAIyfGAFrSQJsaWJzc29jbGllbnQuc28AAbZNAgHGUgIB61MCAWAWAgJ+6wBsaWJzc291dGlsLnNvAAKN5gAD08qednB4ZAADilCgBMDtAWxpYmF1dGh6Y2xpZW50LnNvAARpBgIE4o0CBMSFAgPB8J4DOhRUA4pzVAMZ0VIFkAUCbGliYy5zby42AAOlyVI=[/context]
2020-09-23T14:28:20.554+02:00 warning vpxd[31280] [Originator@6876 sub=VpxdAuthClient] [ConnectAndLogin] Failed to loginBySamlToken: N9SsoClient27InvalidCredentialsExceptionE(Authentication failed: Invalid credentials)
--> [context]zKq7AVECAAAAAHna9AAWdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAIyfGAFrSQJsaWJzc29jbGllbnQuc28AAbZNAgHGUgIB61MCAWAWAgJ+6wBsaWJzc291dGlsLnNvAAKN5gAD08qednB4ZAADilCgBMDtAWxpYmF1dGh6Y2xpZW50LnNvAARpBgIE4o0CBMSFAgPB8J4DOhRUA4pzVAMZ0VIFkAUCbGliYy5zby42AAOlyVI=[/context]
2020-09-23T14:28:20.555+02:00 info vpxd[31280] [Originator@6876 sub=VpxdAuthClient] fallback to loginByCertificate
2020-09-23T14:28:20.555+02:00 warning vpxd[31384] [Originator@6876 sub=Default] Failed to connect socket; <io_obj p:0x00007f62f0488f00, h:23, <TCP '127.0.0.1 : 40804'>, <TCP '127.0.0.1 : 10080'>>, e: 111(Connection refused)
2020-09-23T14:28:20.555+02:00 error vpxd[31280] [Originator@6876 sub=httpUtil] Error in sending request: N7Vmacore15SystemExceptionE(Connection refused: The remote service is not running, OR is overloaded, OR a firewall is rejecting connections.)
--> [context]zKq7AVECAAAAAHna9AAOdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGADHOCMADN0lAFTlJQDqASYAsQsmADmiIwBxbyMAOnIjAJ1WKwHUcwBsaWJwdGhyZWFkLnNvLjAAAt2ODmxpYmMuc28uNgA=[/context]
2020-09-23T14:28:20.556+02:00 error vpxd[31280] [Originator@6876 sub=ServerAccess] Remote login failed: N3Vim5Fault9HttpFault9ExceptionE(Fault cause: vim.fault.HttpFault
--> )
--> [context]zKq7AVECAAAAAHna9AATdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGAHu/FN2cHhkAAHUvmMBCIpzAa3MYwE7aKABslGgAsDtAWxpYmF1dGh6Y2xpZW50LnNvAAJpBgIC4o0CAsSFAgHB8J4BOhRUAYpzVAEZ0VIDkAUCbGliYy5zby42AAGlyVI=[/context]
2020-09-23T14:28:20.557+02:00 error vpxd[31280] [Originator@6876 sub=AuthzStorageProvider] [AuthzStorageProvider::CreateAuthzMgr] Failed to connect to IS: <N5Vmomi5Fault17HostCommunication9ExceptionE(Fault cause: vmodl.fault.HostCommunication
--> )
--> [context]zKq7AVECAAAAAHna9AASdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGAHu/FN2cHhkAAFI4VoBKM9jATtooAGyUaACwO0BbGliYXV0aHpjbGllbnQuc28AAmkGAgLijQICxIUCAcHwngE6FFQBinNUARnRUgOQBQJsaWJjLnNvLjYAAaXJUg==[/context]>
2020-09-23T14:28:20.558+02:00 error vpxd[31280] [Originator@6876 sub=Default] Failed to instantiate AuthzStorageProvider: N5Vmomi5Fault17HostCommunication9ExceptionE(Fault cause: vmodl.fault.HostCommunication
--> )
--> [context]zKq7AVECAAAAAHna9AASdnB4ZAAA4AArbGlidm1hY29yZS5zbwAAWCUbAP6dGAHu/FN2cHhkAAFI4VoBKM9jATtooAGyUaACwO0BbGliYXV0aHpjbGllbnQuc28AAmkGAgLijQICxIUCAcHwngE6FFQBinNUARnRUgOQBQJsaWJjLnNvLjYAAaXJUg==[/context]
2020-09-23T14:28:20.559+02:00 error vpxd[31280] [Originator@6876 sub=Authorize] Failed to initialize authorizeManager
2020-09-23T14:28:20.559+02:00 warning vpxd[31280] [Originator@6876 sub=VpxProfiler] Start [VpxdAuthorize::Start()] took 181485 ms
2020-09-23T14:28:20.559+02:00 warning vpxd[31280] [Originator@6876 sub=VpxProfiler] ServerApp::Start [TotalTime] took 181564 ms
2020-09-23T14:28:20.559+02:00 error vpxd[31280] [Originator@6876 sub=Default] Failed to start VMware VirtualCenter. Shutting down
2020-09-23T14:28:20.560+02:00 info vpxd[31280] [Originator@6876 sub=SupportMgr] Wrote uptime information
2020-09-23T14:29:16.109+02:00 info vpxd[31280] [Originator@6876 sub=Default] Forcing shutdown of VMware VirtualCenter nowTudna valaki segíteni ez ügyben, hogy merre induljak el? Szabad hely még van a partíciókon.
Köszönöm!
VCP7-DCV, CCNA ||| Ami működik, ahhoz nem szabad hozzányúlni!
-
addikt
-
bugizozi
őstag
Szia!
VAMI felület megy, mellékeltem egy képet a szervizekről.
Az idő ugyanaz, helyi AD van beállítva NTP szervernek.
Ami küldtél linket megcsináltam, de segített
Az STS certek, meg 1-2 másik le volt járva, azt megújítottam, reboot, de nem segített.Checking Expiration of STS Certificate on vCenter Server
How to regenerate vSphere 6.x certificates using self-signed VMCASzerencsére ez egy rendes ügyfél, van support, bejelentettem hibára, csak jó lenne mihamarabb megoldni, mert addig nincs Veeam mentés, csak sima storage snapshot.
VCP7-DCV, CCNA ||| Ami működik, ahhoz nem szabad hozzányúlni!
-
Immy
őstag
Sziasztok,
Esetleg van valakinek belsős infója, hogy mikorra várható a 7.0U1 GA?
Azt látom, hogy előző héten lejárt az NDA és arra gondoltam, hogy egy tiszta rendszeren megugornám a frissítést.Apró: https://hardverapro.hu/aprok/hirdeto/immy/index.html
-
szuszinho
őstag
Sziasztok,
Egy laptopon szeretném használni, kipróbálni, amin win10 fut. Jön ez a device guard probléma. Még YT-on is találtam rá megoldást, de hiába a registry módosítás, a hyper-v alapból is ki volt kapcsolva, illetve a bcedit parancsok, a hiba fennáll továbbra is.
Mit kellhet még módosítani?
-
bugizozi
őstag
válasz bugizozi #4992 üzenetére
Nah sikerült összevakarni ezt a vCenter-t, a cert-ekkel volt gond.
Amit linkeltem azt megcsináltam, csak rosszul újítottam meg, mert ide az FQDN-t írtam, nem csak simán a hostnevet.
Enter proper value for 'Hostname' [Enter valid Fully Qualified Domain Name(FQDN), For Example: example.domain.com]:
A support kiszúrta, hogy rossz névre állítottam ki a cert-et, megcsinálta aztán jó lett.
VCP7-DCV, CCNA ||| Ami működik, ahhoz nem szabad hozzányúlni!
-
bugizozi
őstag
válasz jerry311 #4997 üzenetére
Előtte meg írja "
proper value for 'Hostname'
"
Sajnos a proper value jelen esetben annyi volt, hogy vCenter, nem az hogy vCenter.domain.local. Gondolom a VMware ajánlása az FQDN név, de itt nem így volt telepítve anno.VCP7-DCV, CCNA ||| Ami működik, ahhoz nem szabad hozzányúlni!
-
TheProb
veterán
Sziasztok!
vSAN DS-ről/-re való vmdk fel-/letöltés sikerült már valakinek? Le csak a leírót szedi le.
Vissza pedig hibát dob, ami erre a KB-re visz. Cert-ek jók, nem önaláírtak. Igaz a Serenity database reset-et még nem próbáltam."Boba is Mickey, Mickey is Boba" - Finkle Einhorn | PC Rig: https://pcpartpicker.com/b/bBy48d
Új hozzászólás Aktív témák
- Építő/felújító topik
- Videós, mozgóképes topik
- Kupon kunyeráló
- sziku69: Fűzzük össze a szavakat :)
- sziku69: Szólánc.
- Elkészült Oroszország első litográfiai berendezése
- Samsung LCD és LED TV-k
- Bambu Lab X1/X1C, P1P-P1S és A1 mini tulajok
- Otthoni hálózat és internet megosztás
- A fociról könnyedén, egy baráti társaságban
- További aktív témák...
- Autómatricák a legjobb minőségben, több ezer minta! PH tagoknak 30% kedvezmény!
- Eladó Steam kulcsok kedvező áron!
- Windows, Office licencek a legolcsóbban, egyenesen a Microsoft-tól - 2990 Ft-tól!
- Windows 10/11 Home/Pro , Office OEM/Retail kulcsok
- AKCIÓ! - STEAM kulcsok / Punch Club, Oddworld: Soulstorm, Children of Morta, stb. - 2024.05.16.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Ozeki Kft.
Város: Debrecen