Hirdetés
- CES 2026: Minden kiszivárgott bemutatója előtt a Motorola új csúcstelefonjáról
- Mobilhasználat külföldön
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Milyen okostelefont vegyek?
- Samsung Galaxy S21 FE 5G - utóirat
- Visszatérnek a Samsung tervezte CPU-magok és GPU az Exynos 2800-ban?
- Yettel topik
- OnePlus 15 - van plusz energia
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- iPhone topik
-
Mobilarena
Sziasztok, udvozlunk mindenkit Magyarorszag legnagyobb VMware forumjaban!

Új hozzászólás Aktív témák
-
-
válasz
kraftxld
#6166
üzenetére
Gondolkodtam, meg olvasgattam kicsit, az igazsághoz hozzátartozik az is, hogy a Vmware a gyári CPU virtualizációt fogja használni a három OS-en, de ez csak egy API, és a saját layerében ettől még ad/adhat rengeteg pluszt, drivereket, guest optimalizációt/integrációt, gpu támogatást, stb.. -t. Összeségében lehet a mostanitól akár jobb végeredmény is, várjuk ki a végét, kérdéses, hogy melyik platformon mi fog ezekből megvalósulni, és milyen minőségben.
Linux esetén a KVM tiszta ügy, viszont Windows esetén ez nem tudom hogy néz ki pontosan, de találtam arra vonatkozó doksikat, hogy magában az ntkernelben van hasonló, de kell hozzá a hyper-v feature telepítése, ha valaki saját appot akar fejleszteni rá.
MacOS esetén nekem is újdonság volt, hogy szintén van ilyen, Virtualization Framework a neve. Itt nagy kérdés, hogy mi lesz a Windows (mármint az arm-os) támogatással.
-
azbest
félisten
válasz
kraftxld
#6076
üzenetére
épp most vettem észre, amikor másik minipécémre telepítéshez kerestem a kulcsot.
A https://customerconnect.vmware.com/license-management oldalon
We’re sorry.Your account doesn’t have permission to access this page. If you believe this is a mistake, please try again later.
Még jó, hogy a másik gépből ki tudtam olvasani.
vim-cmd vimsvc/license --showSikerült még aktiválni.
https://kb.vmware.com/s/article/2107518
Symptoms
VMware vSphere Hypervisor (free edition) is no longer available on the VMware website
Resolution
Along with the termination of perpetual licensing, Broadcom has also decided to discontinue the Free ESXi Hypervisor, marking it as EOGA (End of General Availability). -
[Newman]
tag
válasz
kraftxld
#6049
üzenetére
Én csak a hazai piacról tudok nyilatkozni és túl sok helyen nincs vSAN. Egészen egyszerűen azért, mert kell hozzá egy rendes hálózat és persze minden szerverbe - most tegyük félre a mesh-t és a compute only-t - a HDD/SSD. Rack space-t nem spórol vele senki, mert 2U-ba bele lehet vágni használható fél petát is lazán. Ugyanakkor erősen túl kell vásárolni a redundancia miatt, sokkal jobban mint egy központi tárolót. Szóval van helye a vSAN-nak, de nem úgy mint ahogy azt a VMware nyomja - kb mint süket a csengőt.
Azure Stack HCI az tényleg az árban foglalt, de kell hozzá ugye egy Azure subscription is.
Az ELA-król én nem mondhatok semmi publikusat, ott lehet lesz meglepetés.A klaszteren belüli mixeléstől sem tartanék, mert egy vSphere Enterprise Plus perpetual kulcs és egy VSS/VCF-ben kapott Enterprise Plus kulcs között nincs funkcionalitásban különbség, attól teltekintve, hogy az előfizetéses kulcsnak lesz lejárati dátuma.
Miért akarnak oda vetetni veletek VCF-et? Ha nincs NSX, nem kell Automation csak mondjuk VSAN, akkor az utóbbinál ki kell matekozni, hogy melyik olcsóbb (a vSphere Foundation + a VSAN TiB licenszek vagy éppen a VCF a maga 1TiB/core kapacitásával).
-
[Newman]
tag
válasz
kraftxld
#6046
üzenetére
Akkor véleményed szerint ez itt a központi tárolók létezésének vége? Csak a HCI marad?
A Nutanix és az Azure Stack HCI is előfizetéses, ott sincs semmiféle garancia arra, hogy öt év múlva nem lesz kétszeres emelés.Egy perpetual licenszelt vCenter-ben lehet keverni a perpetual és subscription klasztereket és hosztokat, ez tény.
Az Essential Plus csomag vásárolhatóságát feloldották, ott egy telephelyre lehet már többet is venni. Az lehet alternatíva a Robo-ra ha nincs pl VSAN, ha van, akkor ott el kell felejteni a vSAN-t.
-
válasz
kraftxld
#6046
üzenetére
Ez ipari szívás akinek sok pici site-ja van 1-2 host-al ami eddig ROBO-val ment.
Nekünk csak 60+ ilyen van, de elképzelek egy retail láncot 5000+ lokációval, lokációnként 5-10 VM-el, nekik ez pár millió USD pluszköltség lenne. Mi jók vagyunk 2026 júniusig a tavalyi ELA-nkkal (bár a HPP kreditjeinket el kell költenem 2 héten belül), de nekem is meg kell néznem az alternatívákat 2 node-os helyi clusterekre (lehet Proxmox lesz vagy Nutanix).
-
bugizozi
őstag
válasz
kraftxld
#6030
üzenetére
Ja igen, az kimaradt, hogy ha újrahúzom a vCenter-t, akkor meg lehetne valahogy mókolni a Veeam-et, hogy ne tekintse teljesen "új" környezetnek, mert akkor lementi fullba az egészet ha jól tudom
igazából ez a baj, ezért küzdök vele.
Amúgy az járható út, hogy vCenter 8 install, régiből remove-olom a host-ot, hozzáadom az újhoz, Veeam-be felveszem az új vCenter 8-t, módosítom a Backup job-ba a forrást, csak ismerje már fel a Repository-ban, hogy ezek ugyanazok a VM-ek
Köszi!
-
válasz
kraftxld
#5990
üzenetére
EUC üzletágat (HV) állítólag az Okta veszi meg. Nincs igazán alternatíva ha az Enterprise Plus szolgáltatásokat nézzük. Talán ha a Proxmox annyira megnő hogy lesz hasonló funktionalitás (NSX-ük nem lesz sehogy se szerintem)
Mi megnézzük jövőre a Nutanix-et, de azzal inkább a kis vSAN lokációinkat tudnánk kiváltani. Meglátjuk, még 2.5 év a következő ELA megújításunk. -
Konflikt
addikt
válasz
kraftxld
#5877
üzenetére
És hogy tetszettek az előadások?
Jo esellyel fel lesznek majd rakva kesobb az eloadasok (ahogy a 2021-es is, bar azt online csinaltuk) Balazs varhatoan szetkuldi oket a VMware HU hirlevelre.
Amire egyebkent itt tudtok feliratkozni
-
tasiadam
veterán
válasz
kraftxld
#5889
üzenetére
Igazából ez kéne, de bármit szenvedek, ssl problémára futok.
.\ESXi-Customizer-PS-v2.6.0.ps1 -v65 -vft -load net-igb,net-e1000e,net55-r8168,net51-drivers,net-r8101,esx-tools-for-esxi,esx-ui,fw-ntpd,cpu-microcode -NoSignatureCheck
Azért raknék fel ennyi NIC-et, mert van egy usb 3.0-rj45 kábel is, ami elv jó, míg az integrált elv nem, vagyis nem tudták éeltre kelteni. Én még nem próbáltam linux alatt, de nekem mindegy melyik műxik. előző gajdáza azt mondta, hogy proxmox alatt jó volt. Ha már nem, megyek oda vissza, pedig nagyon nem akarok. -
TheProb
veterán
válasz
kraftxld
#5826
üzenetére
Látom akkor ugyan azt látjuk kb.
Részemről amúgy egyre inkább mennék a DevOps irányba, bár az annyira tág fogalom, hogy kb mindenki mást ért alatta. Magam részéről a konténeres világba kóstolnék bele, csak eddig falakba ütköztem, mert tapasztalatom híján átestem a szitán a megpályázott poziknál. -
válasz
kraftxld
#5758
üzenetére
A weboldalról próbáltam tegnap letölteni. De ez mutatta: [kép]
És mivel én nem üzleti user vagyok, csak egy utcáról beesett magánszemély ezért feltételeztem, hogy már nem lesz ilyen opció.Az ingyenes sajnos teljes mértékben használhatatlan volt eddig is
Igen, PROD környezetben ezzel egyetértek... Én csak otthon játszósnak használnám. Ott elketyegtem 6.7-el is.
Persze mindig gondolkodom valami másik megoldáson...proxmox..stb.. De nagyon becsípődött a vsphere. Meg alapvetően tök jól működik... Viszont éreztem már hátrányát, hogy nincs olyan management eszközöm mint a vcenter és csak a sima webes van.
-
válasz
kraftxld
#5732
üzenetére
Szerintem a második kijelölésnél ugyanazt a jelszót kell megadni amit az elsőnél beállítasz, ami meg a saját leendő sso adminja, és a jelszava. Hiszen alapvetően nem vCenterbe deployolunk vCentert, szóval ezen a ponton (ebben a feladatban) a telepítőnek nem is létezik másik vCenter, csak egy (vagy több) unmanaged esxi host kellene neki. De lehet, hogy csak belekavarodtam így estére egy sör után én is a vCenterception-be.....

Mindenesetre a nested szerintem jó lesz, ha tényleg tudod állítani a forged transmit policy-t.
-
válasz
kraftxld
#5727
üzenetére
Gyors VCSA telepítéshez én ezt használom.
Ha ránézel a JSON template-kre amiket ezen a linken emlegetnek akkor lesz ott egy vCenter target-es is, az kell neked.
-
[Newman]
tag
válasz
kraftxld
#5722
üzenetére
Egyelőre próbálom kideríteni, hogy mi az a nagyon-nagy újítás, ami miatt ez nem 7.1, hanem 8 lett. Oké a DPU király dolog, de egy nagyobb integrátornál dolgozva még soha nem láttam, soha nem is adtunk el Pensando-t sem. Kérni sem kért ilyet senki. Nem a hazai piacból kell kiindulni, tudom.
A Tanzu körüli fejlesztések kapcsán már ideje volt AZ-ket lehetővé tenni, érthetetlen, hogy miért kellett ennyit várni rá. -
[Newman]
tag
-
[Newman]
tag
válasz
kraftxld
#5620
üzenetére
Ismerek olyat, aki hallott olyanról, akinek a sógora olvasott olyanról, aki álmodott olyat, hogy vett 200 darab raid-vezérlőt és 400 darab SSD-d csak erre. Nem kidobott pénz, mert jó eséllyel a következő verzió után is üzemben maradnak azok a gépek, de nem őszinte a mosoly.
-
[Newman]
tag
válasz
kraftxld
#5597
üzenetére
Abszolút megértelek, sok embernek segítene követni mikor érdemes lépni. Én év elején nézegetem meg, hogy akkor most miből kellene is frissítenem. Elvileg a vizsgát megcsinálhatod, de badge nem lesz. Én is kíváncsi vagyok mi történik pontosan ha az előfeltétel nem teljesül.
Egyszer hagytam elévülni a VCP-met, mert hát gondoltam a VCAP majd megújítja. Nem újította meg. Ami azért érdekes mert a VCAP a VCDX-et meg tudja újítani, de a VCP-t nem? Feltettem a kérdést a VMware Learning-nek és elküldtek kapálni. Mentem is újra tanfolyamra, vicces volt.
-
coco2
őstag
válasz
kraftxld
#5545
üzenetére
Akkor most okos és ügyes voltam

"VMware Workstation 16 Player (Non-commercial use only)", és azt írja, "Player 6" - azért arra kerestem google-val, és ezt dobta ki.
Gondolkodom rajta, hogy második kártyát beállítani csak azért, hogy adott guest os a host-on futó alkalmazások számára fixált ip címen látszódjon. Gány megoldás gyanánt azon gondolkodom, hogy ami ip4 címet a NAT alapértelmezetten beállít, az egészen biztos külön-külön cím-e mindegyik létező guest os alatt és stabilan az marad-e, amit létrehozáskor kapott? Linux host alá fél tucat guest kerülne, és teljesen random, mikor mennyi futna. Ami fontos lenne, hogy ha fut, akkor adott guest ugyan azt az ip-t kapja minden alkalommal. Windows host-on egy szem példán tesztelve ez jelenleg így tűnik, de megerősítésem nincsen rá. Ha meg tud lenni, nekem így megfelel, ha nem tud meglenni, akkor második network card mindegyik guest-be, és azt be kellene tudnom állítani valahogy. Ezt akartam user guide-ból kibogarászni. Ha erre célirányos guide / blog van, akkor arra lenne jó egy link.
Köszönöm.
-
coco2
őstag
válasz
kraftxld
#5525
üzenetére
Kérdeztem srácokat másik topikban, xp-nek nincs nagy baja ip6-al. Az volt az egyetlen gyenge pont, ahol nagyon elhasalhattam volna. De nem az történt
Kimehet az xp netre ipv6-on. Most még azon jár a buksi, hogy az xp-n lévő progival kommunikálni akarok. C-ben már egy csomó dolog kész, még egy udp szerver hiányzik, és utána már szórakoztatóbb dolgok következnek. Ha azzal el is hasalok, átírok mindent C-ről net-re, xp-re fel tudott menni net 3.5. Legrosszabb esetben. De szerintem nem fog odáig jutni a probléma, menni fog az udp socket C-ben. Épp csak ki kell tesztelnem valahogyan, és itthoni gépen az kényelmesebb, mint bérelt szerveren. Szóval most azon jár a buksi. Ha segíteni jöttél, tehetnéd rátermettebben. A negatív kisugárzás nem áll jól neked 
-
Immy
őstag
-
Teasüti
nagyúr
válasz
kraftxld
#5450
üzenetére
Ez szomorú. Ahogy nézegettem a YouTube-on, most kezdi felkapni a virtualizációt szélesebb körben az egyszerű felhasználók.
Közben épp GPU-P/V a téma több helyen is, amit most durrantottam be sikeresen itthon a Geforce kártyán. A kezdeti próbálkozások teljesen sikeresek és mindez egy Pro kliensen megvan 15 perc alatt, ingyen.
Már csak vmi kompetens RDP kéne hozzá, amin van hang, usb beviteli eszközök, meg smooth 60 fps és révbe értem. -
Teasüti
nagyúr
válasz
kraftxld
#5422
üzenetére
ESXi-nél azt írják bare-metal, vagyis type 1. Ez ha jól értelmezem, akkor a host OS helyére megy fel és ebbe boot-ol a rendszer. Tehát nem programként telepítem egy meglévő OS-re, nem? Ez nekem laikusnak egy OS-nek tűnik. Például Windows alatt is a Hyper-V ha engedélyezve van, akkor maga a host Windows is virtualizálva lesz, azt írják. Ebből nekem ugyancsak az jön le, hogy egy type 1 hypervisor az kernel szinten fut.
-
ratkaics
senior tag
válasz
kraftxld
#5417
üzenetére
Jelenleg egy RPi3-on dockerben futnak a cuccaim, plusz van egy synology ds116-os NAS-om. Sajnos vannak dolgok, amiket nem tudok megoldani a dockerrel (pl HACS integráció a HA alá). Nem vagyok túl nagy linux guru, plusz a docker témakörben is komoly hiányosságaim vannak. "Tisztább" dolognak érzem a VM-es megoldásokat. Ezért gondolkodom egy ESXi szerver összerakásán az új NAS vásárlása helyett. (Árban nagyjábol hasonló lenne a dolog)
-
válasz
kraftxld
#5343
üzenetére
Propagandát én vmware oldalról nem láttam az SD kártya mellett, de lehet hogy van valahol, csak nem futottam bele. Viszont sacc/kb. 5-6 alkalommal szívtam be már azt, hogy nem indult el többé a host, hibás kártya miatt (hozzáteszem, hogy egyik sem dual card-os, mirrorozott megoldás volt), és ennek semmi nyoma nem volt a rebootig. Ráadásul a kedves gyártóktól sem láttam még, hogy a 10-es árszorzóba beleférne valamilyen high durable kártya, pedig létezik.
Egyébként ez az eset annyiból hasonló, hogy itt nagyon rövid idő alatt történik meg az, amihez amúgy pár év kellene.
-
válasz
kraftxld
#5245
üzenetére
Újrahúzás Autodeploy-al nem opció?
Vagy ha ESXi upgrade akkor mondjuk mehet PowerCLI-ból simán.
Kell egy upgrade baseline-t létrehozni Update Managerben és azt behúzni pl. így.
Ha clustert adsz meg $vmhost helyett targetnek akkor egyesével upgradeli a hostokat.$vmhost=Get-VMHost "$ESX.$fqdn"$baseline=get-baseline "_upgrade_to_7.0_"Attach-Baseline -Baseline $baseline -Entity $vmhost.Name| Out-NullScan-Inventory -Entity $vmhost.NameRemediate-Inventory -Entity $vmhost.Name -Baseline $baseline -HostFailureAction Retry -HostNumberofRetries 2 -HostRetryDelaySeconds 120 -HostDisableMediaDevices $true -ClusterDisableDistributedPowerManagement $true -ClusterDisableHighAvailability $true -confirm:$false -ErrorAction SilentlyContinue -
ratkaics
senior tag
válasz
kraftxld
#5168
üzenetére
Elnézést a VHD-ézés miatt.
Szóval ha van 5db SSD-m és egy RAID vezérlőm. Akkor ugye meg lehet azt is csinálni, hogy nem rendezem egy tömbbe az SSD-ket, hanem minden egyes meghajtót külön kezelek, és "oda tudom adni" külön-külön a VM-eknek. Vagy mondjuk RAID5-be rakom mindent és az összes VM erre a tömbre kerül. A kérdésem az volt, hogy melyik működik gyorsabban.Ezt a soros port témát meg úgy szoktuk általában megoldani, hogy ezeknek a konvertereknek van vmi szoftvere amin beállítod, hogy melyik IP címen van az eszköz és azt melyik helyi soros portra csattintsa rá.
Ezt kicsit nem értem. Ennek a cuccnak egy oldalára rákötöd az RS232-es eszközt a másik oldalán pedig ott a LAN. Azon keresztül be tudod állítani a sebességet, IP-címet, Port számot meg néhány más dolgot. Azután a hálózatból máshonnan erre az IP+Port-ra tudsz rácsatlakozni, akár Putty-al, vagy Hyperterminál-al, vagy ilyesmivel. Az Oracle VirtualBox-nál a VM soros portját rá lehet irányítani erre az IP+Port-ra. Ez "belül" a VM-ben már fizikai soros portként működik. Ezt szeretném elérni a VMware-nél, de sehogyan sem sikerül...
-
TheProb
veterán
válasz
kraftxld
#5154
üzenetére
Szerencsére most nem MSP cégnél vagyok, így csak a saját infránkat kell töcskölni. Nekem ez sokkal jobban bejön, mert itt van gazdája a rendszereknek, míg egy MSP-nél minden rendszer csak 1 a sok közül.
Persze ennek is van előnye, mert potenciálisan sokkal több dolgot ismert meg, stb. -
TheProb
veterán
válasz
kraftxld
#5152
üzenetére
Biztos az előző cégnél voltam csak forintbaszó ügyfelek, de azoknak nem lehetett lenyomni a torkukon. Bár nagyon a sales se törte magát, mondván minek fizetni, ha a HV free. Az más kérdés, hogy HV Srv-t fél kezemen meg tudom számolni, hogy hányat csináltunk. Általában sima STD ment, HV role-al.
-
kraftxld
félisten
válasz
kraftxld
#5127
üzenetére
Ezzel kapcsolatban a kérdés, így néz ki a switching design:
A két datacenter a vastag szaggatottal elválasztva, az világos, hogy DC-ként a két-két swithcet berakom egy VLT-be 2x100Gbit-en összedrótozva. Ilyet már csináltam, ez nem túl bonyolult.
Lesz még switchenként 2-2 100Gbites optikai modul amelyikkel a két DC-t kötném össze, ezt hogy kell bekonfigolni? Mert néztem a VLT architektúrát de ilyen szinten már dinnye vagyok a hálózathoz
-
[Newman]
tag
válasz
kraftxld
#5123
üzenetére
Jól hangzik! Procit meg RAM-ot a kapacitáshoz is kell méretezni, de ha ezek ready node-ok, akkor az elég bolondbiztos. Legjobb tudomásom szerint nincs semmi speciális dolog, amit a 24 - plusz a witness - igényelne.
És végre valaki vesz AMD-t. Másfél éve hiába tépem a számat, meg ontom az Intel-es konfigok mellé összehasonlíthatóság miatt odatett jóval olcsóbb Epyc konfigokat. Azért még nem rúgtak ki senkit mert Cisco-t/Intel-t vett. Ez a válasz szinte minden esetben.
-
jerry311
nagyúr
Új hozzászólás Aktív témák
- Kés topik
- Napelem
- Elemlámpa, zseblámpa
- Xiaomi smart home / Xiaomi okos otthon
- CES 2026: Minden kiszivárgott bemutatója előtt a Motorola új csúcstelefonjáról
- ubyegon2: Airfryer XL XXL forrólevegős sütő gyakorlati tanácsok, ötletek, receptek
- Arc Raiders
- Gaming notebook topik
- Ezek voltak az év játékai 2025-ben szerintetek
- Exkluzív órák
- További aktív témák...
- Magyarország piacvezető szoftver webáruháza
- Astro A50 4th Gen wireless + base station fejhallgató
- HP EliteBook 850 G7 (15.6") i5-10310U - Garancia, Akció!
- ÚJÉVI BOMBA AKCIÓK! PSN, STEAM, UBISOFT CONNECT, EA APP, XBOX EREDETI KULCSOK 100% GARANCIA
- Bomba ár! Dell Latitude 3340 - i3-4GEN I 4GB I 500GB I 13,3" HD I HDMI I Cam I W10 I Garancia!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopszaki Kft.
Város: Budapest


igazából ez a baj, ezért küzdök vele.

Kimehet az xp netre ipv6-on. Most még azon jár a buksi, hogy az xp-n lévő progival kommunikálni akarok. C-ben már egy csomó dolog kész, még egy udp szerver hiányzik, és utána már szórakoztatóbb dolgok következnek. Ha azzal el is hasalok, átírok mindent C-ről net-re, xp-re fel tudott menni net 3.5. Legrosszabb esetben. De szerintem nem fog odáig jutni a probléma, menni fog az udp socket C-ben. Épp csak ki kell tesztelnem valahogyan, és itthoni gépen az kényelmesebb, mint bérelt szerveren. Szóval most azon jár a buksi. Ha segíteni jöttél, tehetnéd rátermettebben. A negatív kisugárzás nem áll jól neked

feltéve ha nem a világ másik végén van a cucc tőled 


