Keresés

Hirdetés

Új hozzászólás Aktív témák

  • PROTRON

    addikt

    Jól értem ezek szerint hogy mégse volt rossz választás az x299 platformra beruháznom kifejezetten a több GPU lehetősége miatt...(költői kérdés mert jelenleg nem használnom ki, de a hosszú távú tervek miatt kellhet)

    Tehát a trend valójában az hogy ezentúl nem kell extra kiegészítőt használni a két kártya közötti összekötésre csak megfelelő generáció fog kelleni?
    Csak mert az 1 dolog hogy kevés eszköz használja a több gpu lehetőséget, de mindenki károgott hogy ha eltűnik a csatlakozó akkor végleg reszeltek az ötletnek.

    Ezek szerint a fejlesztők csak okosabbak mint egy 5.-es, és ha el lehet adni egy géphez 3 VGA-t, akkor miért zúznák be a használhatóság lehetőségét. :Y

    [ Szerkesztve ]

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    Amúgy ebben a cikkben az kimaradt, de időközben megtaláltam hogy a lejjebb lévő, szintén az új nvidia kártyákkal foglalkozó cikkben megemlítették az Nvlink hidat. Tehát hogy ha 2 db 3090-es kártyát használ az ügyfél, akkor a méregdrága NVLINK továbbra is beüzemelhető, így a korábbi SLI technológiával szemben ahol a kártyák memóriája nem skálázódott, az új megoldással szépen fel lehet tornászni a kapacitást.

    Ami még érdekelne hogy régebben volt mód 3 illetve 4 utas SLI-re bizonyos alaplapoknál úgy, hogy az adott 3. vagy 4. PCIE slot már nem x16-ra volt huzalozva. Itt a cikkben oké hogy x16 fizikai hosszúság kell, de ha csak x8-ra vannak kötve a sávok akkor is működni fog a dolog az új modszerrel, kártyák közötti összekötés nélkül, vagy alaplapi sávok terén is kell az a x16?

    Továbbá ha már elszalad a fantázia, régebben voltak dupla GPU-s VGA-k, amikből lehetett quad SLI-t kihozni...na most elvileg ha már nem a deszka az akadálya, akkor a jövőben lehet eljön az idő a tényleges, akár OCTO üzemmódnak?
    Mert úgy már van értelme gen 4 x16-ra tervezni. :D

    Bár akkor majd az x299 lap+procimat cseréhetem majd le x499-re, ddr6-al. :O

    Lelki szemeim előtt már látok egy teljesen valósághű VR harci szimulációt Battlestar Galactica-ban. Ahol már nem csak be rajzolva vannak a töltények és az algoritmus a kiinduló értékek alapján számolja ki a találatot, hanem ténylegesen ott van 2 millió lövedék fizikailag leszimulálva, 300 Raiderrel, meg 100 ezer mikro meteorittal úgy hogy ezredmásodpercre lebontva történnek a dinamikai kalkulációk az aktuális koordinátán szintén dinamikusan változó gravitációt is figyelembe véve...
    Én meg csak forgolódok a 100%-ban megtervezett, filmes CGI szinten élethű cockpitben és ámuldozok...amíg ki nem lőnek.

    [ Szerkesztve ]

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz Duree #5 üzenetére

    Majd 2080TI-ből, amikor annak leesik az ára...furcsállom azokat akiknek annyira sürgőssé vált a gép vásárlás hogy szeptemberben, a 30x0 bejelentése után is berendelik a 2080-asokat...egész évben eddig vártak, most hogy megjelent az új, kb annyiért mint az új generáció beérik a csökkentett teljesítménnyel, de legalább 2 hónappal korábban...

    Aztán meg majd megy a rinyálás HA-n hogy miért nem veszik meg a használt kártyáikat az új generációs árban, hiszen az övén is van garancia, most szeptemberben vette. :C

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz Zotya84 #7 üzenetére

    Nem biztos hogy jót írok, de az én értelmezésem hogy szándékosan hangsúlyozta ki az eszközazonosítót az elején, hiszen a "linkelt mód" amit a több gpu-t támogató szoftverek halmazából többen használnak, az érzékenyebb erre.
    Tehát ha nekem van a gépemben egy gigabyte gaminig G1 1070 rev 2.0 kártyám, a régi SLI esetén ehhez ugyanilyen gigabyte...rev 2.0 kártyát kellett beraknom a híd másik végére hogy ne legyen gubanc.
    Az új "linkelt mód" rendszerben meg ha berakok mellé egy EVGA 1070-et akkor már elfognak kommunikálni mindenképpen. Míg ha 1060-at rakok akkor több gubancom lehet linkelt módot használó eszköz esetén.

    Az "unlinkelt módot" úgy értelmezem, hogy ott már használhatóan működik az általad említett 5600xt mellé 5500-as kártya, csak az a gond hogy az amúgy is kevés multi GPU erőforrásra fejlesztő cégek közül még kevesebb fejleszt ezzel a változattal, pedig ez szolgálná a felhasználók igényeit.

    Tehát ha biztosra akarsz menni akkor kénytelen leszel a linkelt módot feltételezni annak a korlátaival.

    Azért is az Unlikelt módra lenne igény, mert a sima consumer deszkák ha támogatják is hogy több videókártyát rakj bele, a prociba akkor is csak x16 sáv van bekötve, tehát ez megoszlik, így a nagyobb teljesítményű 2. kártyát legtöbb esetben amúgy sem tudnád full sebességen kihajtani, pl 16 sávból 4 elmegy az m.2-be, 8 az elsődleges VGA-ba, 4 marad a másodlagosnak. Vagy eleve a másodlagosba tartó 4 már a csipseten keresztül érkezik nem közvetlen a cpuból.

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz proci985 #12 üzenetére

    Lehet hogy félreérthetően írtam, de a nagy részében egyetértünk.
    Az egyetlen különbség, hogy még nem próbáltam ki menne-e nem giga rev 2.0-ás kártyával stabilan az SLI a gépemben, viszont neten azt olvastam hogy a 10x0 generáció még érzékeny erre, tehát ugyanilyen rev 1.0 kártyával lehet hogy menne, de más márkától érkező 1070 kártya esetén amit te írsz, ahhoz már az új módszer kellene.
    Amennyire én tudom az SLI nagyon érzékenyen megkövetelte a minél azonosabb kártyák jelenlétét.
    De ha vannak ilyen jellegű személyes aktív tesztelési tapasztalataid nvidiaval, akkor kénytelen vagyok elfogadni, mivel még nem próbáltam ki semmilyen SLI-t. :)

    Igen a fentebbi írásomnál elegánsan elsiklottam afelett hogy amd alaplapoknál 16 helyett 20 megy a PCIEx busra, régebben is intel alaplapom volt és mérnökként úgy vagyok vele hogy átlagosan rosszabb scenárióra készülök, ha nem is a legrosszabbra...meg egyébként is szem előtt tartva hogy mit rakott le az AMD az asztalra akkor is inkább intel felé húzok. :P

    Jelenleg intel x299-em van, szóval ilyen jellegű limitem nem lesz ha, inkább úgy írom amikor elindulok ebbe az irányba. ;)

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz Abu85 #16 üzenetére

    Bocs a dupla posztért.
    Ha még egyszer átolvasod az írásomat amire reagáltál, nem tettem említést arról hogy Nvlink esetén hol folyik kommunikáció, csak a megnövekedett memória kapacitásról idéztem be másik cikkből értekezést.

    Amúgy egyetértek a játékok terén való jelenlegi használhatatlanságról, ezért is írtam úgy hogy "méregdrága nvlink", én is úgy látom hogy csak speciális munka-kutatási környezetben éri meg jelenleg használni.

    [ Szerkesztve ]

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz Kansas #22 üzenetére

    Pontosan ezért választottam ezt a platformot. Első körben csak erre volt keret, aztán ahogy nézem azóta lejjebb is mentek az új proci árak, továbbá mivel még nincs második GPU tatár sem hajt.

    Amúgy PLX csipnek (mert ő gyártja)hívják ami a prociból érkező x16 sávszélességet az aktuális igényeknek megfelelően szórja szét 2-3 slot között, de amennyire néztem az is főképp HEDT platformokon van, ahol már 6-8 vga támogatásáról van szó.

    [ Szerkesztve ]

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz Z10N #26 üzenetére

    Én pont azért nem akartam 2011-es platformot, mert néztem hogy ott max 44 sávot oszt szét a slotok között és 3 kártya felett már le is esik a main kártya x8-ra....ezért vártam meg 2066-ból az új generációt hogy 48 legyen és abból is olyan alaplapot választottam ami tényleg ki is osztja a slotok irányába (ssd kárára). Nem kis fejtörést okozott átlátni a gyártók béna marketing és hiányos specifikáció leírásain. :D
    Mert egyébként a korai x299-ok valójában kevesebbet tudtak mint az x99 kiforott változatai, egészen 2018ig. Akkoriban már megjelentek olyan deszkák és procik amik esetén volt értelme elgondolkodni egy x99->x299 váltáson, de előtte csak a hype volt nagy, valódi ár/érték nem érte meg. Valahol menet közben ezt is elszúrták inteléknél...most kezdik felvenni a fonalat és utolérni azt ahol 2018-ban tartani kellett volna.
    Pl.: a legtöbb gyártó az új, 2019/2020-as deszkára ugyan ráírja hogy össz. 48 sáv, de ha az apróbetűt elolvasod akkor hamar kiderül hogy abból csak 44 megy direktben a slotokhoz, a maradék 4 a legtöbb esetben valamelyik ssd-hez megy, vagy megosztva de az ssd-t priorizálva amin nem tudsz változtatni felhasználóként.

    Sajnos multi gpu kihasználó kódolás téren meg tudom érteni a fejlesztőket. Ha ráírod valamire hogy "beleírtuk azt a pár kódsort, tuti működik" akkor azt teljesíteni is kell...mármint az összes elképzelhető variánsra.
    Így viszont a rengetegféle biztosíték és tesztelés már sok erőforrást venne el, sajnos nem csak annyi hogy 1 délután alatt a gyakornok beleírja azt a pár kódsort és éjszakára otthagyja futni a tesztkörnyezetet. :S
    Én örülnék a legjobban ha úgy látnák a fejlesztők hogy megéri nekik.
    Anno a több magos processzorok indulásakor is évek kellettek hogy rendesen elkezdjék kihasználni a potenciált, pedig a felhasználók részéről az megfizethető fejlődés volt.

    [ Szerkesztve ]

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz edward2 #31 üzenetére

    Ne nekem mond, én csak válaszoltam, egy másik kolléga jelezte hogy ilyen igénye van.

    Nálam most egy darab 1070 van, 65-ért vettem használtan, jelenleg gondolkodom hogy vegyek még1-et multi gpu érdekében szintén max ennyiért (nem érdekelnek a hisztizők, ennél többet nem ér használt piacon ez a típus), tehát a kérdés egyik fele esetemben hogy 130-ért kapnék-e olyan kártyát ami olyan erős mint a 1070 multi gpu konfigban. A másik fele hogy sikerülne-e 65-ért eladnom a jelenlegi kártyát.
    És itt jön képbe az, hogy bizony ha nincs meg a budget az általad helyesnek vélt irányra, tehát nem tudja egyből megvenni a 3090-et akkor szerintem teljesen jó megoldás először venni egy olcsóbbat, amihez ha jól működik a multi gpu akkor fel tudjuk húzni a teljesítményt az eredetileg kívánt szintre.

    Jelenleg azért gondolkodom hogy tényleg 1070-el próbálgassam a multi gput, vagy inkább ampere-re álljak át (figyelembe véve a költségvetési különbséget). :D

    (#28) MeszesKPT

    Egyik oldalról az, ha nem kell arányosan nagy mértékű erőforrást költenie rá, mert pl beépülő modulként csak elő kell hívni a mindenki computerén ott lévő hardver-softver-driver oldalról. Erre fele próbálnak haladni.

    Másrészről ez olyan vita hogy minek fejleszt valaki 1080p feletti grafikai minőségre, hiszen a Steam statisztikák szerint a 1440p meg a 4k "csak réteg igény".
    Szerintem az is lényeges szempont hogy egyes fejlesztők nagyon adnak a kinézetre, és ott eleve teljes más élmény lesz 1080p mint 4k esetén.
    Így maga a fejlesztő cég reklámozni tudja magát hogy nézzétek milyen profin megcsináltuk ezt a projektet.
    Persze megoldják hogy elfogadhatóan fusson a program gyengébb gépeken is, de azért lefejlesztik 4k-ra, aztán a fogyasztó meg csak pislog hogy a 2 millába kerülő gépe csak 30 fps-el tudja megjeleníteni...na ilyenkor lehet hozzányúlni a multigpu lehetőségekhez, mert egy második vga behelyezése a teljes 2 millás költségvetéshez viszonyítva már nem sok, és ott van a lehetőség hogy 240 hz-es monitort ki tudjon hajtani.

    Továbbá bizonyos játékoknál a tömeg, a megjelenített fizikai elemek mennyisége, fizikája nagy mértékben hozzátesz az élményhez, és ha több erőforrás van, több elemet, több npct lehet mozgatni.

    "Can it run CRYSIS (REMASTERED!!)?"....and in 4k?
    RTX 3080 ----4k-----25...35 fps ;] ;]

    [ Szerkesztve ]

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz Robitrix #42 üzenetére

    Jó de mi számítógépekről és használati lehetőségekről beszélgetünk itt, nem pedig konyhai kiegészítőkről meg azoknak a 20 millió huf (a 10-el eléggé alábecsülted)-os dizájner áráról.
    Még a célközönség, a bollywoodos filmesek is dobtak egy hátast hogy ezen az átverésen még ők is átlátnak. :D
    Amúgy pont a gpu választás miatt ekézték is hogy szép-szép a teljesítmény de ezért a pénzért lehetett volna erősebb gpuval is szerelni...a sok minden egyéb mellett, pl jakuzzi, masszázs fotel, esetleg thai lányok :Y

    Amúgy viccet félretéve igazán hozhattál volna valódi gyártóktól is "gyári" megoldást, mert vannak még. :P

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    válasz makkmarce #55 üzenetére

    Annyira sokszor írjátok be ezt a trabantos hasonlatot hogy nem tudok elhajtani mellette szó nélkül...[LINK]
    xD

    Amúgy viccet félretéve eleinte a hyperthreadinget se tudták rendesen kihasználni a programok, mostanra ez megváltozott, holott ott sincs teljes értékű fizikai mag, csak a megfelelő algoritmusok elosztják a számolni valót hogy a megfelelő ütemben maradva a rendszer adott idő alatt jobban fusson.

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

  • PROTRON

    addikt

    Troll on:
    Csak sikerült a friss szerzeményekkel teszteket csinálni GN-éknál:
    [LINK]
    Nem mintha el lennének ragadtatva a használhatóságtól (persze a fizikai méretproblémától tekintsünk el, nem mérvadó). :D

    Elméletileg nincs hülye kérdés...az elmélet és a gyakorlat között elméletileg nincs különbség.

Új hozzászólás Aktív témák