Új hozzászólás Aktív témák
-
Petykemano
veterán
És ezek az arányok nem véletlenek. Teljesen nyilvánvaló, hogy azért compute nehéz az összes AMD architektúra, hogy ugyanaz eladható legyen compute célokra is. Vagy fordítva - az hogy mi mihez képest túlsúlyos vagy szűk, relatív.
Az világos, hogy a 980Ti is kajált rendesen, meg az 1080Ti teljesítménye sem lineáris az 1080-hoz képest - ha erre gondoltál.
A skálázódást én úgy értettem, hogy a 980Ti és az 1080Ti között azért mégiscsak volt lehetőség növelni a CUDA magok számát és ezzel együtt növelni a frekvenciát is valamivel úgy, hogy a leadott teljesímény ezzel skálázódott, vagyis arányosan növekedett.Ehhez képest olyannyira compute nehéz - értsd: annyira nem érne semmit - grafikai szempontból - további CU-k hozzáadása, hogy ha a Vega 56-ot Vega 64-es biossal futtatod, akkor pont ugyanolyan gyors. Vagyis a 8 plusz CU pont semmit nem ér.
Elnézést, mit fog ezen így gyorsítanni a Rapid Packed Math?
(Abunak elmondtad)Ehhez még annyit, hogy na majd az intelnek készült vega M, ahol 24 CU van csak és mellá nagyjából az a frontend, és backend, ami a Vega 64-ben van, na ott majd ez nem kicsit számíthat.
Ha neadjaég a saját Vega mobile is hasonló felépítésű, akkor akár sikertermék is lehet. -
Petykemano
veterán
ez a programozható skalár ALU azért fura magyarázat mindenre, mert
- az hogy lehet, hogy ha ez így sokmindent elvégez magában, magának, más módszer meg sokmindent átterhel a CPU-ra - és eközben a másik gyártó módszerével a teljes rendszer fogyasztása is kisebb, meg nem nagyobb a processzorterheltség sem?
- milyen előnyt is hozott eddig ez?Lehet, hogy a vega egy ilyen két generáció közötti öszvér. Mármint nincs baj azzal, hogy ha beépítenek funkciókat a hardverbe, amivel kísérletezni akarnak, amit próbálgatni akarnak, fejleszteni akarnak, kipróbálni akarnak. Csak ne tessenek már egy kísérleti senki által nem adoptált és a piaci viszonyokból kiindulva várhatóan senki által nem adoptálandó megoldást - idő előtt - sikerhozó fícsörként reklámozni.
Vagy ez úgy ment, hogy odament a marketinges a mérnökhöz, hogy megkérdezze, mit tud a gép?
- Hát semmit, relatív nagy mértékben sikerült növelni a frekvenciát. finomítottunk pár dolgot, de semmi extra.
- 4 év alatt, ennyi? NEmá, öregem, így hogy adjam el? nincs benne semmi újítás? Mi a szart csináltatok ennyi évig? ENnek már 1 éve kint kéne lennie!
- Hát a főnök azt mondta, növeljük a compite teljesítményt, így bekerült a feles pontosság..
- Feles pontosság... ez nem hangzik valami jól. Mire jó ez?
- Matematikai műveletek. GYorsabban számol feles pontossággal. De ehhez az szükséges, hogy két műveletet egybecsomagoljon. Érted. Mert valójábnan 32 bites...
- tehát Gyors összecsomagolt matematika. Rapid Packed Math. Ez jó! Mi van még?
- Van ez a High Bandwidth Memory, ami most már..
- HBM. ennek ninsc jó PR értéke... igen, figyelek
- a fijinél problémát jelentett....
- ez akkor egy fiji leszármazott?
- hát... tulajdonképpen igen,
- GCN... mennyi is? 5..
- Igen 64 CU, mint a fiji, de megújítottuk és most már sokkal...
- NCU - Next Compute Unit
- Aham. Na szóval a HBM-re visszatérve, a fijinél prioblémát jelentett a memória mennyisége, és most már úgy működik ténylegesen, ahogy a fijinél szerettük volna, tehát hogy tulajdonképpena viszonylag kis mennyiségű fedélzeti memória képes amolyan Cache-ként működni. Nem kell minden adatot betölteni, hanem a rendszermemóriából tud lapozni. Ez kurva jó lesz, majd meglátod, amikor az SSD
- High Bandwidth... Cache! Hmm. kicsit összetéveszthető a micron HMC-vel. Meg most akkor a HBC az a memória?
- Nem, a memória az a HBM. EZ a képességet egy beépített Cache Controller csinálja, ami nem csak...
- HIgh Bandwidth Cache Controller. HBCC. Ez az. Na mi van még?
- Megújítottuk ezt, meg azt, megnöveltük az L2$ méretét...
- A vásárlókat nem izgatja a cache mérete, de mindegy, figyelek, mondd tovább
- Hát nem tudom, ez van kész.
- EZ van kész? Mi nincs kész?
- Figy, a főnöknek van egy terve, de ez még csak kísérleti stádium. Rájöttünk, hogy csinálta az nvidia, de még túl későn kezdtünk bele a beépítésbe. Még nem az igazi.
- Jó, de mi?
- Az egyik az, hogy raszterizáláshoz felosztjuk a képernyőt és hát oylan mint a Tile based rasterizer. DE még nincs kész.
- Jó, akkor legyen valami hülye neve, valami, amit senki se ért, de jól hangzik. Majd kitalálom.
- De ne, ezt ne írd le, ez még csak kísérletezgetés egy új technológiával. A múltkor is ,amikor a színtömörítéssel próbálkoztunk, úgy adtátok el, mint valami csodafegyver.
- Sajnálom, már kimondtad. Na mi a másk
- Na jó, szóval a főnök azt mondta, hogy nagy compute teljesítményű gép kell olcsón. DE a józsival kitaláltuk, hogy ha a képkockákat még a rajzolás előtt kivágjuk, akkor sokkal kevesebbet kell dolgoznia és gyorsabb lesz. Ez egy elég primitív módszer a shaderkapacitás felszabadítására, de működik...
- Primitive shader.. aha
- Csak hát ehhez sajnos a programot úgy kell megírni. Kiváló megoldás lenne, de nem tudom hogy fogjuk elterjeszteni
- Nyugi, megoldjuk. MAjd azt mondjuk, hogy minden kap driveres támogatást.
- De de az nem fog menni, vagy hát iszonyú sokat kellene dolgozni
- NCU, HBCC, DSRB, primitive shader.... kösz, Béla, ennyi volt, ez így már talán elég lesz, hogy eladjuk a hülyéknek a nagy semmit. Csak tudnám, mit csináltatok 4 éven keresztül.... jézus, ennek a fele kamu, mi lesz itt ha kiderül.
Mindegy, majd a bányászok úgyis megveszik. -
Petykemano
veterán
AZzal sem feltétlenül lenne baj, hogyha a fejlődés skálázódással történik és nem "IPC" tekintetében. Az nvidia a maxwell-lel hozott nagy előrelépést az fps/W és fps/Gfops tekintetében. Onnantól azt látjuk, hogy skálázódik az architektúra a CUDA magok számával és a frekvenciával, miközben a fogyasztást szinten tartják.
(Ez nem bizonyosság persze, szívesen megnéznék egy tesztet nvidia kártyák tekintetében is, hogy volt-e fps/gflops fejlődés a maxwell óta, vagyis core to cure, clock to clock)Ehhez képest az AMD-nél az látszik, hogy a skálázódás nagyjából a Hawaiinál megállt. A Fijibe lehet, hogy több CU-t építettek, de az alig hasznosult. Hogy most persze mi a szűk kereszmetszet, mindegy, százszor átbeszéltük, de a fijinél mégsem csinált nagyobb/szélesebb architektúrát az AMD. Itt csak frekvencia emelkedést láttunk. Ha egy ilyen 2016-ban a polarisszal együtt jön, akkor persze "rendbe" lett volna (fiji shrink) a maga módján. De úgy, hogy még egy évet kellett várni rá valamit még virítani kellett volna horizontális skálázódást, vagy "IPC" növekedést.
-
Petykemano
veterán
-
Petykemano
veterán
Ez legalább nem lett eldobva. (a chill)
Képzeljük el, ha ehhez is fejleszőti támogatás kéne. Akkor ez is 100-ből 1 játékban lehetne aktiválva.
Meg is fordíthatom: beláthatná már az AMD, hogy nem tudja kikényszeríteni a fejlesztői támogatást ezekre a fícsörökre és mire szépszóval beépülnek a játékokba addigra (1) az a hardver, amivel elindult a fícsör, az már rég kuka, (2) a konkurencia is felzárkózik tudásban és így az egész küszködéssel semmilyen előnyt nem ér el. -
Petykemano
veterán
válasz
BenceShearer #21 üzenetére
Abu a múltkor direktben erre a kérdésre azt felelte:
Az utalgatásai mögött arra vonatkozólag, hogy a túlfeszelt állapotot mi indokolja és hogy majd decemberben mi lesz, amitől megvilágosodunk, a Chill állt.
Valóban a Chill használata a Vega esetén képes harmadára csökkenteni az átlagfogyasztást.
Azt mondta, hogy a Chill működésének velejárója a nagymértékű váltások a működési paraméterekben és a váltások során a gpu-nak stabilnak kell maradnia, ezért muszáj túllőni a feszültséget. Valóban, a Chill lényege, hogy minél rövidebb idő alatt érzékelje, ha mozog/változik a megjelenítendő tartalom és szinte abbana szent minutumban feltekerje a paramétereket, de ha nem vagy alig történik valami a képernyőn, akkor letekerje a paramétereket (az fps-t) Ez bizonyára hirtelen nagy váltásokkal járhat.
Cask az nem világos, hogy ha a cHill igényli ezt a tartalékot, akkor ezt miért nem lehet csak akkor aktiválni, ha megy a Chill? Minden más esetben pedig egy másik táblát használni, vagy kisebb offsetet. -
Petykemano
veterán
"beállítottam valamit és én úgy gondolom, hogy az általam használt programokban és driverbeállításokban, megfelelő eszközök híján stabilnak tartott", és "a ténylegesen stabil" között óriási a szakadék.
Valóban, kb 100-200W"beállítottam valamit és én úgy gondolom, hogy az általam használt programokban és driverbeállításokban, megfelelő eszközök híján stabilnak tartott", és "a ténylegesen stabil" közötti óriás szakadék [_] AMD és Nvidia eladási adatok közötti óriási szakadék
A megfelelő relációs jelet (<. >, =) írd be a rubrikába
Új hozzászólás Aktív témák
Hirdetés
- DELL PowerEdge R730xd 12LFF+2SFF rack szerver - 2xE5-2680v3,64GB RAM,4x1GbE,H730 RAID v ZFS
- AKCIÓ! MSI B450 R5 5500 16GB DDR4 512GB SSD RTX 2070 8GB GDDR6 Rampage Shiva Zalman 500W
- AKCIÓ! MSI B365M i5 8600 16GB DDR4 512GB SSD RX 5700XT 8GB CM MASTERBOX Q300L Zalman 600W
- ÁRGARANCIA! Épített KomPhone i9 14900KF 64GB RAM RTX 5090 32GB GAMER PC termékbeszámítással
- Csere-Beszámítás! Asus Rog Strix RTX 3070Ti 8GB GDDR6X Videokártya!
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest