Hirdetés
- Pura color: színkavalkádba bújt a Huawei legjobb kameratelefonja
- Xiaomi 13 - felnőni nehéz
- Samsung Galaxy A56 - megbízható középszerűség
- Android alkalmazások - szoftver kibeszélő topik
- Yettel topik
- iPhone topik
- Telekom mobilszolgáltatások
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Olyan menő, hogy Google nélkül is elfogadnád
- Bemutatkozott a Poco X7 és X7 Pro
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#51610
üzenetére
Igazából az FSR 4.1 nem élesebb a szó legszorosabb értelmében. Ez alapvetően ugyanaz az algoritmus, amit a 4.0 használ, csak az úgynevezett smearing jelenséget csökkenti. Ez az a dolog, ami miatt a gyors mozgásoknál a tartalom elkenődik, és ez okozhatja azt, hogy élesebbnek tűnik a kép, csak nem amiatt, hogy az algoritmus ezen része javult volna, hanem inkább egy mellékhatás következtében fordulhat elő.
Van egy olyan tévhit, hogy minél élesebb lesz egy felskálázó eredménye, annál több a temporális zavar, de ez nem ennyire egyszerű. Nem az élesség hozza elő a temporális zavart, hanem az, hogy a neuronháló mennyire nagy kontextusablakot vesz figyelembe a pixel végső színének meghatározásánál. A DLSS 4-től kezdve a temporális stabilitás nem az élesség miatt esett vissza a 3-hoz viszonyítva, hanem azért mert a transzformer modellt nem erre a feladatra tervezték, ugyanis a pixelek színének meghatározásánál nem előny, ha az összes tartalmat figyelembe veszi, hanem inkább hátrány, és igen ez ronthatja a temporális stabilitást. Viszont lehet valami úgy is éles, hogy ez a tényező nem romlik, ha kellően jól van belőve a kontextusablak. A DLSS 4.5 csak azért romlott jobban, mert a transzformer modell kizárja ennek a paraméterezhetőségét, de ez nem bug, hanem feature, csak nem olyan feature, amit képi feldolgozáshoz terveztek.
Szóval attól, hogy élesebb a kép, nem feltétlenül kell rosszabb temporális stabilitást adnia, utóbbi más miatt van, és más miatt jön elő az újabb felskálázókban.
Erre amúgy van a Microsoftnak egy készülő megoldása, amit az új Xboxhoz terveznek, mert a mostani hardvereknek nincs meg a szükséges kb. 50 TB/s-os sávszélje egy kellően nagy belső memória felé, hogy működjön az új algoritmus. A mai hardverek csak ilyen korlátozott rendszereket tudnak futtatni, ahol különböző kompromisszumokat kell kötni.
-
Abu85
HÁZIGAZDA
Most ez bonyolultabb ennél, mert a régiós árakat már meghatározza az, hogy az adott régión belül mennyi készlet van. Így fordulhat elő, hogy bizonyos hardvernek az ára az USA-ban emelkedik, máshol pedig csökken, vagy éppen fordítva. Azokat a termékeket érinti globális áremelés, ahol a hiány is globális szintű.
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#51570
üzenetére
Radeon RX 9070-ből nagyon-nagyon keveset adnak el manapság. Az AMD jelenleg 9070-9070 XT viszonylatban 1:50-as gyártási aránnyal dolgozik. Régen egyébként 1:5 volt az arány, de a memóriapiac átalakulása miatt ezt megváltoztatták, mert ugyanaz a két termék előállítási költsége.
-
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#51569
üzenetére
Az jó, hogy az USA ezt engedélyezte, de Kína azt a minimális hardvert sem engedi be. Jensen pedig nem hiszem, hogy optimista, maximum ezt kell nyilatkoznia, de pontosan tudja ő is, hogy Kína azon van, hogy kibasszon az USA-val, mert az most rossz Trumpnak, és amúgy is politikai mélyponton van. Kínát alapvetően nem érdekli, hogy ezért mennyi termék veszik oda, nekik politikai haszon, ha Trump elhasal.
-
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#51567
üzenetére
Az NVIDIA mondta, hogy nulla gyorsítót szállítanak egy ideje Kínának. Nem is erőlködnek már, mert megfogják a terméket a kínai hatóságok, és nem engedik be. Szóval a lényeges termékeknél Kína kiesett. Az AMD-t sem nagyon engedik át, bár nekik sikerült elérni némi eladást. Valszeg az AMD-re nincs ráállítva az állampárt, hogy vegzálják őket a hatóságok.
Kína GeForce-ot vesz sokat, de azokat az NV nem tekinti AI eladásnak. Azok papíron a gaming eladásnak számítanak az NV-nél. Mondjuk az igaz, hogy az NV erre rámegy teljesen, és abszolút kiszolgálja ezt az igényét Kínának. Csak erről nem szokás nyilatkozni, mert nem tetszene a játékosoknak, hogy azért kevés és drága a GeForce, mert eladják Kínának AI-ra.
-
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#51517
üzenetére
Persze, hogy nincs. Maga az API arra van felkészítve, hogy van placeholder tartalom, amíg el nem készül a végleges. Ha 5 GB/s az SSD-d sebessége, akkor az annyival más a 0,5 GB/s-os SSD-khez viszonyítva, hogy a teljes felbontású textúrát gyakorlatilag azonnal alkalmazza, míg a lassabb rendszer 10-15 másodpercig az alacsony felbontású tartalmat jeleníti meg, amíg meg nem érkezik a jó minőségű. A futtatást ez nem befolyásolja, csak a képminőség lesz rosszabb egy ideig.
-
Abu85
HÁZIGAZDA
Ez nem olyan egyszerű. Valójában a DirectStorage nem tud mindent, mint amit a PS5 tud. És ha tudja is azt, ami megy neki, nagyon eltérők a hardverimplementációk, tehát több nagyságrenddel többet kell dolgozni, hogy egyáltalán működjön valamennyire, messze nem olyan out-of-box megoldás, mint a Sony-é.
De Mire a Witcher 4 jön, addigra valószínűleg a Microsoft is megoldja ezeket a hiányosságokat, meg jönnek azok a hardverek, amik már jobban működnek, mert a DirectStorage baja, hogy a brustoló GPU-dizájnokkal nem jól működik, tehát a brustolást kell megszüntetni elsősorban.
-
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#51502
üzenetére
Azoknak, akik ilyen PC-ket keresnek. Az Xbox ROG Ally is felülmúlta a várakozásokat az eladásokat tekintve. Szóval ezekre a rendszerekre van igény, mert elég jól hangzik, hogy kapod a Microsoft kiemelt támogatását, míg egy átlag PC-vel ez nem jár. Nyilván árban az Xbox PC is ott lesz, ahol egy hasonló teljesítményű normál PC, akkor meg már miért is ne választanád a kiemelt terméktámogatást?
-
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#51500
üzenetére
A Microsoft sose mondta, hogy csak egyetlen gépet hoznak. Egy gép készül, amit konzol móddal szállítanak, de mellé lesznek olyan jellegű konfigurációk, amelyeket a gyártók készítenek, és kapnak Xbox plecsnit. Ezek konzol mód nélkül jönnek.
Ez azt jelenti, hogy aki akar 4K-s gépet, az vehet majd Xbox PC-t 5000-10000 dollárért is. A Microsoft meghatározza a konfigurációt, mint az Xbox ROG Ally esetében, és egy vagy többi kiválasztott partner legyártja. Szóval lesz azoknak a usereknek is Xbox, akik 10000 dolláros konfigurációkban gondolkodnak.
-
Abu85
HÁZIGAZDA
Nem hiszem, hogy a régi konzolárak élni fognak az új generációban. A következő generációnál inkább a 700-900 dolláros szint fog dominálni. Már most szó van arról, hogy a next-gen PC-s GPU-k is drágábbak lesznek. Ami most 400 dolláros szint, vagyis a tipikus 128 bites középkategória, az a következő körben 800-1000 dollár lesz. A mostani prémium olyan 1500-1800 dollár felé halad.
Mindennek az ára masszívan elindul felfelé, mert drágább lesz a gyártás, több befektetést igényelnek a fejlesztések, és a waferár is csak nő.
-
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#51493
üzenetére
Eddig is csak azt tudtad futtatni rajta, amit a Microsoft megengedett, és a jövőben is így lesz, mert a konzol mód futhat védett környezetben. A PC-s módban aztán meg azt csinálsz, amit akarsz. Szóval ez ugyanúgy egy sokáig tartó feltörés lesz, mint az eddigi konzoloknál.
#51495 szarnyasdino : Bár nem közvetlenül összehasonlítható, mert nem tudjuk a számítási körülményeket, de a GDC-n volt egy utalás arra, hogy nagyjából 5000-6000 TFLOPS közötti lesz a csúcsteljesítménye. Ez azért a Radeon RX 9070 FP8-as csúcsteljesítményének a tízszerese. Persze valszeg valamilyen AI sebességről van szó, feltételezhetően FP6-ról. FP32 adat még nincs, de ha ennyit ugrik itt, akkor nagyjából úgy háromszor gyorsabb lehet majd FP32-ben.
-
Abu85
HÁZIGAZDA
válasz
paprobert
#51481
üzenetére
Nem a cache-t használják. Ezért 200 TB/s a sávszél.
Gondolod olyan nehéz ellátni a mostani dizájnokat kb. 20-40 operációval, amivel ez a megoldás működőképes lesz mindenkinél? A hardver ott van mindenhol, mivel regiszter minden multiprocesszorban van. A Sony 44 operációval egészítette ki az RDNA 2-t, hogy ez működjön. Elég könnyen megoldották, és a PS5 Prónak ezt a képességét már akkor látta az NV és az Intel, amikor tervezték a next-gent. Szóval könnyen le tudják másolni. Aztán, ha nem másolják le, akkor majd lemásolják egy körrel később, a Microsoft és a Sony már eldöntötte, hogy merre megy, nem várnak senkire. Nekik az a lényeg, hogy a gépeikkel futni fognak az eljárásaik. Az mindegy számukra, hogy PC-n mi van. Ideális esetben az a jó, ha mindenkinél működni fog, de mivel kikapcsolható effektekről beszélünk, az se baj, ha nem mindenki csinál olyan hardvert, mint ők, mert az alap grafika mindenhol futni fog.
-
Abu85
HÁZIGAZDA
Egyrészt ezek kikapcsolható dolgok. Ha veszel új hardvert bekapcsolod, ha nem, akkor kapod az effekt nélküli grafikát. Másrészt ha valaha is akarunk komolyabb neurális eljárásokat, akkor nincs más út, mint megoldani azt a problémát, ami miatt ma nincsenek ilyen eljárások, ez pedig a sávszélesség problémája.
Azon vitázhatunk, hogy valóban a neurális leképezés-e a jó út, de egyelőre a Sony és a Microsoft is így látja, tehát ez maximum egy userek közötti vita lesz.
-
Abu85
HÁZIGAZDA
Ez egy teljesen eltérő probléma. De segítek megérteni. Tegyük fel, hogy van egy GPU-d, aminek a memória-sávszélessége mondjuk 1 TB/s, FP8 mellett pedig mondjuk 600 TFLOPS-ra képes a mátrixfeldolgozója. Ha még fel is osztod a tartalom feldolgozását mozaikokra, akkor is nagyon kicsi mozaikok kellenek, hogy ne a sávszélesség legyen a limitáció, és ilyen kis mozaikok mellett jelentős számítási overhead van, hogy jól összeilleszthető legyen a végső kép a mozaikokból. Tehát a mostani működési modellel legjobb esetben is eldobod a hardverben rejlő számítási teljesítmény legalább 70%-át, mert olyan adatokat számol ki, amelyeket végül nem használsz majd fel a megjelenő képhez. Ha viszont az overheadet csökkented, hogy több kiszámolt adatot hasznosíts, akkor nagy lesz a mozaik ahhoz, hogy a számítás ALU-limitált legyen, vagyis nem fogja a hardvered elérni a beletervezett 600 TFLOPS-ot, hanem teszem azt 200-250 TFLOPS-ot hoz belőle, mert a memória elérési sebessége limitálja a skálázást.
Ezért van az, hogy a nagy AI gyorsítók HBM-et használnak, mert kell a több 10 TB/s, csak ez végfelhasználói szinten nem realitás, senki sem fogja megvenni az 6000 dolláros VGA-t, a 3000 dolláros középkategóriáról nem is beszélve.
Emiatt a következő körben okosabbnak kellett lenni, így már a Sony-nak felmerült az az ötlet, hogy itt igazából csak a memóriabusz a szűkös, de ha a számítások eredményei nem kerülnek erre a buszra, hanem a GPU-n belül maradnak, akkor van 200 TB/s-od is. És ez született a PS5 Pro nagy felfedezéséhez, hogy bizony ezeket a számításokat nagyrészt a GPU-n belül lehet tartani, hogy ne is terheljék a memóriabuszt. De ez a koncepció, amihez azért kellett hardveres változás is, még egyik PC-s GPU-ba sem kerül
implementálásra. Viszont a következő generáció már erről fog szólni, mert túl jó dizájnötlet ez, hogy elmenjenek mellette a cégek. Csakhogy ez automatikusan azt jelenti, hogy olyan nagy lesz a különbség a next-gen és a jelenlegi dizájnok között, hogy a next-gen effekteket a jelenlegi hardverek nem fogják tudni jól futtatni, még akkor sem, ha a kód amúgy kompatibilis lenne. Ez egyébként érthetően marha gáz, de ahhoz, hogy grafikailag előrelépjünk szükségünk van ezekre a hardveres képességekre. Aztán, ha valaki nem akarja őket, akkor nem futtatja a legújabb effekteket és játszik az alap minőségen. Ez se baj, nyilván erre is lehetőség lesz. -
Abu85
HÁZIGAZDA
Az új Xboxhoz tervezett megoldások egyetlen ma elérhető GPU-n sem fognak futni. Egyszerűen a Microsoft nem arra viszi az API-t, hogy fussanak, mert nem jól vannak felépítve a mostani hardverek. Mindegyik rossz ilyen szempontból. Az RDNA 4 is, a Blackwell is. Mind kuka lesz az új effektekkel.
Az AI irány legnagyobb gátja ma az, hogy lassú a VRAM elérése. Amelyik hardver nem kínál legalább 50 TB/s-ot valamilyen belső memória felé, az nem lesz jó az Xbox effektjeihez.
Nem véletlen amúgy, hogy a Sony is ugyanerre viszi a saját dizájnját. Ők is ott érzik magukat limitálva, hogy VRAM-ból nem lehet 50 TB/s-ot építeni. Hiába van több ezer TOPS-od, ha nincs hozzá sávszélességed. Érdemes egyébként megnézni a PS5 Pro dizájnját ilyen szempontból, mert a Sony és a Microsoft is ezt tekintette 0. generációnak. Az új Xbox és PS is a PS5 Pro koncepciójának továbbfejlesztése lesz. Bármennyire is fura a PS5 Pro egyedi GPU dizájnja az első, ami megoldotta ezt a jelentős problémát, csak ugye ez a dizájn PC-re sehol se lett átmentve. A következő generáció valószínűleg átmenti, és nem csak az AMD oldalán, mert rendkívül hasznos a koncepció.
-
Abu85
HÁZIGAZDA
Az FSR Diamond szabványos kód lesz. Erről lehetett hallani a GDC-n. Azt mondták, hogy minden hardveren működni fog, ami támogatja a DX Linear Algebra képességet. Viszont azt is hozzátették, hogy a Diamond felskálázó dizájnja jelentősen eltér az eddigi felskálázóktól, így bár magát a kódot le tudja futtatni a kompatibilis hardver, valószínűleg csak RDNA 5-ön fog teljesítményelőnyt hozni, ha bekapcsolod. A jelenlegi GPU-kon az aktuális kód kb. a natív teljesítmény negyedével fut. Tehát ha natívan számol 60 fps-t, akkor FSR 5-tel olyan 15 fps-t fog tudni RDNA 4-en és Blackwellen. De ettől engedélyezni fogják, legalábbis a Microsoft nem él majd tiltással, csak annyira eltérő hardverdizájnt igényel az új kód, hogy teljesen haszontalan lesz a mostani GPU-kon.
Azt nem tudni, hogy a következő Intel és NV generáció elmegy-e arra, amerre az AMD megy az RDNA 5-tel, hogy a multiprocesszorokat tömbösíteni lehet. Ez az FSR Diamond fő igénye, hogy el lehessen kerülni a VRAM terhelését, azaz minden számítás a GPU-n belül maradjon, sose menjen adatért a VRAM-ba.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#51468
üzenetére
A DLSS-nek és az FSR-nek sem szoros része az élesítő már. Az NV konkrétan nem is támogatja a NIS-t, az AMD pedig lehetőséged ad RCAS és CAS implementálására, de csak a pipeline-on kívül. Ez azért lényeges, mert ha pipeline-on belül implementálod, akkor a CAS nem fog működni más felskálázókkal.
Int8 verzió van a PSSR-ben, de igazából nem számítana, ha áthoznák PC-re. Nem a neuronháló a gond, hanem az, hogy maga az FSR 4 shader van az RDNA 4 mátrixelrendezésére írva. Az RDNA 3 az FP8 neuronhálóval is működne, ha a shader nem olyan lenne amilyen. Ezért döntött a Valve is úgy, hogy bár próbálták portolni, de végül nem engedélyezték az RDNA 2/3-ra. Egyszerűen hiányoznak a rendszerből a jelenlegi implementációhoz szükséges hardveres funkciók. Működőre tudják tenni, de nem tudják biztosítani a jó sebességet és minőséget. Emiatt a Valve egy másik megoldást választott, konkrétan újraírják RDNA 3-ra a mátrixelrendezést.
-
Abu85
HÁZIGAZDA
Nem speciális. Ez a lényege ezeknek az AI dolgoknak, hogy tanult statisztikai mintákból dolgoznak, tehát ha egy adott körülmény mellett úgy gondolják, hogy az eső az valójában zaj, akkor azt leszedi. És ez a teljes játékmenetben lehet, hogy nagyrészt megmarad, de lesznek olyan helyek, ahol rosszul ismeri fel a dolgokat. Ez nem meghatározható egyértelműen, mert valószínűségszámításról van szó.
-
Abu85
HÁZIGAZDA
Azt kell megérteni, hogy ezek a DLSS, FSR, XeSS dolgok kompromisszumok. Ott hibáznak sokan, hogy úgy tekintenek rájuk, hogy valami előnyt adnak, de valójában nem. Objektíven a legjobb minőség mindig a natív felbontás, az van legközelebb a ground truthoz, ami a fejlesztői vízió. A gyártói megoldások ezzel sosem fognak vetekedni, mert öszvér, túlkomplikált, általános megoldások, amelyek nem is feltétlenül illenek rá az adott játék specifikus igényeire, mert nem per-game alapon vannak fejlesztve. Tehát elkerülhetetlen, hogy lesznek olyan részeltek, amelyek akár eltűnnek, másképp jelennek meg, de ezek nem hibák, hanem azért vannak, mert így működik a rendszer. Akinek nem tetszik, hogy a felskálázó megváltoztatja az eredeti képi világot, ne használja ezeket, mert ilyen általános megoldással nem garantálható, hogy minden úgy fog megjelenni, ahogy a fejlesztők elgondolták. Ez alól egyedül azok a megoldások a kivételek, amelyeket az adott játékhoz szabnak, tehát a saját fejlesztésű felskálázók, mert ott már az egész rendszert úgy tervezték, hogy specifikusan csak az adott játék igényeit szolgálják ki.
A DLSS, FSR, XeSS dolgokra úgy kell tekinteni, hogy adnak kicsit nagyobb sebességet, de nem garantálják, hogy a fejlesztők vízióját látod majd a képen, és emiatt ezek sosem fognak kilépni a kompromisszumos gödörből, mert azért születtek, hogy ha valaki vállalja a minőségvesztés, vagy pontosabban azt, hogy nem azt látja, amit a fejlesztők elgondoltak, akkor kaphat extra sebességet. És ez egyébként teljesen rendben van így, mert kompromisszumot kötsz, hogy kapj némi extra fps-t. Nem különbözik ez attól, hogy a shader quality bellítást high-ról low-ra rakjuk. Nincs vele semmi gond, csak nem szabad elvárni tőle, hogy azt látod, amit a fejlesztők vízióként elgondoltak.
-
Abu85
HÁZIGAZDA
Az eső hiánya az nem bug, hanem feature. A denoiser zajnak véli és eltávolítja. Ennyi az oka, hogy nincs az RR képeken. A gyári denoiser nem annyira agresszív, tehát értelmezi, hogy az eső nem zaj.
-
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#51378
üzenetére
A Sony+AMD dolog a Sony ötlete volt, mert amíg nincs szabványosítva az a része a hardvereknek, amire optimalizálni kell a neurális leképezést, addig a Sony kódjai meg vannak lőve, tehát el kell érni, hogy legalább egy gyártón jól fussanak a PS6-ra írt kódok. Ezt nem az AMD akarta így, és valójában erre szabvány kellene.
-
Abu85
HÁZIGAZDA
Nem értem. Erre már rájöhettél volna. Az, hogy te ezt hogyan rendezed magadban nem az én reszortom. Már írtam neked, hogy szerintem nem velem harcolsz, hanem saját magaddal. Én úgy is a legjobbakat kívánom neked, hogy nem ismerlek, és őszintén bízom benne, hogy idővel megoldod azokat a problémákat, amivel a lelked küzd.

-
Abu85
HÁZIGAZDA
A JPR teljesen mást mér, mint a boltok. A boltok a valós eladásokat mérik per bolt alapon, amik eljutnak a végfelhasználókhoz. A JPR csatornákon keresztüli szállításokat néz, amelyre rálátásuk van, de nem mindre van rálátásuk, ahogy x bolt sem tudja, hogy y mennyit ad el miből.
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#51221
üzenetére
Az AMD Radeon márkanéven belül jelenleg nagyjából 1,2 millió GPU-t gyárt negyedévente. Ezt tőlük tudom.
Az, hogy a JPR az értékesítési csatornák egy részét nem látja az ismert, hiszen a JPR erre felhívja a figyelmet a jelentésében, hogy nem minden csatornára van rálátásuk.
-
Abu85
HÁZIGAZDA
Régebben írtam már, szerintem neked is, hogy a piackutatásokról szóló hírek azok, amelyeket a legkevesebben olvasnak. Ezért álltunk le vele több éve, csak akkor írunk ilyet, ha valami jelentős változás van (ezeket is alig olvassák, tehát a helyzet nem változott), de amúgy nem éri meg ebbe belefektetni az energiát, miközben olyan hírt is lehet írni, amelyet négyszer annyian kattintanak le.
Linkeljétek ide a fórumba, de amíg ez a helyzet nem változik meg, addig olyan híreket írunk, amelyek érdeklődést vonzanak be. -
Abu85
HÁZIGAZDA
A Nintendo Switch az egyik legjobb konzolcsalád, ami készült, csak nem sok vizet zavar PC-s szempontból, mert a Switch 2 is 6 éve elavult dizájnt használ. De ez a termék szempontjából nem baj, mert így is van piaca, tehát az üzleti döntést meg tudja védeni a Nintendo, hogy a felhasználóbázisuk számára nem fontos, hogy gyors és fejlett legyen.
-
Abu85
HÁZIGAZDA
válasz
Yutani
#51214
üzenetére
A gyártás az kb. hat hónapot ölel fel. Tehát, amikor meghatározzák, hogy mennyi készül majd, az kb. hat hónapba telik. És ezt úgy érdemes felfogni, hogy ha elkezdenek egy adott VGA-t gyártani, akkor az első komponens gyártásának kezdőidőpontjából számítva hat hónappal később kerül ki a gyárból dobozban. Ezért mondja azt az NV, hogy nekik nem várható, hogy a helyzet rendeződik a következő két negyedévben, mert a következő hat hónapnyi gyártás a visszafogott mennyiségre van berendelve, míg az AMD ilyet nem mond, mert ők meg jóval többet rendeltek.
Nem minden van követve, és ezt a JPR külön írja is, hogy bizonyos termékek eladásra kerülhetnek úgy, hogy nem szereznek róla adatot. A JPR konkrétan adatbázisokból dolgozik, és bizonyos gyárközeli csatornákat figyel. De a gyártók folyamatosan építhetnek új eladási csatornákat, amiről viszont aktuálisan nincs információja a JPR-nek. Tehát az eladások egy része átcsusszan úgy, hogy nem szereznek róla tudomást. Ez viszont nagyon ritkán jelent nagy tételt, de nem zárhatják ki a lehetőséget, ha bizonyos csatornákat nem tudnak ellenőrizni.
Technikailag az AIB-ok kibocsátását mérik, de nem úgy, hogy kijön a gyárból, és az már megvan, hanem a termékeknek az útjait nézik a raktárak felé. Ezek azok az eladási csatornák, amiket monitoroznak. Ha például egy VGA-gyártó épít egy új csatornát, akkor nem kizárt, hogy 3-4 negyedévig nem látják az ott eladott VGA-kat.Úgynevezett zárt partnerprogramok is vannak, amikor egy VGA-gyártó megbízza magát a GPU gyártóját a szállítással. Ezt a csatornát a JPR nem tudja figyelni, mert az egész eladási lánc zárt, de a termékek bekerülnek a boltokba, mert a GPU-gyártó felveszi őket, és a zárt eladási láncon keresztül eljuttatja a partnereinek. Ezért nem látszik például egy csomó Intel VGA, mert ott az eladások 70%-a ilyen. És ezt nem tudja a JPR ellenőrizni, mert az adott VGA átugorja az összes olyan szintet, ahol egyáltalán megjelenhet a monitorozott adatbázisokban, és először a kereskedőnél tűnik fel, amit már nem monitoroz a cég.
-
Abu85
HÁZIGAZDA
Akkor kiemelem neked abból, amit bemásoltál: "down 13% from the previous quarter". És nem azért, mert kevesebbet vettek, hanem azért, mert kevesebbet gyártanak. A Q3-ban volt a gyártás a csúcson, ahhoz képest a Q1-ben a deficit közelít a 20%-hoz. Ezért fog Q4-ről Q1-re is csökkenni.
-
Abu85
HÁZIGAZDA
Most másoltad be, hogy az NVIDIA jelentése szerint is csökkent a bevételük. De itt már Q1-ről van szó, ott jelentős a változás, és meg is mondták Q/A-n, hogy szűkös lesz a kínálat legalább két negyedévig még. Egyszerűen nem gyártanak annyit, mint régen. Azt nem tudni, hogy miből van kevés, gondolom GDDR7-ből.
-
Abu85
HÁZIGAZDA
válasz
Yutani
#51171
üzenetére
Nincs gyártóra lebontva ez, tehát lehet, hogy a Radeonokkal is csinálják ezt, de gondolom nem ugyanolyan mennyiségben.
Az biztos, hogy az AMD úgy kb. 30%-kal több VGA-t gyárt most, mint korábban, és az NV kb. 15-20%-kal kevesebbet. Ez adódhat a GDDR6 és GDDR7 elérhetőségéből is, tehát nem feltétlenül stratégiai döntés. Ezért is lehet manapság az, hogy bizonyos GeForce-okat a boltok nem is látnak. De úgy néz ki, hogy ezeket is legyártják, csak nem kerülnek kereskedelmi forgalomba. Valaki megy értük több kamionnal, és valahol felhasználja őket, ami nem kereskedelmen belüli üzlet. Ugyanaz történik, mint a kriptonál, mert ott is minden tökéletesnek tűnt amíg csak a gyártóig nézted az eladásokat, de VGA-t azt nem tudtál venni szinte sehol.
Gondolom nem véletlenül kezdték el gyártani a 3060-at, amiből hamarosan elkészülnek az első eladható VGA-k. Azok feltehetően nem kellenek azoknak az ügyfeleknek, akik most felvásárolják a kereskedelem elől a termékeket. -
Abu85
HÁZIGAZDA
Cuki lett a buli. A gyárból kikerült VGA-k 72%-át nem tudták követni a boltokig, tehát ezek valószínűleg nem kerültek kereskedelmi forgalomba. Nagy részük Szingapúrban tűnt el. Ugyanaz van, mint a kriptoőrület idején. Az eladások gyári szinten megvannak, de boltba csak a legyártott mennyiség egy része jut el. A nagyon sok VGA-ért a gyárhoz mennek közvetlenül a megrendelők és viszik el őket valahova, ahova nem tudják követni őket.
-
Abu85
HÁZIGAZDA
A DLL-t cserélgetheted, de az nem ugyanaz, mint egy adott API esetében driverből cserélni a kódot magát. Ezért van az, hogy ezt a gyártók egységesítették, hogy innentől kezdve ne is kelljen új kódokat kiadni, megcsinálják ezt driverből. Ennek a hátránya persze, hogy eltűnt a natív támogatás a játékokból, mert régi API-kat implementálnak, és onnan mindenki cseréli a kódot az újra.
Ez a lényeg, hogy a limitáció az mesterséges, mert ki tudod venni. Ugyanígy mesterséges lesz az AMD érkező limitációja egy másik játékban.
-
Abu85
HÁZIGAZDA
Az leginkább azért volt, mert a shader fordító a Blackwellre az elején nem volt olyan jó. Viszont itt a probléma specifikus. A Blackwell tisztán kihasználtságlimites, és a függőséglimit nem játszik szerepet a működésében. Az Ada esetében viszont kritikus optimalizálási stratégia a függőséglimit is. Nem tudod a kettőt egyszerre optimálisan támogatni egy shader fordítóból. Olyat tudsz, hogy működjön a generált kód mindenen, de azon lesz a leggyorsabb, amelyre ki van gyúrva a fordító. És az 590-es sorozat fordítója a kihasználtságlimitre van gyúrva, vagyis minden dizájn, ami részben függőséglimites problémás lesz sebességben, mert egyszerűen megváltozott a fordító működése, és az új rendszer már nem fogja be az összes feldolgozót akkor, amikor erre lehetésége lenne elméletben, így az esetek egy részében csak az ALU-k felét tudja hasznostani, míg az 570-es batch hasznosította az összes beépített ALU-t.
Az én javaslatom az, hogy használjátok az 570-es drivert, amíg lehet, vagy kérvényezzétek az NV-től, hogy adja ki úgy a driverét, ahogy az AMD, hogy a régi GeForce-okra megtartják a régebbi kódot, és akkor lesz két külön batch egy drivercsomagban. Ez amúgy a leggyorsabb megoldás, ami létezik, és garantáltan nem veszíti el a teljesítményét a 40-es széria.
-
Abu85
HÁZIGAZDA
Na most ez valójában nem szándékos. Arról van szó, hogy az Ada egy co-issue dizájn volt, míg a Blackwell nem az. És emiatt elvitték a shader fordító optimalizálásait a Blackwell felé, vagyis már nem tud annyira jól co-issue dizájnhoz kódot generálni, és ahol ez kihasználható lenne, ott az új shader fordító már csak a feldolgozók felét használja a 40-es GeForce-okban. Innen van a lassulás ezeknél a kódoknál, logikus is, ha a régi driverrel mindegyik feldolgozó működött az gyorsabb, mintha a fele működik. Viszont ez nem szándékos, vagy nem olyan értelemben az, hogy a usereket akarnák váltásra kényszeríteni, hanem arról van szó, hogy nem lehet úgy shader fordítót írni, hogy mindenre egyszerre jó legyen. És mivel a Blackwell túl sokban különbözik az előző pár generációtól, a régebbi sorozatoknak lesz rossz a váltás.
Az AMD ugyanilyen okból választotta szét a drivert, mert az RDNA 3-4 dual-issue, míg az RDNA 1-2 nem az. Ha a shader fordító a dual-issue képességre van optimalizálva, akkor azoknak a hardvereknek nem túl jó, amelyek nem ilyen dizájnok. Ezért az AMD azt csinálja ma, hogy két külön drivert szállít egy csomagban, hogy mindegyik architektúra a neki megfelelő optimalizálást kapja. Ugyanezt megtehetné az NVIDIA is, csak egyrészt ez költséges, vagyis minden driver kiadása több teszteléssel járna, másrészt láthatták ők is, hogy mit csinált a média az AMD-vel, amikor szétválasztották a drivert. Emiatt az NV azt választja, aminek a PR-ja jobban eladható, nem azt, amivel a user jobban jár. Ha nagy sebességet akarsz, akkor használj 575-ös sorozatú drivert, az még tudott co-issue optimalizálni.
Azt egyébként az NV is megcsinálhatja, hogy a Blackwell kap új drivert, minden korábbi pedig marad az 570-es batch-en, és sebességben sokkal jobban járnának a régi GeForce-ok tulajdonosai. Viszont ugye a média nekimenne, hogy leállt a terméktámogatás, meg hasonló marhaságok.
-
Abu85
HÁZIGAZDA
Akkor elárulom, hogy nincs olyan, hogy FSR 4 vagy DLSS 4.5 meg ilyenek. Mind az XeSS-nek, mind a DLSS-nek, mind pedig az FSR-nek van egy API-ja. Ezt kell implementálni. Ez a DLSS esetében a 2.valamennyit jelenti, az AMD-nél az FSR 3.1.4-et, az Intelnél pedig az XeSS 1.valamennyit.
A valóságban nulla cím jön DLSS 4-gyel, FSR 4-gyel, vagy XeSS 2-vel. Az alap API-t implementálják a fejlesztők, vagyis rendre a 2.valemnnyit, a 3.1.valamenyit és az 1.valamennyit. És utána ehhez az API-hoz adják hozzá az újításokat. És pont azért működik a drivereknél is a egyes részeit cserélik ki az eredeti kódnak, mert maga az API kompatibilis előrefelé, vagyis a programban szállított kód ugyanaz, mint a driverben szállított. Tehát olyan technikai értelemben nem létezik, hogy valami natív DLSS 4 vagy natív FSR 4 vagy natív XeSS 2, stb., mert az API az, amit a fejlesztők implementálnak, ami régebbi.
Van megoldásuk erre. Implementálva is van az új Resident Evilben, csak nem aktív, mert ez volt az egyezmény. De pont azért tudják megoldani a modderek, mert az egész egy teljesen mesterséges limit, amit ki lehet kapcsolni. Ugyanez igaz lesz majd arra a játékra, ahol az AMD kérte ezt. Ott is implementálva van az NV megoldása, csak nem lesz aktív a szállított kódban. Valószínűleg ott is be lehet majd kapcsolni, mert az a módszer sokkal komplexebb, mint egy denoiser, de valószínűleg annyit meg tudnak oldani, hogy magát az ellenőrzést kiüssék, és akkor a PT működni fog, csak sokkal lassabban, mert nem kap ML-alapú könnyítést a kód, így mindent számolnia kell. De mondom, az megoldható lesz biztos, hogy magát az ellenőrzést kivegyék, és bekapcsolható legyen a kizárt mód.
Nem mintha sokat veszítenének ezzel az emberek, mert még mindig nem PT first szinten tervezik a játékokat, így sokszor rosszabb a PT minőség, hiszen erre is tervezni kell a tartalmat, és amíg nem erre tervezik, addig ez nem fog jól működni. Majd a következő konzolgenerációtól lehet itt áttörés.
-
Abu85
HÁZIGAZDA
Nem azért, ez szándékos kizárás. Ahogy az AMD is szándékosan záratja ki majd az NV-t a saját FSR kódjához kötött módból. De amúgy mindegyiken mehetne, csak implementálni kell. Viszont úgy néz ki, hogy megéri kizárni az egyes, kb. senkit sem érdeklő módokból a másik fél játékosait.
-
Abu85
HÁZIGAZDA
A DLSS megy NV-n. Azt kötelezően aktiválja a PT. Ha ezt nem tenné, akkor menne minden máson. Ugyanígy lesz egy cím, ahol szintén lesz egy ilyen limit, csak ott az AMD-nek egy zárt rendszeréhez kötnek egy leképezési módot, ami menne NV-n, ha nem lenne bedrótozottan hozzákötve az egyik FSR funkcióhoz. Szóval mindenképpen szívni fognak a userek, csak más-más játékokkal.
-
Abu85
HÁZIGAZDA
Azt írja a teszt, hogy az FSR 3.1 min fut? Mert annak sem ugyanaz a képminősége az egyes VGA-kon, mivel négy különálló kódútja van. A legjobb képminőséget RDNA-n adja. Bár valószínűleg nincs akkora különbség, mint az XeSS-nél az XMX és a DP4a között, hiszen a kódutaknál csak konverziós eltérés van.
-
Abu85
HÁZIGAZDA
A gyártók és a stúdiók kiszámolják a képet teljes felbontáson. Ez nagyon fontos objektív adat, mert alapvetően az összes felskálázó torzít. Tehát a cél az, hogy a ground truth-hoz viszonyítva a torzítás minimális legyen. Jelenleg viszont nagyon érdekes, hogy egyre inkább a torzítás erősítése felé haladunk, tehát egyre messzebb kerülünk a ground truth-tól. A DLSS-nél például a DLSS 3 volt ehhez a legközelebb, az FSR-nél viszont az FSR 4 került közel hozzá. Az kérdés, hogy az AMD ezt merre viszi, mert ők is eltávolodhatnak a ground truth-tól, mint a DLSS, mert az van belenevelve a játékosokba jelenleg, hogy minél jobban torzít, annál szebb.
-
Abu85
HÁZIGAZDA
Egyébként ezt nem így szokták csinálni a gyártói felmérésekben, mert szubjektív tényezőnek ad teret. Az objektivitás miatt van még egy minta, ami a ground truth. Tehát az, hogy milyen, amikor tényleg kiszámolná a hardver a maximális felbontáson, amivel elméletben lehetne.
-
Abu85
HÁZIGAZDA
Mert a P-mag fogyasztása egészen magas szintre nőtt, és emiatt nem tudtak elég P-magot rakni a lapkába. Erre csináltak E-magot, ami jóval kisebb fogyasztású. Így keverik őket. Az AMD azért nem kezdte el, mert nekik a Zen magjuk fogyasztása relatíve alacsonyan van tartva. Kb. az Intel-féle P-mag felénél.
#51027 Busterftw : Az Intelnek a fogyasztása az kényszerű lépés. Nem azért szabják az új tokozást 700 wattos PL4-re, mert ez annyira jó ötlet, hanem azért, mert kiszámolták, hogy így lesznek ott teljesítményben, ahol a Zen 6 lesz 230 wattos PPT-vel, vagyis a PL4-gyel megegyező paraméterrel. Egyszerűen azzal, hogy elvették a magoktól a Hyper-Threadinget, az Intelnek minden szál mögé fizikai erőforrást kell raknia, és ez veszettül fogyaszt abban az esetben, ha mindkét cég 50 szál körülire tervezi a következő kört. Az AMD-nek a 48 szál mögé elég jóval kevesebb erőforrást építenie, mert van SMT-je.
Ezzel az Intel úgy 2030-ig nem fog tudni mit kezdeni, mert addig nem jön az új, Zen-szerűen tervezett mag.
#51026 proci985 : Az alaplapok esetében már most megoldják az alaplap gyártók azt, hogy az Intel lapokra más komponenseket szereznek be. Technikailag most is drágábbnak kellene lennie egy Intel alaplapnak a magasabb fogyasztási paraméterek miatt, de az Intel követelményei kevésbé szigorúak emiatt az AMD követelményeinél, így megengedik az olcsóbb komponenseket is. Ilyen szempontból tehát lesz mozgástere az alaplapgyártóknak.
#51032 Busterftw : 52-magos lesz a Nova Lake. Viszont itt a gyártók ezt nem magként értelmezik, hanem szálként, mert szálakon futtatod a folyamatokat. Ezért küld ellene az AMD 48-szálas Ryzent. Valószínűleg ha 48-magos Ryzen jönne 96 szállal, akkor a PPT fogyasztása úgy 450 watt lenne, ami még mindig kisebb a 700 wattnál, de láthatóan nőne. Viszont az AMD-nek nincs szükséges 48-magos Ryzenre ezen a szinten, mert nagy teljesítményű magokat terveznek ide.
#51034 paprobert : Nem fog az AMD ilyet csinálni, mert a Panther Lake előállítási költsége magasabb a Strix Halo dizájnnál is. Ez azért nagyon jelentős probléma lenne az AMD-nek, mert nekik az árrésük sokkal nagyobb az Intelnél, hogy reális nyereséget tudjanak termelni. Emiatt az AMD ide Strix Halo rendszert kínál inkább, amit drágábban adhat el.
-
Abu85
HÁZIGAZDA
válasz
proci985
#51020
üzenetére
A gyártási költség biztos, de valószínűleg azért tudnak rajta hagyni elég hasznot így is. Azért az AMD ma már jóval magasabb haszonkulccsal dolgozik, mint az Intel, így nyugodtan számíthatnak arra, hogy annyira magas áron fogja az AMD is adni a sajátját, hogy azt szimplán lekövethetik, és nem lesz veszteségük.
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#51021
üzenetére
Ez nem ilyen egyszerű. Az Intel azért csinál most 52-magos CPU-t, mert nincs Hyper-Threading a P-magban. Tehát ahhoz, hogy nekik 48 darab szabadon felhasználható száluk legyen, fizikailag is kell ennyi P- és E-mag. Az LPE-magok ugye a rendszerfolyamatokra vannak, tehát azok ideális esetben nem kapnak a programoktól feladatot. Az AMD viszont tud csinálni 24 magból 48 szálat, mert nekik SMT-s a magdizájnjuk.
Tehát a programoknak rendelkezésre álló szálak számában ugyanott lesznek, csak az Intelnek ehhez fizikai magok kellenek, és nyilván ebben a formában a saját konstrukciójuk energiahatékonysága el fog maradni attól, amit el lehetne érni például Hyper-Threadinggel, ha volna. Valószínűleg ezért mondta Lip-Bu Tan, hogy ne foglalkozzanak a fogyasztással, mert most már kellene valami olyat mutatniuk, hogy teljesítményben nem az előző generációs AMD dizájnokat célozzák.
Tudtommal lesz az AMD-nek Threadripperje, nem a PRO, hanem a normál a következő körben, és abban 96 mag lesz, vagyis 192 szál, de annak a teljesítménye nagyságrendekkel jobb lesz. A TDP-jét 350 wattra tervezik, mert itt is limitál a platform, ami nem lesz új, csak a mostani alaplapokhoz jön egy új BIOS. Emiatt a 350 watt még mindig a Nova Lake TDP-je alatt lesz.
Ebből a szempontból egyébként az Intel kifejezetten realista. Tudják, hogy amíg kis-nagy magoznak, addig nekik el kell engedni a fogyasztást, mert a koncepció, amit alkalmaznak nem alkalmas arra, hogy hozzák a Zenek energiahatékonyságát. 2030-ra jön a váltás, amikor úgy fognak dolgozni, ahogy az AMD csinálja mag. Vagyis lesz egy alapmag, ami pont jó teljesítményű lesz, és annak lesz kétféle verziója, de ezek már fizikailag nem eltérő magok, csak eltérően lesznek implementálva, tehát az órajeltartományuk más lesz. Addig viszont marad az E-mag és P-mag, és az ezzel járó szívás. Azt is tudni, hogy az új, egységes magot azok tervezik, akik az E-magot, tehát az Intel a P-magot tervező csapatot feloszlatta. Ez szintén nagyon helyes döntés, mert a cég gondja alapvetően az, hogy a P-mag energiahatékonysága sokkal rosszabb az E-magénál.
Igazából az Intel gondja hasonló, mint az AMD-nek a Bulldozernél. Akkor az Intel fő előnye az volt, hogy egy maggal oldottak meg két szálat, míg az AMD fizikailag is dedikált feldolgozókat rakott a szálak mögé, aminek a hatékonysága rosszabb volt, hiába raktak a lapkába kétszer annyi magot. Az a helyzet, hogy a jelenlegi fizikai limiteket tekintve az az optimális, ha a szálak mögé nem mindig raksz fizikai erőforrást. Működni fog persze, ha megteszed, csak ahogy a Bulldozernél, illetve az Intel mostani hibrid dizájnjainál, a fogyasztása messze nem lesz arányban a leadott teljesítményével. És ahhoz, hogy tartsák a lépést azokkal a dizájnokkal, amik se nem lassú, se nem gyors, hanem pont jó teljesítményű magokat használnak, el kell engedni a fogyasztást.
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#50981
üzenetére
A Socket AM5 tokozású AMD CPU-k PPT limitje 230 watt körüli. És itt nincs olyan, hogy ezt feloldhatnád, mert ez bele van tervezve a processzorba.
Mivel a Zen 6 is ugyanebbe a tokozásba jön, így ennek is ez lesz a felső határa. Az AMD-nek muszáj igazodniuk a mostani alaplapok specifikációihoz, nincs olyan mozgásterük, mint az Intelnek, hogy az új tokozással új határokat szabnak majd meg. Viszont ez az alaplapgyártók szerint nem jelent különösebb gondot, mert még 120 watton belül is képes tartósan 5 GHz-et hozni a Zen 6. Ez volt a projekt legfontosabb fejlesztése, hogy plusz 1-1,5 GHz-cel tudjanak gazdálkodni a fogyasztás növelése nélkül.
Az Intelnél a változást az teszi lehetővé, hogy egyrészt új tokozást hoznak, amire új specifikációkat lehet szabni, így el lehet vinni a követelményeket 700 wattig is, másrészt Lip-Bu Tan kiadta a parancsot, amikor még kinevezték, hogy nem érdekli mekkora fogyasztásból, de hozni kell a teljesítményt, mert az nem jó, hogy úgy néz ki az Intel a tesztekben, mintha egy-két generációval le lenne maradva. És ebben egyébként van ráció, mert a fórumokban jellemzően linkelt tesztekben nem mutatják azt, hogy mennyit fogyaszt az adott proci. Tehát az Intel simán megengedheti magának a 400 wattos TDP-t, amit terveznek az LGA-1954-re, szemben az AMD 170 wattjával, amit a Socket AM5 tartósan elbír. És elvileg az előzetes tesztekben ez elég jól mutat, mert a Nova Lake nagyon közel van a Ryzen 9850X3D-hez a játékokban, bár az alaplapgyártók szerint még nem veri meg, viszont ez tisztán abból eredhet, hogy a mostani Windows 11 ütemező nem kezeli jól a Nova Lake ötsebességes magcsoportosítását, amit az is mutat, hogy ha kényszerűen csak arra a négy egymás melletti P-mag klaszterre korlátozzák a futtatást, ami a leggyorsabb magcsoport akkor a hardver gyorsul, és így már pár százalékkal megveri a Ryzen 9850X3D-t is.
Ezt a részét majd nagyon sokat kell fejleszteni a Nova Lake-nek szoftveresen, mert teljesen más jellegű ütemezést igényel, ugyanis a Windows 11 arra van szabva, hogy két nagyon eltérő teljesítményű magcsoportot kezel nagyjából jól. Na most a teljes Nova Lake-ben lesz 4 LPE-mag, 16 alacsony prioritású E-mag, 16 magas magas prioritású E-mag, 8 alacsony prioritású P-mag és 8 magas prioritású P-mag. Ez annyira extrém kiépítés, hogy még a programok oldalán is módosítások kellenek, hogy jól működjön, tehát nem elég csak a Windows 11-et rászabni. Egyszerűen direkt támogatás kell, hogy a fejlesztő jelezze az OS-nek, hogy melyik feladatot melyik magcsoportra szánja, mert túl nagy a tévedés lehetősége.
-
Abu85
HÁZIGAZDA
Tudtommal - és ez eléggé jó helyről származó infó - az AMD kétféle CCD-t csinál a Zen 6-ra. Az egyik a normál Zen 6 CCD, amiben 12 mag és 48 MB-os L3 cache lesz. A másik elvileg a Zen 6c CCD, amiben 32 darab Zen 6 mag lesz, de nem tudni az L3 cache pontos kapacitását, viszont valószínűleg 64 vagy 96 MB lehet.
Ezek eltérő 3D V-Cache lapkát is kapnak, mert a mostanit mindenképpen át kell tervezni a Fan-out átalakítás miatt. Ezek pontos kapacitása sem ismert, de a kicsi verzióra 96 MB-ot, a nagyra pedig 256 MB-ot mondanak. Valószínű, hogy így jön ki a 2,5 GB-os L3 cache a HPC EPYC-re, amiről szintén van pletyi. -
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#50734
üzenetére
Kérdeztem a PC-gyártókat erről, de azt mondta nekik az Intel, hogy nem lesz. Eredetileg gondolkodtak rajta, de a mobil piacra is nagyon kevés Panther Lake fog készülni, asztalra nem maradna semmi.
-
Abu85
HÁZIGAZDA
Ezen nem segít. A DLSS-nél az élesítő jó ideje nem a rendszer része. Erről a 2023-as év elején írtunk. [link]
Az eredetileg igaz volt, hogy az NV használt a futószalagon élesítőt, amit speciálisan erre terveztek, de kifejezetten rossz volt a működése, és nem volt értelme megtartani. A fejlesztők, amikor implementálták anno a DLSS-t, akkor ezt a részét helyből nullázták, és külön helyettesítették CAS algoritmussal, mert sokkal jobb minőséget kaptak tőle. Ezért döntött igazából úgy az NVIDIA, hogy akkor ez nem kell bele, mert csak a panasz volt rá. A NIS-t is azért ajánlják, mert az a saját különálló élesítőjük, de kb. minden nagyobb játékban az AMD-féle CAS van alkalmazva, mert jobban működik a NIS-nél. Nyilván ezt az NV nem mondhatja, hogy akkor használjátok az AMD kódját, de a szeparálás pont azt szolgálta, hogy akkor használja mindenki azt, nem kell ragaszkodni a NIS-hez. Emiatt van az, hogy a DLSS nem tartalmaz élesítőt, míg az FSR és az XeSS igen. Az AMD erre egy speciális RCAS implementációt használ, az Intel pedig alapjaiban az AMD-féle CAS, csak Arc GPU-ra optimalizálva.Viszont a DLSS 4-nél a homogén felületek jellegzetes kezelése nem az élesítő miatt van. Ha kikapcsolod, akkor is megmarad a művies hatás, mert maga a helyreállító algoritmus működik úgy, hogy a színben nem elütő képi tartalomba elkezdi belesúlyozni azokat a radikálisan eltérő színű pixeleket, amelyek szintén ott vannak a képen, akár a kép sarkán. Ez a globális konzisztencia okozza azt a fura jelenséget, amire PuMba rákérdezett, és hiába tologatod az élesítőt, nem függ a kettő egymástól. Ahhoz, hogy ez ne legyen a felskálázás része, a transformert kell kikapcsolni, amire például a Cyberpunk 2077 direkt lehetőséget is ad, mert tele van a játék homogén felületekkel, és más módon a fejlesztők nem tudták kezelni a gondot.
Hosszabb távon egyébként jó hír, hogy a Sony dolgozik egy megoldáson, ami direkt erre a problémára reflektál. Eredetileg a PSSR szintén transformer lett volna, de elvetették az ötletet, mert rosszul kezelte a homogén felületeket. Viszont az apró részletek helyreállítása kellene, tehát magáról a tervről nem mondott le a Sony. Amin most dolgoznak az egy frequency domain modell, és ennek pont az a lényege, hogy megmaradjon úgy a globális konzisztencia által biztosított jobb kontrol, hogy közben külön kezelje az alacsony és magas frekvenciájú tartalmat a képen. Ezáltal úgy állíthatók helyre a magas frekvenciájú apró részletek a képi tartalmon, hogy közben nem kell ennek a negatív hatását elszenvedni például az alacsony frekvenciájú bőrfelületeken. Valószínű, hogy rövidebb távon mindegyik felskálázó erre fog elmenni, mert csak nagyon kicsit kell módosítani a mostani hardvereken, hogy igazán hatékonyan fusson (a PS5 Prónak ez a multiprocesszorokat összekötő egyedi koncepciója például helyből alkalmas rá). Eközben megszabadulunk azoktól a képi torzításoktól, amik a mostani felskálázókat jellemzik.
Hosszabb távon egyébként van a Sony-nak egy másik kutatása is, de az szerintem bőven a PS6 érára van tervezve. Annak az a lényege, hogy maga a neuronháló tudja, hogy mi az anyag. Tehát effektíve fel tudja ismerni a képről, hogy az a terület rajta bőrfelület, amaz üveg, ez meg hó, stb. És eszerint konkrétan úgy tudja kezelni ezeket, hogy a helyreállított képen már azt is tudja, hogy a kép egyes részei hogyan viselkednek a fényben.
-
Abu85
HÁZIGAZDA
Én egy szóval sem mondtam, hogy a DLSS 4 rossz, csak azt írtam, hogy a jellegzetes hatásának megvan az oka, ami az elvi működéséből ered. És ez mint írtam nem élesség, hanem a transformer elvi működése által biztosított globális konzisztencia, ami a homogén felületeket túl műviessé teszi.
Az analitikai élesítők ilyet nem csinálnak, mert azok nem dolgoznak a teljes pixeltartományon, hanem van egy szűk tartományuk, implementációtól függően 6-8 pixel, és azon belül teszik a dolgukat. Ráadásul a modern élesítők még kontrasztadaptívak is, jó a NIS éppen nem ilyen, de a CAS például igen, tehát eleve nem torzít jelentősen.
#50660 Callisto : Kicsit vigyázzunk a RIS-szel, mert ha FSR 4-et használunk, akkor tuti RDNA 4-ünk van, és az hardverben implementálta a RIS-t, ami nem ugyanaz az algoritmus, amit a driverben szállít az AMD a többi GPU-ra. A hardveres RIS nagyrészt ugyanúgy működik, de nagyobb a feldolgozási tartománya, tehát az eredmény is jóval pontosabb. Ezért ez a driverben bekapcsolom a RIS-t nem általános érvényű, mert az RDNA 4-en ez számottevően jobb minőségű, mint bármelyik játékban szállított élesítő. A szoftveres megoldásokkal az a gond, hogy nagyon kell figyelni a kernel méretére, mert a sebesség szempontjából optimális, ha csak egy pass alatt lefut, tehát a feldolgozási tartomány méretét nagyban meghatározza az, hogy ne legyen túl regisztergyilkos. A hardverben implementált RIS konkrét célhardver, ott eleve úgy tervezheted magát a fizikai áramkört, hogy a feldolgozási tartomány legyen annyira nagy, amennyire kell. Itt nem számít a terhelés, mert úgysem a shadereket fut.
#50663 T.Peter : Abszolút, ha megpróbálod ugyanazt megcsinálni raszterben, amit RT-ben, akkor valószínű, hogy találsz rá valami trükkös megoldást, főleg a compute shaderek világában, de esélyes, hogy teljesítményben rosszabbul jössz ki vele. Viszont ez nem jelenti azt, hogy nem érdemes trükközni. Az Ubisoft külön csapatot tart arra, hogy kutassák az RT lehető leggyorsabb alkalmazási lehetőségeit. Például a Far Cry 6-ban példásan kombinálták a sugárkövetést a raszteres megoldással. Gyakorlatilag a visszaverődést úgy oldották meg, hogy amíg az minőségi hátrányt nem okoz, addig SSSR-rel működik, ahol pedig ez a technika nem működik jól ott RT-vel. Az eredmény rendkívül hasonló képminőség lett ahhoz, mintha csak RT-t használtak volna, miközben bő 50%-kal gyorsabb lett a hibrid megoldásuk. Ugyanezt eljátszották az árnyékokkal is, bár ott nem nyertek ennyit. Tehát az, hogy van RT nem jelenti azt, hogy nem érdemes optimalizálni és gondolkodni.
-
Abu85
HÁZIGAZDA
Ez nem egy élesítési probléma, hanem a transformer modell alapvető működéséből eredő jelenség, ami kivédhetetlen. Tudom, hogy látszólag élesnek tűnik, de nem az, a gond az, amit leírtam.
#50646 Ancsika99 : Nem lesz. Mint írtam ez pusztán abból eredő tényező, hogy a technológia elvi működése mellékhatásként előhozza a szóban forgó képi jelenséget. Ha az AMD vagy az Intel készít hibrid CNN+transformer modellt, akkor ott is bejátszik majd az az elvi működés, hogy minden elem figyel a többire a feldolgozás során, ami a kellemetlen mellékhatás konkrét okozója.
Ezt fontos megérteni, mert így látszik, hogy ez nem bug, hanem feature, még akkor is, ha nem kellemes a jelenség. Szóval ezt nem az NVIDIA rontja el, hanem az alkalmazott eljárás működési elve ilyen. Persze a transformert sosem képi feldolgozáshoz szánták, de elvi szinten lehetséges.
-
Abu85
HÁZIGAZDA
Igen. A Cyberpunk 2077 különösen érzékeny erre, mert nagyon sok homogén felületet használ a dizájnból eredő döntések miatt. Ezért ennél a játéknál a DLSS 4 többségében rosszabb, mint a DLSS 3, így nem akarták a fejlesztők a jobb minőségű variánst kiszedni.
És egyébként az NVIDIA ezt egyáltalán nem tiltja. Tehát nyugodtan lehet implementálni a DLSS 4 mellé a DLSS 3-at, ha a grafikai dizájnnak éppenséggel nem kedvez a transformer modell.
És fontos, hogy ez nem élesség. Annak tűnik, de nem az. Működésbeli koncepcióból eredő torzításról van szó. Ezért érzed azt, hogy a kép egyik részén ennek előnye van, máshol pedig kifejezetten hátrányos a hatás. És már az elvi háttérből tudni, hogy hol előnyös és hol hátrányos, amit a gyakorlat igazol. A Cyberpunk 2077 csak kifejezetten extrém eset a sok homogén felületével, az a DLSS 4-nek rendkívül káros, mert pont ott teljesít rosszul, amiben túráztatja a szóban forgó játék.
-
Abu85
HÁZIGAZDA
Ezt nem az NVIDIA csinálja, hanem maga az alkalmazott módszer. A hagyományos AI felskálázás CNN modell, ami a mintázatokat lokálisan értelmezi, és a felskálázáskor az előzményminták elemzésével végül meghatározza a magasabb felbontású képen a pixelek színét. Ha klasszikus AI felskálázásról beszélünk, akkor a teoretikus natív minőséghez ez lesz a legközelebb, mert a pixelek színének meghatározásánál csak a szomszédos adatok lesznek felhasználva.
A DLSS 4 már egy hibrid modell, ami alapjaiban CNN, de ki van egészítve transformerrel. A transformer egyik jellegzetessége, hogy nem csak lokálisan működik, hanem minden elem figyel a többire a feldolgozás során, ami például nagyon jól jön szövegfeldolgozásnál, vagyis chatbotokhoz, de nagyon kellemetlen dolog a képfeldolgozásnál, mert minden pixelt az összes többire vonatkoztat, aminek a kellemetlen és kivédhetetlen mellékhatása az lesz, hogy kiemeli a kontrasztos éleket és textúrákat.
Ez egyébként nem ismeretlen dolog, az NV is foglalkozott vele régebben. El is mondták, hogy értik ők is a hátrányait. Ergo pontosan tudták, hogy amikor ebbe az irányba elindultak, akkor a DLSS 3-hoz viszonyítva messzebb kerülnek attól az eredménytől, amit a teoretikus natív minőség jelenti, vagyis nem lepte meg őket, hogy a DLSS 4 jobban torzítja a végső képet.
Ami miatt ezt vállalhatták az az, hogy a CNN+transformer egy helyen jobb a hagyományos CNN-nél, mivel az elvi működése jobban kiemeli az apró részleteket. Viszont ezért cserébe számottevően torzítja a homogén felületeken, mint karakter bőre vagy ég, és végeredményben picit zajossá teszi a felskálázott képet.
Tehát az NV tud róla, hogy ez így nem jó, de nem tudják kiszedni belőle, mert a negatív hatások konkrétan az elvi működéséből erednek, és nem azért, és mert ezt így akarják.
#50633 FLATRONW : Nem, itt nem erről van szó. Az emberek csak nem tudják elég jól megfogalmazni, amit látnak. Valójában nem az élesítés a gond, mert nem élesít. Léteznek nagyon jó analitikai kontrasztadaptív élesítők, amelyek ezeket a jelenségeket elő sem hozzák. Amit kritikaként megfogalmaznak egyesek a DLSS 4 kapcsán, az abból ered, hogy a transformer elvi működése által biztosított globális konzisztencia a homogén felületeknek árt. Ez nem egy élességgel kapcsolatos probléma, hanem arról van szó, hogy a DLSS 4 egyszerűen az emberi bőrfelületet rosszabbul tudja felskálázáskor helyreállítani a DLSS 3-hoz viszonyítva, mert ezeknél a felületeknél az lenne a kulcs, hogy a pixel színét ne befolyásolja egy távoli, például a kép legszélén lévő fekete pixel, mert semmi köze hozzá. A DLSS 4 rendszerszintű koncepciója ezt a működésbeli hátrányt nem tudja eliminálni, mindenképpen lesz negatív hatása a homogén felületekre a nem lényeges pixeleknek.
-
Abu85
HÁZIGAZDA
válasz
Callisto
#50614
üzenetére
Gondolom euróra gondolt. Hiszen darabonként 22000 euróért árulják azt a három GeForce RTX 5090-et, ami raktáron van nekik. Valszeg az Alza is ezért tüntette el az eladó termékek közül ezt a modellt, ennyit nem adnak érte. Itt most marha nagy a buli, mert mindenki arra vár, hogy hol lesz az új ár, amit még éppen kifizetnek a kiskereskedők, miközben baromira kétlem, hogy ezekért a disztribútorok többet fizettek volna 2000 eurónál a gyártó felé.
-
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#50587
üzenetére
Pont erre lenne jó bemutatni a módszertant, hogy láthassuk, hogy hol vannak a hibák a Steam felmérésében. De valószínűleg a Steam sem tudja, csak osztanak szoroznak tételeket. Ezért tud 50%-kal bővülni egy olyan VGA, amit nem is gyártanak. Most más szorzót használnak rá. Na de honnan az a szorzó? Miért annyi, miért változott?
#50583 DudeHUN : Ez nem akkora hiányosság. Az AMD pontosan 20:1 arányban gyártja a 9070 XT-t a 9070-hez viszonyítva. Tehát, ha tudod a sima számát, akkor megszorzod 20-szal, és megkapod az XT számát.
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#50579
üzenetére
A tudomány maga a módszertan.
Én nem tagadom a tudományt.
A gaming valójában nem csak gaming. Lásd kínai AI farmok. Lehet, hogy a gamingbe van besorolva, de irtózatos mennyiségű GeForce-ot alakítanak át Kínában, ami megy AI-ba.
#50581 Busterftw : Persze, hogy felhozzuk, hiszen Kína konkrét gyárakat húzott fel arra, hogy gaming VGA-kat alakítson át AI-ra. Ez egy üzletág. Olyan mennyiségben csinálják, hogy simán kiteszi a gyártók gyártási mennyiségének a felét.
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#50566
üzenetére
A pontos piaci arány nem megbízható a módszertan ismerete nélkül. Teljesen mindegy, hogy te erről mit gondolsz, mert ez egy tudomány, és a tudomány nem azt gondolja, amit te.
A példádnál pedig maga a trend, ami nem helyettesíti a módszertant. Ettől persze húzhatsz alufóliasisakot, de ettől még a tudományos tények melletted is létezni fognak, annak ellenére, hogy megtagadod ezeket.
-
Abu85
HÁZIGAZDA
válasz
Busterftw
#50562
üzenetére
Továbbra sem az a gond, hogy nem pontos, mert egyik statisztika sem az. Az a gond, hogy nem írja le a Steam a módszertant. Ha leírnák, hogy miképpen történik az adatok feldolgozása, hogyan illesztik rá a mintavételt a teljes felhasználóbázisra, milyen súlyozási eljárásokat alkalmaznak, mekkora a minta elemszáma és annak hibahatára, valamint milyen gyakorisággal és milyen szűrések után frissülnek az adatok, akkor az egy reális statisztika lenne.
Azt nem értik meg itt sokan, hogy itt a pontosság maga a módszertanból jön. Aki elmegy mondjuk az egyetemre statisztikát tanulni, az első dolog, amit megtanítanak vele, hogy egy mérés nem attól válik értelmezhetővé, hogy "nagy számok" vannak benne, hanem attól, hogy világosan le van írva a mintavétel módja, a torzítások forrása, illetve az alkalmazott becslés bizonytalansága. Ezek nélkül ugyanis nem dönthető el, hogy az adott statisztika reprezentatív becslés-e a teljes felhasználóbázisra, vagy csak egy önszelekcióval terhelt használhatatlan adathalmaz.
Amikor mi tanultuk ezt, akkor a tanár úgy fogalmazott, hogy ha a módszertan nem transzparens, akkor az adatok nem hibásak, csak nem verifikálhatók. Ezt arra a szabályra építette, hogy minden publikált mutatót csak a mögötte meghúzódó adatgeneráló munkafolyamat teljes ismeretében lehet értelmezni.
Jelen esetben nem az van, hogy elszart valamit megint a Steam Survey, hanem annyi történt, hogy azt se tudják egy ideje, hogy mit közölnek, ezért nem is látják, hogy hol vannak benne a torzítások. És ennek az oka, hogy nekik sincs erre semmilyen módszertanuk, ami a beáramló adatokat rendszerezné. És ez a gond, mert így a Steam annyit tud tenni, hogy széttárja a kezét, és azt mondják, hogy halvány fogalmunk sincs róla, hogy mennyi az annyi, de majd januárban rakunk arra az adatmezőre egy korlátot, hogy az összesítés ne lépje túl a 100%-ot. És ezért nem publikálnak módszertant. Nincs is nekik. Valószínűleg tele van konstansokkal szorozva az egész adathalmaz, mert már rég betorzította úgy önmagát, hogy 150-200%-okat közölhet minden kategóriában. -
Abu85
HÁZIGAZDA
Én nem akarok most lufizni, tehát arra nem reagálnék, de pusztán a TSMC szemszögéből az a fő gond, hogy ők ugyan biztosítják a gyártástechnológiát, de ezt ők is úgy teszik, hogy nekik is szükségesek a tömeggyártáshoz szükséges eszköz. Na most ezt ugyanúgy beszállítóktól szerzik, és a beszállítók által biztosított ellátás limitálja azt, hogy mennyire tud bővülni a gyártás. A legtöbb esetben azért, mert a TSMC és a modern chipgyárak által használt csúcstechnológiás berendezések összerakási ideje nagyon sok hónap. Tehát mindegy, hogy a TSMC lát-e az AI-ban fantáziát, az számít, hogy mennyi berendezést tudnak szerezni a partnereiktől a gyáraikba, és alapvetően úgy építik a gyárakat, hogy kb. minden elérhető eszközt megvesznek. Szóval itt egy beszállítói limit van, ami akadályozza a gyártókapacitás bővítését. És pont az a gond, hogy ezen a ponton nagyon nehéz növelni az ellátás sebességét, mert annyira bonyolultak ezek a berendezések, hogy iszonyatosan sok komponensből épülnek fel, és iszonyatosan fontos, hogy amikor leszállítják őket, akkor be legyenek állítva, szuperül működjenek stb. Tehát ez nem pusztán egy gyártási kérdés, itt azért nagyon komoly technikai személyzet van a háttérben, és az ultimate limit egy ponton az elérhető, kellően képzett humánerőforrás lesz. Ebből érthető szerintem, hogy ha a TSMC mondjuk azt mondja holnap, hogy kéne háromszoros kapacitás egy év múlva, akkor sem tudják megcsinálni, mert egyszerűen a legszűkebb keresztmetszetek már így is a limiten dolgoznak.
-
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#50305
üzenetére
Doom: The Dark Ages
Indiana Jones and the Great Circle
Avatar: Frontiers of Pandora
Assassin's Creed ShadowsHirtelen ennyi most. Ezekben skálázni lehet, de kikapcsolni nem.
-
Abu85
HÁZIGAZDA
Ez azért eléggé bonyolult dolog az eltérő dizájnoknál. Az is számít, hogy az AMD a 2 nm-en csak a GPU chipletet gyártja, tehát van a dizájnnak pár egyéb komponense, amit más node-on készítenek. Tehát itt ez nem jelent automatikusan többet.
Általában az az ajánlása a TSMC-nek, hogy ha valaki CoWoS-t használ, akkor próbálja meg a dizájnját minél több lapkából felépíteni 3D-s tokozással. De csak azért, mert az egyes rétegek után ellenőrizhető, hogy az illesztés pontos volt-e, és ha nem, akkor az adott termékre nem is raknak új réteget, mert az úgyis kuka. Minél több rétegről és minél több lapkáról van szó, annál jobb a CoWoS kihozatala, ha a felhasznált chipeket tekintjük. Két lapkával és két réteggel például kifejezetten alacsony, 70% körüli. -
Abu85
HÁZIGAZDA
Ez specifikusan az OBS problémája. És látszik a képen, hogy nem is az encode hardvert terheli a feladat, hanem a 3D engine-t. Amiről viszont szó van azok a gyári szoftverek, amelyeket a gyártók fejlesztenek és csomagolnak a driverbe. Technikai megvalósításban messze ezek a leghatékonyabbak. Az, hogy az OBS ezekkel nem tartja a lépést azért van, mert az OBS egész éves büdzséje annyi, amennyit az AMD és az NV egy óra alatt elkölt driverre. Nyilván nem fognak tudni gyári színvonalat kínálni a technológiai megvalósítás terén. Nem is feltétlenül kapják meg ugyanazokat a lehetőségeket a gyártóktól. Ezért is jött a Vulkan video. Csak ez sosem lesz versenyképes a direkt hardvereléréssel, ami megvan az AMD-nek és az NV-nek. És igen, ennek lehet nagy ára a működésben, akár a VRAM kapacitását is jól lefoglalhatja. De ettől technikailag nem kell így lennie, csak nullához közelítő pénzből ennyire futja programszinten.
-
Abu85
HÁZIGAZDA
Ennek semmi köze a memória mennyiségéhez. Maga a streaming nagyjából 100 MB-nyi extra adat csak. Minden más már ott van eleve a VRAM-ban. A problémát nem a memória mennyisége adja, hanem a copy műveleteknél a rendszerek viselkedése, ugyanis máshogy terheli a PCI Express buszt az AMD és az NVIDIA dizájnja. Ahogy fentebb írtam a GeForce nagy copy műveleteket alkalmaz, és addig megszakítás nélkül csak azzal a művelettel foglalkozik, amíg be nem fejeződik, és ez egy nagyobb adatmásoláskor megakasztja a GPU-t. A Radeon burst rendszer, vagyis a teljes nagy műveleteket apró szeletekre bontja. Emiatt amint végez egy szelettel, rögtön be tud szúrni egy compute és/vagy egy graphics parancsot, így a GPU munkavégzése sosem áll le.
Tehát teljesen mindegy, hogy mennyi memóriával veszed a hardvert, az a 100 MB, ami kell némi extra adatnak nem oszt nem szoroz. A PCI Express busz van recording esetén aránytalanul terhelve, és ott a világ összes memóriája sem tud neked segíteni, mert maga a recording koncepciója az, hogy a tárolt adatot írd ki az adattárolára, tehát muszáj kimásolni.
Alapvetően az új generációban már nagyon jó minden szempontból a minőség, és a VRAM sem számít, hacsak nem rossz a program, amit használsz, mert ilyen is van. De ezért kínál gyári cuccot az AMD és az NVIDIA is, mert azok biztosan jók. Az egyetlen valós különbség, hogy másképp lassulnak a gyártók hardverjei, de ez is a PCI Express miatt van. És itt egyébként biztosan befigyel, hogy az 5.0 jobb a 4.0-nál.
-
Abu85
HÁZIGAZDA
A videós dologhoz hozzászólva: Arról van szó, hogy a felvétel maga a memória terhelésével jár. És ez ugyan nem túl nagy, de mindenképpen használja a copy motort a GPU-ban, tehát le fogja venni a teljesítményt ahhoz viszonyítva, mintha nem történne felvétel. Ezért történik meg akármilyen hardveren a sebességvesztés. Ennek a nagysága pedig attól függ, hogy a hardver copy motorja hogyan másol a PCI Express buszon, mert a rögzítés maga az adattárolón történik, tehát a képkockát ki kell menteni oda. Az pedig egy copy művelet. Átlagban nincs különbség a hardverek között, mert a copy-compute-graphics parancsok rendszerint jól ki-be tudnak jutni, de a copy parancsokat másképp kezeli az NVIDIA és másképp az AMD dizájnja. A Radeonok úgynevezett burstokban másolnak, vagyis a tartalmat szeletekben küldik át, állandó megszakítással, hogy ne foglalja le teljesen a PCI Express buszt a copy művelet. A GeForce-ok teljes másolási műveleteket hajtanak végre, vagyis addig nem tud semmi sem ki-be jutni a PCI Express buszon, amíg a copy művelet véget nem ért. Ez okozza azt, hogy a minimum teljesítmény beeshet GeForce-okon, nem magával a másolással van baj, hanem azzal, hogy amíg ez a másolás tart, addig nem kaphat parancsot a GPU, és ha nincs parancs, amit végrehajthatna, akkor a másolás végeztéig nem számol a hardver semmit. Ugyanez az oka annak, amiért a DirectStorage GPU kitömörítés átlag 10%-ot lassít a GeForce-okon, míg Radeonon lényegében semmit. Ott is a másolás lefoglalja a PCI Express buszt, és nincs megszakításra lehetőség. Csak DirectStorage-nél maga a másolás jóval nagyobb adattal megy, így ott már az átlagra is jelentős hatása van, nem csak a minimumra, mint a recording.
A videominőségnek ehhez semmi köze amúgy, a lassulásért kizárólag a copy művelet felel. A videominőség leginkább a beépített hardverelemtől függ, ami manapság egész jó mindkét oldalon. És ez alapvetően semmit sem lassít, mert egy külön célhardverről van szó. Minden lassulás a memóriamásolás miatt van, mert extra adat keletkezik, és azt mozgatni kell kifelé az adattárolóra. Emiatt a lassulás mértéke csökken, ha gyorsabb a PCI Express kapcsolat.
-
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#50172
üzenetére
Itt azért annyi van, hogy az NVIDIA és a Google okkal nem ugrott GAAFET node-ra. Egyszerűen abban a méretben, amiben ők készítik ezeket a lapkákat muszáj 3 nm-en maradni. Az AMD sokkal több chipletből dolgozik, és számukra a fő lapka mérete fizikailag sokkal kisebb, tehát nekik nem nagy gond 2 nm-re ugrani, aztán abból raknak a tokozásra többet.
Hosszabb távon viszont mindenki GAAFET-re vált, csak ehhez előbb új chiplet struktúra kell a Google-nek és az NVIDIA-nak. Emiatt jön az MI500 egy évvel az MI400 után, mert az AMD-nek már kész van az MI300 óta ez a chiplet struktúrája. Nekik elég egy picike lapkát tervezni 2 nm-re, hogy teljesen új termékkel álljanak elő.
Ezért kár egyébként, hogy az Intel nem hozta a Falcon sorozatot, mert nekik is ilyen jellegű chiplet struktúrájuk lett volna, és ugyanúgy gyorsan tudtak volna fejleszteni, mint az AMD, mert a dizájn 70%-ához hozzá sem kellett volna nyúlni. Eközben az NV és a Google nagyon lassan tud mozogni, mert nekik a dizájnjuk 0%-a hasznosítható újra. És egyébként a Falcon az Inteltől jó lett volna, mert tudvalevő, hogy az AMD-nek az EPYC stratégiáját vették hozzá mintaként, hogy ezen a piacon megtréfáljanak az éves fejlesztésekkel mindenkit, kár érte.
-
Abu85
HÁZIGAZDA
válasz
#85757078
#49952
üzenetére
A figyelmeztetés az nem tiltás. És az AMD szerint még ma is vannak eladásaik az MI 308-ból Kínában. Majd ha hivatalosan megtiltják a cégeknek, hogy ezt rendeljék, akkor nem lesznek, de egyelőre nem tiltották még meg. A H20-at viszont teljesen megtiltották, ott már nem csak figyelmeztetés van.
Ha az AMD túl nagyra nő, akkor valószínűleg ellene is tiltást fognak kiadni, de még nem tették meg. Emiatt csak a H20 van kitiltva.
Valószínű egyébként, hogy a Hygon bonyolítja a helyzetet, mert az 49%-ban kínai tulajdon, és abba az IP-t az AMD rakja bele. Tehát van egyfajta fegyver az AMD kezében, hogy ha valami kellemetlent dönt a CCP, akkor ők meg majd nem folytatják a Hygon együttműködést. Ez azért fontos, mert a kínai, házon belüli adatközpontok 100%-a Hygon fejlesztésű. A Zhaoxin versenyez még ezen a területen az x86-tal, de a KH-50000 is Hygon licenc. Az AMD-t nehezebb lesz innen kirakni, mert van a kezükben valami, amitől a kínaiak még nem búcsúznának, mert nincs mivel pótolni.
-
Abu85
HÁZIGAZDA
A kínai dolog nem ennyire egyszerű. Itt a helyzet ott kezdődött, hogy az USA engedélyt adott az NV-nek és az AMD-nek a H20 és az MI308 szállítására, ha leadják az ezek eladásából származó bevétel 15%-át. Kína viszont erre rögtön azzal reagált, hogy megtiltották a kínai cégeknek, hogy vegyenek H20-at. Ezért csökkent az NV részesedése gyakorlatilag 0%-ra. Viszont azóta kiderült, hogy a kínai döntés csak a H20-at tiltja, az MI308-ra nincs még hivatalosan ilyen tiltás. Ezt az AMD szállítja is, bár valószínűleg fel vannak rá készülve, hogy ha nagyra nőnek, akkor őket is tiltani fogják, tehát nagy fókuszt azért nem helyeznek ide. De emiatt jelenleg csak az NVIDIA szorult ki, az AMD még nem.
#49945 Busterftw : Inkább nem tud vele mit tenni, mert egy dolog az USA exportkorlátozása, és akkor eladják Szingapúrnak, ahonnan majd becsempészik, és egy másik dolog, hogy Kína tiltja, amikor már a csempészés sem opció. Szóval nem esik nekik jól, és nyilván aggódnak is miatta, de kezdeni nem tudnak vele semmit.
-
Abu85
HÁZIGAZDA
Az OOO memóriaelérés raszterben főleg az ilyen mindenre jól optimalizált játéknál jelent előnyt, mert itt működik eléggé agresszíven a streaming és a LOD-kezelés, hogy számítson, hogy az adatok megérkezhetnek a hardver számára optimális sorrendben, és nem csak a kérések sorrendjében.
Valamekkora előnyt mindenhol ad az AMD szerint az OOO memóriaelérés, de itt a mérhető előny a kérdés, és ahhoz sok memóriaelérés kell, mert akkor lesz elég sok kérés ahhoz, hogy valós problémát jelentsen a kérések nem optimális sorrendje.
-
Abu85
HÁZIGAZDA
Kifejtem jobban akkor, amit a COD-ban látunk nem igazán hardveres eltérés. Részben az, mert számít a hardver, de a motor működését nézzétek. Három dolog jellemző az újabb IW motorokra.
- nagyon shader-gyilkosok, tehát iszonyat mennyiségű compute shader van bennük, főleg a post-process oldalon
- majdnem minden objektum vagy effekt más futószalagállapotot használ, amivel együtt jár a bitangsok különálló rajzolási parancs, és a sok százezer dinamikus shader
- kolosszális mértékű a dinamikus textúra streaming és a LOD váltások számaEzek egyébként főleg abból erednek, hogy maga a motor szinte teljesen dinamikus rendergráfot használ, ami még most sem jellemző a legtöbb másik motor esetében, a többség inkább amolyan féldinamikusabb rendszer, kellő számú statikus rendergráffal, hogy valamilyen mértékben korlátozzák a PSO-váltások számát. Tehát effektíve minden motor alkalmaz már dinamikus módszert, mert sok helyre ez kell, a kérdés inkább az, hogy mely renderszakaszok futnak még statikusan, például általában a G-buffer még ilyen, stb.
Viszont a DirectX 12 API-t alapvetően a dinamikus módszerhez tervezték, tehát bátran át lehet térni erre a leképezés egyes szakaszain, és a COD újabb motorverziói ezt nagyon ki is használják. A többi motornál még nem ennyire, de az irány az egyértelműen ez. A másik "nagyon dinamikus" motor egyébként még az Ubisoft-féle Anvil, ami az új verzióiban eléggé hasonlít a COD újabb motorverzióira.
Ha ilyen irányba megy egy motor, akkor az helyből magával hozzá azt, hogy majdnem minden objektum vagy effekt más futószalagállapotot használ, tehát megnő a PSO-váltások száma, a rajzolási parancsokat érdemesebb különállóan kezelni, stb. Ez a hardver tekintetében nem akkora gond, de a szoftver tekintetében már az lehet. Ugyanis minél inkább erre megy egy motor, annál inkább meghatározza a teljesítményt az, hogy a shadereket hogyan fordítja a driver fordítója, hogy a kódvalidálás mennyire gyors, hogy a rajzolási parancsok összességében mennyi DWORD-öt emésztenek fel, hogy az egyes parancsok betöltése mennyire blokkolja a GPU és a CPU feldolgozását, stb. Na most ebből a szempontból az AMD meghajtója eléggé egy versenyautó, egy csomó dolgot nagyon furán csinál a DX12 és a Vulkan alapimplementációját biztosító PAL réteg, ami nagymértékben javítja a teljesítményt, miközben elvben kevésbé biztonságos, de látszólag senkit sem érdekel, mert a programok így is futnak, miközben baromira gyors a driver, és átmegy a hitelesítési teszteken, tehát a Microsoft és a Khronos szerint valid eredményt biztosít. Az NV meghajtója valamiért túlbiztosított, ami azt eredményezi, hogy bizonyos helyzetekben egy banyatankos nagymama sebességével működik, de a programokat futtatja. És a legtöbb esetben ez jó, mert a tesztek úgyis 9800X3D-vel mennek, tehát a banyatankos nagyi tempó is eléggé el lesz fedve, mert kegyetlenül gyors a tesztproci. Csak ez nem minden játékban lesz igaz, mert a COD-ok és az AC-k már 9800X3D-vel is limitesek lehetnek. De ha az AMD kiadna mondjuk egy 9800X3D-nél kétszer gyorsabb procit, akkor ugyanaz lenne a COD-ok és az AC-k alatt is az erősorrend, mint a többi játékban, mert a kétszer gyorsabb szálszintű teljesítmény jobban fekszik a banyatankos nagyinak.
Egyébként ez az oka annak is, amiért a Microsoft-féle Advanced Shader Delivery kapcsán az AMD-nek és az Intelnek már tesztdriverük is van, míg az NV még csak azt jelentette be, hogy támogatni szeretnék majd valamikor. Az Advanced Shader Delivery pont arrafelé terelné a fejlesztőket, hogy nyugodtan menjenek a PSO-váltások növelése felé, az Advanced Shader Delivery megoldja az akadások gondját. Az NV tehát előbb-utóbb rákényszerül a banyatankos nagyijuk versenyautóra cserélésére, és valószínűleg már dolgoznak is rajta. Vagy ha még nem, akkor az Advanced Shader Delivery mindenképpen jelzés, hogy ezt nem tudják elkerülni, szóval el kell kezdeniük visszarakni a programozóikat az AI-ról a játékosoknak szánt driver fejlesztésére.Az RDNA 4 némi előnye pedig pusztán az OOO memóriaelérésből származik. Ez inkább COD-specifikus, mint általános dolog, ugyanis a COD-ok nagyon agresszíven streamelnek. Nagyon sok LOD szintet használnak, sok váltással, hogy gyors legyen a sebesség, ez különösen igaz a BO7-re. Persze ezt le kell tervezni, szóval nyilván a fejlesztés oldalon szopcsi, de megcsinálják, így senkit nem izgat, hogy erre mennyi erőforrást költöttek. Részben innen származik a sok PSO-váltásuk is. Na most a dinamikus textúra streaming és a LOD váltások ilyen mértékű száma mellett már masszív előnye lehet annak, hogy az RDNA 4-nek a memóriaeléréseket nem szükséges sorrendben végrehajtania. Erre a többi GPU nem képes, ezeknél a hardver alapvető működése múlik azon, hogy az adatok a kérés sorrendjében fussanak be, és az egyes wave-ek feldolgozása is csak ebben a sorrendben lehetséges.
-
Abu85
HÁZIGAZDA
És ezeknek nagyon egyszerű oka van, amikor a root signature-be kötik be az erőforrásokat, akkor azok nem megbonthatók, tehát az AMD kénytelen nagyobb csomagokat készíteni, ami így erősebben terheli a saját koncepciójukat. De a játékok 99%-a nem ilyen, már csak azért sem, mert a root signature-be való bekötést, maga a Microsoft nem ajánlja. Például az Atomfallt külön emiatt módosították, mert instabil működést okozott, hogy nem úgy használta a DirectX 12-t, ahogy azt előírta az API tervezője.
De valóban igaz, hogy ha nem úgy használod a DirectX 12-t, ahogy a Microsoft előírja, az a pár játék, az valóban jobb az NV és az Intel driverével, mert az AMD drivere a DirectX 12 játékok 99%-ára van tervezve.
-
Abu85
HÁZIGAZDA
Annyit hozzátennék, hogy az egyes gyártók között az egységes API-k mellett is nagyon eltérő a Vulkan és a DirectX 12 implementációja. Sőt, az AMD-nél nincs is külön implementáció, egy közös PAL rétegen keresztül kezelik mindkét API-t, és csak a különbségeket menedzselik az ICD réteggel.
A lényeg az, hogy részben hardveres sajátosságok miatt más az egyes erőforrások kezelésének és menedzselésének menete, ami nagyon röviden így néz ki:
Az NVIDIA még az explicit API-knál is erőteljesen épít egy úgynevezett push bufferre, ami azt a célt szolgálja, hogy a lehető legtöbb metaadattal lássák el a hardvert, miközben ritkítják a futószalagok kiürítésének számát. Ennek az ára a nagy memóriaigénye, illetve a CPU oldalán több munkára van szükség, hogy a driver push bufferét megfelelően menedzseljék. A bekötés tekintetében pedig az NVIDIA előre gyorsítótárazza a leírótáblát, és utána ezt csak szükség esetén módosítja. Ez megint több memóriát és CPU-időt eszik, viszont az állapotváltások minimalizálhatók, amire eleve haknis az a fajta működés, ahogy az NV drivere feldolgozza az adatokat.
Az Intel sok tekintetben épít a CPU-ra. Amit csak tud a CPU állít össze, és a GPU-nak elég csak beolvasnia. Nagyon sok munkát megspórol így maga a GPU, mert kész futtatandó assemblyket kap a CPU-tól. De mivel ez így működik, nehéz batch-elni, és egy rakás dekódolási munkával jár már a CPU oldalán, hogy a GPU dekódolási munkája megelőzhető legyen, ami nagyobb többletterhelést ad.
Az AMD épít a legkevésbé a CPU-ra, mert maga a PAL úgynevezett leírócsomagokat dolgoz fel. Ez nincs külön kezelve az API-kban, de maga a Mantle eleve olyan jellegű feldolgozással készült, amilyen jellegű nagyvonalakban a DirectX 12 és a Vulkan, és emiatt a két szabványos API-ba is beletervezték az egyes erőforrások feloszthatóságát. Mondhatni ez egy Mantle örökség, amit a Microsoft nem vett ki a prototípus kódból, és a Khronos is továbbvitt, hogy a hardver számára optimalizálható legyen a valós feldolgozás, miközben az API maga a finom részleteket elmaszkolja. Az AMD drivere tehát majdnem mindent ilyen leírócsomagokban kezel, és ezek a csomagok elképesztően picik, miközben teljesen függetlenek egymástól, tehát nem számít, hogy esetleg két csomag nagyobb műveletet bont meg, azokat a hardver össze tudja rakni belül, ha a két csomag megérkezik számára. A drivernek csak azt kell menedzselnie, hogy a két csomag egymás után fusson be. Mivel így minden munkamenet nagyon picire van szabva, a processzoridő is elég kevés lesz velük. Ráaádsul a sok eltérő csomag miatt nagyon párhuzamosítható az egész, szépen lehet osztani a munkát 4-5-20-30 magra. Utóbbi a kulcs az AMD-nél, mert nem azért olyan hatékony a drivere, mert valami elképesztően szűkre van szabva a munka. Ők is használják a CPU-t rendesen, csak nagyon párhuzamosítva, hogy a kis csomagok feldolgozása jól menedzselhető legyen, jól be lehessen illeszteni ezeket a meglévő magok szabad kapacitására.
A fenti különbség felel azért, amit láthatunk a tesztekben, ha gyengébb CPU mellé kerülnek a hardverek. Például egy tipikus hatmagos CPU egyik nagy hátránya az, hogy mindenképpen lesz egy-két mag, ami jobban lesz terhelve. Ez nagyon tipikus a többszálú feldolgozáskor. És a program terehelése mellett még az NV és az Intel drivere is főleg egy-két magot terhel, mert nagyobb munkákat csinálnak meg. Az AMD előnye itt onnan ered, hogy a driverük nem terhel be nagyon egy-két magot, hanem szépen szétosztja a munkát az összes mag között. És ezért lehet látni azt például a HUB overhead tesztjeiben is, hogy mennyivel jobban bánik a CPU-idővel, mert gyengébb CPU-val sem jön erőteljesebb CPU-limit.
-
Abu85
HÁZIGAZDA
válasz
huskydog17
#49856
üzenetére
Te tényleg nem tudsz olvasni? Nézd már meg, hogy mit írtam.
Az Intel csinált egy alternatív stratégiát a különböző, GPU-nak küldött csomagok kezelésére. Ez ugyanis sokszor nagyon rossz volt az egyes API-kon. És ennek az oka részben hardveres, egészen pontosan azért mert sosem PCI Expressen való bekötésre tervezték a GPU-t, de részben szoftveres, mert amikor ezt a részét írták a drivernek, akkor sem gondoltak még arra, hogy valaha is PCI Expressen keresztül kötik be a GPU-ikat. Ez a szoftveres rész átírható, még a hardveres tervezés ellenére is, mert csak amiatt olyan amilyen, hogy eleve nem volt korlátként kezelve a PCI Express busz, mert nem is volt az IGP-knél. Most viszont van, és lehet hozzá igazodni. Ezt csinálja a driver, másképp küldi be a csomagokat, így azok szép ciklusosan lesznek feldolgozva a parancslistából. Nem nagyon fordulhat elő az a szituáció, hogy felhalmozódás történik, ami például a kapcsolódó gondok gyökere.
És azért csinálja ezt az Intel, mert a Battlefield 6 például nagyon másképp működik, mint a korábbi Battlefieldek. Erről nyilván tudtak már hónapok óta, és látható is, hogy például ez a játék még 9800X3D mellett is CPU-limites tud lenni. Ezért van az, hogy amikor előhozol egy erőteljes parancsgenerálós szituációt benne, akkor a Radeon 9070 XT bárminél több fps-t tol ki. Nem a GPU a gyorsabb minden más GPU-nál, hanem az AMD drivere dolgozza fel a rajzolási parancsokat sokkal gyorsabban. Emiatt van az, hogy ha mondjuk egy átlagosabb CPU mellé teszed a Radeon RX 9070 XT-t, teszem azt egy tipikus hatmagos Core vagy hatmagos Ryzen mellé, akkor ennél a GPU-nál nem tudsz gyorsabbat venni a piacon, ha az adott játék CPU-limitessé válik. Mert ilyenkor nem a hardver ereje a kulcs, hanem a driver hatékonysága.
A Battlefield 6 kifejezetten haknis erre, és emiatt az Intel GPU-i nem is nagyon kedvelték a bétát, de az új funkciókkal már jobban viselkednek. És lehet, hogy ezek az új funkciók most még fehérlistás, de mivel jóval gyorsabb a régi működési módnál, kellő tesztelés után ez lesz az általános mód, mert mindenhol gyorsít. Ezért mondta az Intel, hogy még csak per játék szinten működik, de nem mondták, hogy sosem fogják ezt engedélyezni általánosan.
-
Abu85
HÁZIGAZDA
És ezzel semmi gond nincs. Általában a befektetők kíváncsiak, hogy a változásért mi felelt inkább. És mivel pont egy négy éves cikluson volt a két konzol, így akkor került ezek ára új, alacsonyabb kategóriába, de nyilván az adott negyedévben jobban számított az, hogy sok Radeon RX 7000-et vettek az emberek.
Ezt félreérted. Az ember attól nem lesz hülye, hogy nem tud felbontást váltani. Egyszerűen csak nem olyan képzett felhasználó. Nagyon sokan nem képesek rá, és nyilván a piacnak a nagy része ilyen. Úgy kb. a 70-80%-a biztos. És aki erre nem képes, nyilván azt se nézi meg, hogy mit vásárol pontosan.
Nem tudom, hogy a driver hogyan lett idekeverve. Igazából az NV-nek volt vele problémája, de leginkább azért, mert egy nagyon-nagy váltás előtt voltak, és túlságosan sok hardvert szolgáltak ki egy csomagból. Egy ponton túl ez nyilván hátrányos, főleg úgy, hogy az NV még az egyes API-k implementációját sem költséghatékony módon oldja meg. Ez sok tesztidőt, sok erőforrást és sok pénzt igényel. Ha nem rakod mögé ezeket, akkor belefuthatsz olyanba, amibe az NV belefutott. De pár hónap alatt korrigálták a hibák nagy részét.
-
Abu85
HÁZIGAZDA
Nem az számít, hogy mióta vannak piacon a konzolok, hanem az, hogy mióta szállítják a partnereknek a lapkákat. Egy ideje tudható, hogy az AMD két éves ciklusokban korrigálja az árat. Tehát van a kezdeti ár, majd két év múlva csökken, majd megint két év múlva, és így tovább. És az első lapka leszállításától számítva mérik a két évet.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Arc Raiders
- Luck Dragon: Asszociációs játék. :)
- Mibe tegyem a megtakarításaimat?
- Milyen billentyűzetet vegyek?
- Elemlámpa, zseblámpa
- Autós topik
- Pura color: színkavalkádba bújt a Huawei legjobb kameratelefonja
- Xiaomi 13 - felnőni nehéz
- Új IP, erős rajt: a Pragmata hétvégére már 1 milliónál járt
- Tesla topik
- További aktív témák...
- Thermalright Aqua Elite 360 V3
- PlayStation 5 FAT DIGITAL + kontroller 6 hó garancia, számlával!
- Lenovo ThinkPad T14S Gen1 Ryzen5 4650U Refurbished - Garancia
- Azonnali készpénzes Sony Playstation 4 Slim / PS4 Pro felvásárlás személyesen/csomagküldéssel
- AKCIÓ! HP Elitedesk 800 G2 SFF brand - i7 6700 16GB DDR4 250GB SSD 500GB HDD GTX 1050Ti 4GB W10
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest


