Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Cifu #2 üzenetére

    Olvasd el még egyszer. :)

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz paprobert #22 üzenetére

    A fejlesztő memory heapet és type-ot menedzsel, de heap-et és type-ot oda köt az AMD, ahova akar.

    #35 CsigaGyilkos : Ez biztos BIOS beállítás. Valószínűleg lesz egy Auto módja, ami felismeri, hogy Ryzen 5000-ed és Radeon 6000-ed van, így automatikusan bekapcsolja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz nyakdam #46 üzenetére

    Itt az Infinity Cache a lényeg. Annyira újszerű ez a megoldás PC-s szinten, hogy nincs igazán róla tapasztalat, hogy miképp kellene használni. Ez egy nagyon komoly kérdés még az AMD oldalán is, és az RT-nél főleg, mert ez megbonyolítja azt, hogy mit rakjanak az IC-be. Megéri-e mondjuk berakni egy játékban az egész gyorsítóstruktúrát vagy nem. Ez nem egyértelmű, de fontos kérdés per játék szintjén is, mert 20-30%-nyi teljesítmény is múlik rajta.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Beerheart #52 üzenetére

    Azért annyira nem, mint írja a cikk is, a mai játékok többségében a Smart Access nem hoz ám 5-6%-nál többet. Ez tényleg az új generációs játékokra van, ott aztán +20%-ot is összehozhat, már ma is összekapar a Forza Horizon 4-ben 10+%-ot, pedig annyira nagyon sok host koherens adatot nem is használ, noha többel dolgozik, mint a legtöbb játék.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz boxmaci #64 üzenetére

    Nem árulta el az MS, hogy van-e Infinityjük. Lehet, hogy van, lehet, hogy nincs. A Sampler Feedback Streaming másra való.

    #62 nyakdam : Driverek terén manapság eléggé a toppon vannak. Ha nem így lenne nem AMD-n fejlesztene az Epic Games, az Ubisoft, stb.

    #165 Plasticbomb : Ez a Smart Access Memory egy mikrokód szintű funkció. Egyébként a ROCm-ben valóban van hasonló, de az egy eleve teljesen más szoftverkörnyezet, ami eleve egy ilyen modern alapot kínál az OS kernel szitnjén. A WDDM-en keresztül ezt nagyságrendekkel nehezebb megoldni. És ROCm nem támogat grafikus feldolgozást, az csak egy GPGPU API, csak a szerverekbe. Asztali szinten nincs hasonló Linuxon sem, túlságosan bele kell nyúlni az OS kernelbe.

    #166 CME : Azok egységes memóriát használnak. Az még jobb, de ahhoz valós integráció kell.

    #259 Duck663 : A program az Infinity Cache-be egyelőre eléggé limitáltan szólhatna bele, de nem tudni, hogy az új GPU-nak a memóriahierarchiáját hogyan építi fel az AMD. Valószínű, hogy az Infinity Cache egy program számára láthatatlan, és ezt az AMD dolgoztatja valamilyen módon a driverből. Szimpla cache-ként, vagy rámappel egy adott címtartományú memory type-ot, stb.
    Valószínű, hogy hozzáférhetővé tehetnék a programozóknak is, de nem biztos, hogy olyan jelentős haszna lenne az elején. Ha mutatkozik igény mondjuk n+1 frame optimalizációkra, akkor biztos hozzáférhetővé teszik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Duck663 #269 üzenetére

    Az EA SEED-ből leléptek a nagy koponyák, Johan Andersson, Yuriy O'Donnell, Graham Wihlidal, Sébastien Hillaire, stb. Többségük az Epichez ment, és mivel az EA tartaléklángra csavarta az R&D-t, így az AMD is átköltözött ezekkel az emberekkel az Epichez. Alapvetően nincs bajuk az EA-vel, de csak akkor tudnak kutatás és fejlesztést csinálni egy vállalattal, ha az a vállalat akarja is. Ha nem akarják, akkor nem lehet ezt rájuk erőszakolni.

    #277 Kansas : Ez annyiszor előjön, de az AMD hónapokig reszelte ezt, és már nincs is az ismert hibák között a black screen. Ami egyébként egy elég hülye leírás, mert minden fekete képernyőt ad, ha nem működik a gép. Tehát ha van egy fekete képernyőd, akkor csak kis százalék az esélye annak, hogy az a grafikus vezérlő oldalán keletkezett. Ezernyi más oka is lehet. Ezeket ugyan lehet jelenteni, de ha nem reprodukálhatók, akkor nem a GPU oldalán kell keresni, hanem a PC más komponenseiben.

    Alapvetően a fejlesztők a stabilitás miatt dolgoznak az AMD Vulkan és D3D12 implementációival. Egyszerűen jobban működnek ezek, mint a többi gyártó implementációi. Ez hasznos egy fejlesztés korai szakaszában, mert ilyenkor egy bug jelenthet driverhibát és alkalmazás oldali problémát is, tehát az az optimális, ha a driverből a legstabilabbat használod. Később nagyon jól lehet optimalizálni más gyártók driverére, de az elején nagyon kellemetlen, ha egy driverbug miatt valami baj van a kóddal, és a saját programodban keresed ezt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Plasticbomb #298 üzenetére

    Ja az MMIO-ra gondolsz. Az valóban működik Linux alatt. A Windows WDDM-je ennél azért kötöttebb, így ott vannak bizonyos, kvázi megkerülhető limitek, de annyira nem ajánlott bizonyos határokon túllépni. A Linux DM-je azért jóval kötetlenebb, ezért is érhető el ár a ROCm is, Windows-ra csak csonka formában jön.

    A Smart Access Memory annyiban más, hogy megkerüli a WDDM-re vonatkozó limitet. Amikor ilyen módban működik a hardver, akkor berak egy host visible és coherent flag-et a teljes eszközlokális memóriára. Ennyi a trükk, ehhez persze kell bűvészkedni a mikrokódban, de az AMD-nek ez megoldható, ismerik a saját hardvereiket. Ezzel ugye másfajta eszközlokális memóriatípus nem is fog létezni az adott heapben. Igazából mindkettő használható, de Windows-on csak az utóbbi működik igazán.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz szmörlock007 #307 üzenetére

    Nem hiszem, csak nem akarnak annyira kísérletezni. Ez érthető. Az EA játékok eladásából él, és az innovatív technológiák viszik ám a pénzt, miközben egy csomó újítás be sem kerül a játékokba. Eközben kaptak ők hideget és még hidegebbet az utóbbi időben, hogy szarok a játékok. Azért valahol fel kell állítani egy prioritást, hogy erre költesz, vagy jó játékokat fejlesztesz, amik mondjuk nem annyira szépek, mint lehetnének.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz T J #392 üzenetére

    Ez nem így működik. Az RDNA1 is teljesen új volt. Az RDNA2 az ISA szintjén 99%-ban ugyanaz. A fő különbség az új operációk mellett a MALL kezelésére vonatkozó memóriamodell. Az uncore rész változott igazán.

    A GCN-ból már az RDNA1-ben sem maradt semmi az eszközszinten.

    #393 paprobert : Na igen, ezért hülyeség ezekre a GCN hibrid dolgora építeni. :) Ezt valaki elkezdte, talán a WCCFtech, de halvány lila fingjuk sincs arról, hogy miképp működik a rendszer két rendszer. Az alapvetően nem jelent semmit, hogy az ISA assembly szintű kódolása hasonló, nem teljesen azonos. A konzolokon is egy emulációval futnak a régi játékok, mert nem minden operáció van meg az RDNA-ban, de vannak helyette mások. Sajnos még így sem bináris mappelhető rá tökéletesen az új dizájnra, ami egyébként a konzoloknál direkt speciális, hogy a kompatibilitás sokkal jobb legyen. PC-n ugye ezzel nem törődnek. Eszközszinten viszont óriási a különbség, már az döbbenetesen nagy változás a GCN-hez képest, hogy az RDNA minden órajelben képes utasítást indítani egy wave-ből, míg a GCN erre négy órajelenként képes csak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz awexco #395 üzenetére

    Kérdés mit nevezünk nagynak. Azért alapvetően van előnye a 7 nm-es node-nak, hiszen mégis egy full node ugrás a 8 nm-hez képest, ami a 10 nm half-node-ja. Az más kérdés persze, hogy a chipgyártás nem csak a nanométer előtti számban dől el, mert lehet ám igencsak jól használni a Samsung 8 nm-t, és akkor relatíve jól fel lehet vele zárkózni a TSMC 7 nm-ére, de ehhez az kellene igazából, hogy az NV ne az első 8 nm-es dizájnját hozzá, és az AMD ne a harmadik generációs 7 nm-es GPU-dizájnját. Így azért az eltérések is igen jelentősek lehetnek. Azért vissza lehet nézni, hogy az AMD első 7 nm-es dizájnja milyen volt. A második generációs dizájn ahhoz képest hozott +50%-os perf/wattot, és a harmadik generáció erre még rápakolt +50%-ot. És a node ugyanaz. Ha az NV már a harmadik 8/10 nm-es Samsung dizájnját hozná, akkor sokkal jobb lehetne a termék. Csak a Turinggal ők is a kényelmes 12 nm-es half-node-ot választották. Minden döntésnek vannak pozitív és negatív hatásai. Anno jó ötletnek tűnt maradni 12 nm-en, és később váltani. Most már azért lehet, hogy másképp döntenének, mert a Turing előnyben maradt volna 10 nm-es Samsung node-on is, és most az Ampere a tapasztalatokra alapozva jobb lehetne.

    Ez az egész valahol egy marha nagy pech. A korábbi 12 nm-es választás előnyei akkor csapódtak le az NV oldalán, amikor azokra nem volt igazán szükség, míg a hátrányai most éreztetik a hatásukat, amikor viszont pont szükség lenne a tapasztalatra. Ezt amúgy rá lehet húzni a vezetőségre, hogy anno hibásan döntöttek, csak minek... a helyzeten nem változtat.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz awexco #400 üzenetére

    Ezek már hosszabb távú döntések. Az egyik tényező, ami miatt a Lisa-féle execution olyan hatékonyan működik, hogy nem akarnak mindent egy generáción belül. Pusztán a kiszámítható kockázatokat vállalják fel, és így részletekben oldják meg a kitűzött célokat. Ennek az előnye, hogy maga a tervek végrehajtása lesz brutálisan erős, mert alapvetően a célok relatíve minimálisak, azok jó mérnöki teljesítménnyel simán hozhatók, és onnantól kezdve a csapat léphet egy lépcsőt, és koncentrálhat a következő dizájnra.
    Ez annyiban különbözik az Intel-féle és az NV-féle modelltől, hogy ha valami nem jön össze, akkor az AMD nem törődik tovább vele. Nyom egy "next, please-t". Láthatod, hogy az Intel például még most is mennyi erőforrást fektet a 14 nm-es fejlesztésekbe. Alapvetően semmi, de semmi értelme, viszont mégis mérnöki kapacitást áldoznak rá, amit a jövőbeli 10 és 7 nm-es projektekről vonnak el. Tehát minden új 14 nm-es lapka hónapokkal csúsztatja a modern node-on készülő projekteket. Az NV is reszeli tovább az Ampere-t, minthogy elengednék, mert ilyenkor jobb elengedni. Hamarabb lehet hozni a next-gent.

    Azt mondták, hogy nem olyan lesz, mint a 30 RTX. Aztán majd kiderül.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #406 üzenetére

    Mert erőforrást pazarolnak csak. Most ez a GA103 arra jó, hogy a következő generáció később jöhessen. El kell vonni a mérnököket, mert van egy extra chip, amit le kell tervezni. Lényegi változást valószínűleg nem hoz, de jó eséllyel legalább egy negyedévvel csúsztatja majd a next-gent az átcsoportosított mérnöki kapacitás. Amiből esetleg lehet fél vagy háromnegyed éves csúszás is, és miért? Egy köztes lapkáért, aminek a jelentősége megkérdőjelezhető. Ugyanezt csinálhatta volna az AMD is a Navi 10-nél. Összedobnak egy 60 CU-s verziót, ami változást nem hoz, mert a valós haszna megkérdőjelezhető, de abból a mérnöki kapacitásból kellett volna elvonni, ami a Navi 2x-en dolgozott, tehát most nem lenne Navi 21, hanem majd valamikor jövő tavaszra vagy nyárra érkezne. Megérte volna? Nem.
    A mostani lapkákat lehet picit finomhangolni, azok kész vannak és olcsó is az ilyen beavatkozás, de új GPU-nak nincs valós előnye.

    Behozhatta volna az AMD az Apple-nek tervezett HBM-es Navi-t is, de arra sem szántak mérnöki kapacitást. Nem érdemes reszelgetni +10-20%-nyi perf/wattért, mert csak a next-gen megjelenését csúsztatod vele, miközben valós áttörést nem érsz el a piacon. A procikon látszik, hogy Lisának ezzel a felfogásával mennyire igaza van. Amíg az Intel reszelgeti a 14 nm-es fejlesztéseket, addig minden 10 és 7 nm-es projekt csúszik, miközben az AMD ráhagyja, sikerült ahogy sikerült, és inkább másfél éves távokon belül kidobnak egy nagy generációváltást. Amíg az Intel vezetősége nem jön rá arra, hogy felesleges valós piaci előnyt nem biztosító platformokat évente frissíteni, addig vesztes helyzetben vannak, és nem lenne jó, ha az NV is beleesne ugyanebbe.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #414 üzenetére

    Az épp elég nagy probléma nekik, hogy az AMD kihozta ~döntetlenre az állást alacsonyabb áron, alacsonyabb fogyasztással. Eközben az Ampere VGA-kat különböző okok miatt nem tudják normálisan tömeggyártani. És a bőrkabis biztosan nézte a rokont, ott nem véletlenül dobták be az előadásba az RDNA 3-at, amit a 2022-vel végződő vonal végére raktak.

    Azon az NV tuti elgondolkodik, hogy ha ezek tényleg kihozzák 2021 végén, esetleg 2022 elején az RDNA 3-at, akkor nem biztos, hogy megéri most küzdeni. Azt ők is látják, hogy a Lisa alatt nem nagyon csúsznak a projektek. Így azért kétszer is meggondolandó a next-genről elvonni az erőforrást, mert mire el tudnak készíteni egy igazán jónak mondható Ampere ráncfelvarrás, addigra belefutnak az RDNA 3-ba.
    Én az NV helyében az egész Ampere fejlesztési vonalat lelőném a fenébe (a kis GPU-kat persze be kell fejezni, de javítgatni felesleges), és mindenkit átraknék a next-genre. A legjobb védekezés most a támadás.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák