-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
szmörlock007
aktív tag
Nem beleszállva a vitába, az tény, hogy azért van amikor a raszteres effektet direkt nem dolgozzák ki, vagy mert így nagyobb különbség látszik, vagy mert minek tegyünk bele pénzt, ott az RT verzió ha valakinek éles szeme van. Plusz a konzolok miatt nem hiszem, hogy olyan nagyon sokan optimalizálnak RT-t a PC-s kiadásokhoz külön csak azért, hogy kihasználják a legújabb kártyákat, igazából csak a gyártóval szerződött játékok többnyire.
"RTX 3060 ra kell még mindig optimalizálniuk az RT effekteket egy játékban"
Személy szerint azt meg nem tartom rossznak, hogy rtx 3060-ra optimalizálnak, és nem rtx 4090-re -
Abu85
HÁZIGAZDA
Én az RT-nek minden általam játszott játékban láttam hasznát, csak tudni kell hol keresni. A Dirt 5-ben az autón, míg az FC6-ban látványos előnye volt azoknál az árnyékoknál, ahol a fény egy lyukas hálón ment át. Nyilván itt a hagyományos raszterizálás jellemzően elhasal, de ez nem újdonság. Ugyanúgy baj volt RT nélkül az FC 6-ban ott, amikor valami képen nem látható dolgot kellene volna visszatükrözni. De ez sem új dolog. Tulajdonképpen ezekért van az RT, ahol a raszterizálás kevés, mert technikailag nem rendelkezik elég információval a megfelelő minőség megjelenítéséhez, ott kell bevetni az RT effekteket. Nyilván egy SSR rendelkezik elég információval a képkockán látható objektumok visszatükrözéséhez, tehát ott lényegi haszna az RT-nek nincs, sőt, maga az SSR is ray tracing, csak másmilyen.
Ami szerintem hülyeség, hogy az RT effekt látványos hatása érdekében az SSR minőségét visszafogja egy stúdió, hogy ne legyen jó a megjelenítés RT nélkül. Ez faszság, az ipar elkurvulása. Mert az RT nem arra ideális, hogy kiváltsa a korábbi eljárásokat, hanem kiegészítse azok gyengeségeit. Így lesz két eljárás erőssége összevonva. Ezért csinálta nagyon jól az Ubisoft azt, hogy az FC6-ban hibrid megoldásokat alkalmazott, mert pont ott segített a grafikai minőségen, ahol a hagyományos eljárások elhasalnak, és ez az, ahova az RT-t terveztük. Csinálja azt a munkát, amit raszterizálással nem tudnánk megvalósítani. Ne olyan munkát csináljon tízszer drágábban, amit raszterizálással is tudunk hozni legalább olyan jó minőségben.
-
Callisto
őstag
Nem értesz semmit, de ezt megszoktuk. Fel tudod fogni, hogy az SSR-rel nem foglalkoznak azért, hogy az RT-t nyomassák attól függetlenül, hogy vannak olyan effekteket amikhez valóban jelentősen tud az RT hozzáadni az SSR-hez képest.. Nem az első ilyen fajta megmozdulás lenne ez a játékok terén. Azt írtad marketingben dolgozol. Hát nem úgy néz ki.
-
Abu85
HÁZIGAZDA
De még mindig az a kérdés, hogy szerinted miért hiba az a Gotham Knights fejlesztőinek részéről, hogy az RT nélküli minőséget is maximálisra tervezték, vagyis nem korlátozták az SSR-t? Az, hogy pár játék korlátozza ezt, hogy az RT-nél láthass valami különbséget az oké, de miért bántunk egy olyan stúdiót, amely nem él ilyen piszkos módszerekkel? Nem az lenne a normális, hogy RT-vel és RT nélkül is megkapd a lehető legjobb minőséget, aztán eldöntöd, hogy szükséges van-e az RT-re vagy nincs?
Annyira elkurvultak pára az iparban, hogy sok felhasználó szerint már az a normális, ha vissza van véve az RT nélküli grafikai minőség, mert úgy látszik az RT reflection hatása. Persze, hogy látszik, ha szándékosan szarabb az RT nélküli SSR effekt. És akkor jön a Gotham Knights, ahol a fejlesztőket azért ostorozzák, hogy az RT reflectionnek alig van látható hatása, mert az SSR minőségét nem korlátozták szándékosan le. Ugyan már.
Az, hogy ennek vannak akik örülnek jelzi, hogy a PC gaming közösség nagyon félre van vezetve.
-
Abu85
HÁZIGAZDA
A Gotham Knights-nak köze sincs az AMD-hez. Sosem volt. Az Intel és az NV támogatta.
Igazából most azért kardoskodtok, hogy az RT effekt miatt legyen visszavéve az SSR minősége, hogy látszódjon különbség. A Gotham Knights fejlesztői erre nem voltak hajlandók, ellentétben mással, khmm... Cyberpunk 2077. Ezért érdekelne, hogy mit nyer a felhasználó azzal, ha egy fejlesztő úgy dönt, hogy mesterségesen csökkenti az SSR minőségét? Szerintem semmit, mert csak korlátozzák az RT nélküli minőséget. Viszont ha nem korlátozzák ezt, akkor meg alig látható az RT reflection látványelőnye.
És akkor még egyszer. Véleményem szerint a Gotham Knights fejlesztői döntenek jól akkor, amikor az RT nélküli minőségnél nem élnek korlátozással, az RT meg tudja azt, amit... kell vagy nem alapon bekapcsolhatja a user.
-
Petykemano
veterán
> Szerintem a hibrid gyártó AIB partnerek zöme ugyan ezt a hűtőt fogja hazsnálni a 7900XTX hez, mint az Ada-hoz nem lesz külön kisebb hűtő gyártva.
A 6950X-hez képest csak 11mm-rel hosszabb.
Én nem zárnám ki, hogy azt is fogják tudni hasznosítani. Még a lapkák méretének különbsége is csak kb 11mm2? -
2xar
tag
Nem vagyok erős németből. De ha jól értem akkor manuális OC-val érték el a 8%-ot az alaphoz képest, azaz a 3Ghz-es órajelet. Ami pontosan ugyanaz, mint amit a TPU ért el kb. az összes kártyával, beleértve az FE-t.
A fogyasztást meg nem mérték, hanem a szoftver által becsült érték.#58452 fatal`:
Talán visszaolvashatnál kicsit, mielőtt itt értetlenkedsz. A write-only mód nem méltó egy "félisten"-hez.
Segítek: a 450-600W-ra felhúzott über-7900XTX-ekről volt szó.
Pár hsz-szel fennebb írtam hogy a ref és hasonló kártyák sztem 500-600k körül lesznek, az 1 milliós 4090-hez képest. -
2xar
tag
Nem gondolom, hanem tudjuk.
500W-ból is csak 2-3%-ot tudnak kihozni a 4090 FE-hez képest az AIB OC verziók.
Egyébként manuális tuninggal pedig 600W-ból ki lehet hozni még további 4%-ot, pont ugyanazt, mint a gyári FE-ből.Ha egy 350W-os kártyát húznak fel az AIB gyártók 450-600W-ra, az ehhez való VRM, hűtés stb. költségével, akkor jó eséllyel ezt nem 3%-ért fogják tenni. Ha mégis, akkor az csupán parasztvakítás lesz. A kártyák ára mindenképp a 4090 (FE)-t fogja súrolni. Ha a teljesítményük nem, akkor hülye lesz aki megveszi őket. Akkor ref 7900XTX-et kell venni és kész.
-
szmörlock007
aktív tag
Igen, nekem a Sapphire Nitro széria szokott még kegyetlenül tetszeni kinézetben, no meg persze Sapphire az egyik legjobb a Radeon vonalon, de Powercolor is nagyon jó volt a 6000-es sorozatnál ahogy hallottam.
Devid_81
Igen, azt hiszem többen AIO-ra tippelnek amit mondjuk sajnálnék mert nagyon menő ez a dizájn pedig -
szmörlock007
aktív tag
-
2xar
tag
Kicsit azért sztem alálőtted azt.
1. A 4090-es nem csak a chip miatt drágább. Az egész BOM több, nagyobb, drágább alkatrészt tartalmaz. Pl. már csak a nagyobb fogyasztás miatt is drágább VRM, nyák, hűtőborda (látványosan óriási hűtők vannak rajtuk, drága réz + alumínium anyagokból), ventilátor van rajta. Az egyedi 12 tűs tápcsati is sokkal drágább, mint a szabványos 8 tűsből akár 2-3db, ami az AMD-kre kell. Drágább RAM van rajta (GDDR6X vs sima GDDR6) stb.
Láttad mekkora dobozokban árulják a 4090-et? Egy konténer utaztatása Kínából Európába pl. $15-20k-ra felment a COVID alatt, nem tudom most épp hol állnak az árak. De ha fele-negyed annyi fér egy konténerbe mint egy másik VGA-ból, akkor a szállítási költség is 2-4-szerese lesz. Nyilván azért csinálják mert azt gondolják hogy a nagyobb doboz annyival jobb marketing, hogy ez a nagyobb eladásokon keresztül megtérül nekik. Amiben valszeg igazuk is van, ennek a nézettsége alapján. De ettől még a költségeket mindenképp növeli.
2. A gyártási/forgalmazási láncolatban mindenki százalékosan számol díjakat/árrést. Ha csak a chip kerülne többe $200-al és semmi más, az a végfelhasználó áron akkor is minimum $300-$350-t dobna. Úgy, hogy közben az Nv egy centtel se keresne többet a kártyán, mint amennyit az AMD a $200-al olcsóbb chip-pel ellátott és $300-al olcsóbb kártyáján keres.
Összességében tehát, a chipek ára, valamint a fenti két pont alapján szvsz a 4090-et minimum 1,6-1,8-szor akkora költség gyártani/ a vevőkhöz juttatni, mint 7900XTX-et. De a 2x-en se lepődnék meg.
A példa kedvéért:
7900XTX: MSRP $1000 - összköltség $500 = $500 haszon az AMD-nek.
4090: MSRP $1200 - összköltség $900 (1,8*$500) = $300 haszon az Nv-nek.Ha viszont:
4090: MSRP $1600 - $900 = $700 haszon az Nv-nek.Bár Abu szerint a különbség jóval nagyobb: $630 vs $1340. Ha ez igaz, akkor a 4090 $1200-ért már BŐVEN veszteséges lenne.
-
Petykemano
veterán
Az AMD 5 éve folytatja az underpromise-overdeliver elv alapján a marketinget. Nem volna bölcs dolog visszafordulni. Lehet, hogy az 1.5 és 1.7 a Legjobb értékek voltak, de azt azért remélem, hogy ezek nem kivételesen jó értékek.
A HWBU tweetjét én úgy értelmeztem, hogy azt nem tesztre alapozták, hanem Frank Azor nyilatkozatának karikatúrája.
A táblázatot én is láttam. Azért nem linkeltem,.mert Fájóan hiányzik mellőle a BOM lista.
Ha igaz, amit írt abu, hogy 7x szorzóval $2-3000 a N6 és $12-20000 az N5, akkor a paraméterek felfelé való egyezése ellenére lehetséges, hogy előállítási árban valóban a inkább a 4080-nal versenyképes. -
HSM
félisten
Mondjuk itt a csipméret annyiból erősen félrevezető, hogy míg az AD102-nél az óriási, 608mm2-es méret egy monolitikus, drága eljáráson akkora, addig a Navi31 esetén csak a 300mm2-es GCD, ami komoly költség, a mellé rakott 6db, fejenként 37mm2-es MCD egyfelől a végletekig bejáratott és a rendelkezésre álló információk alapján lényegesen olcsóbb 6nm-en gyártódik, vélhetőleg arcpirítóan magas kihozatallal. Nem lennék meglepődve, ha olcsóbb lenne előállítani még a 378mm2-es AD103-nál is a Navi31-es GPU-csomagot. Persze, a körítés már lehet olcsóbb az AD103-hoz a 256bit miatt.
-
#36531588
törölt tag
-
Petykemano
veterán
Hát... ez is kicsit olyan kényelmes magyarázat, mint a Frank Azor mondása, hogy a 7900XTX a 4080 versenytársa.
Egyébként Megmagyarázná azt a kissé lehangolt, mások szerint erőtlen előadást, amit láttunk.és hogy miért szerepelt a 7950XTX3D a lábjegyzetben.
A jó hír az, hogy egy respinre talán nem kell várni egy évet.
Az is jó hír, hogy ha a navi32 tényleg hozza a remélt frekvenciát, akkor nem kizárt, hogy az (is) a 4080 körül fog forogni. Abu elmondása szerint ugye a 7900XTX alulról nyalogatja a 4090-et és a 4080-nál az RT-t kivéve 'minden szempontból nyer - még így is.Az a nagy kérdés, hogy vajon a 7900XTX-et oda árazták, ahová való, vagy oda, ahová szerették volna úgy is, ha sikerül pariba hozni a 4090-nel?
Hogyan tervezik bevezetni a respin terméket?
Az lesz majd a 7950XTX? És afölé jön a 7950XTX3D?
(Kicsit kezdene nevetségessé válni a nevezéktan) -
szmörlock007
aktív tag
Igen, egyetértek. 1000 dollárért az rx 7900 xtx szerintem kiváló vétel. Még akkor is nagyon versenyképes lesz, ha az rtx 4080 árát leviszik szintén 1000 dollárra. Én azért megvárnám a teszteket, mielőtt itt sokan lesajnálják ezt a kártyát, arról nem is beszélve, hogy elvileg lazán bírnia kéne a 3Ghz+ órajelet is (nyilván megemelt fogyasztással persze), és a ref kártya az 2.5Ghz-n lett mérve, ahhoz képest a 3Ghz az +20% ami jelentős különbség. Tehát az rtx 4080/4090-re tervezett hűtőkkel sok gyorsulás van még benne ha minden igaz.
-
Jacek
veterán
-
Petykemano
veterán
Értem.
Nekem elsőre nem volt ilyen érzésem. Valószínűleg azért, mert az Nvidia az áremeléseivel tulajdonképpen megágyaz annak, hogy az AMD csöndben kövesse.Most hallgattam meg Coreteks videóját, aki elég negatívan értékelte. Szerinte az, hogy csak 1GCD van, elszalasztott lehetőség az elsőség átvételére. Viszont épphogy nem hozza azt a skálázódásI lehetőséget, amit a Zen. Így a chipletezés előnye legfeljebb az árban és az egységnyi N5 waferből kihozható volumenben mutatkozhat meg. Ehhez az értelmezéshez, tehát hogy az AMD költséget spórol, a bemutatott kártyák ára túl magas.
Tökre igaza van, hogy aki elkölt $1000-2000-t egy 4K/8K OLED kijelzőre, nem FSR-ral akar magas fps-t elérni és nem fog $600-t spórolni a kártyán.
Coreteks azt mondja: ennek a versenyképesnek látszó árnak azok örülnek, akik lényegesen olcsóbb árszegmensben vásárolnak.Abból a szempontból is igazad van,.hogy ha minden igaz, lesz ebből egy - vagy több - V-cache bővített változat is. Tehát míg a 6900XT valóban a Legjobb kártya volt, addig a 7900XTX csak a második, vagy esetleg harmadik lehet.
Az előző generációs nomenklatúrátnkövetve a 7900XTX-nek és 7900XT-nek rendre 7800XT-nek és 7800-Nak kellett volna lennie, miközben a Legjobb termék a v-cache által tuningolt 7900XT. (Feltételezve, hogy az tényleg hozzáad Valamit.)
És ugye a 7800XT és 7800 kártyákhoz rendelt $999 és $899 ár már nem is mutat olyan jól.
Hogy ez mennyire így van, azt Frank Azor nyilatkozata erősíti meg:
"[Radeon RX 7900 XTX] is designed to go against 4080 and we don’t have benchmarks numbers on 4080. That’s the primary reason why you didnt see any NVIDIA compares. […] $999 card is not a 4090 competitor, which costs 60% more, this is a 4080 competitor."
[link]Valóban lehúzták ugyanazt az áremelés kártyát. Ami ugyanúgy a nevezéktan csúsztatása miatt nem látszik.
-
Segitek, a semco cegek nem neveket araznak be, ha performance position-t.... sajat termek paletta es a konkurencia viszonyaban.
Ez remelem azert megvan
BTW en nem latom, hogy az uj AMD csucs magasabban nyitott volna, mint az elozo szeria.
Ha meg mar tudod a 7800-as szeria arait is, kerlek oszd meg velunk is.
-
Komplikato
veterán
GTX900, GTX1000 és firstgen RTX sorozatnál is a Titan volt a csúcskártya, ezeket váltotta le a "kilencvenes", nem? Meg oké, hogy most ezt írod, de nem biztos, hogy nem lesz "sima" 7900 is az RX7800 széria felett, így nem hulla biztos, hogy a mostani 7900XT lett volna az RX7800.
-
Petykemano
veterán
> amiben a csalodottsagot irod.
Elsőre volt némi csalódottság - a hiányzó 3ghz miatt - de szerintem túllendült a közönség ezen az első reakción és már egész pozitívan látja.
> A masik hogy AMD ezzel a 7900XTX verzioval behozta a 4090 et a sajat portfoliójába.
Ezt nem nem értem.
Úgy érted, hogy a portfóliójában van egy 4090-nel versenyképes teljesítményű kártya? -
Yany
addikt
Ezzel aki elegedetlen,az nem gondolkodik.
Bocsánat, de ezt kicsit sarkosan látod. Nem lehet, hogy csak másképpen gondolkodik? Lehet így is nézni... szakmailag. De amikor mint felhasználó nézed a számokat, akkor józan gondolkodással azt érdemes megnézni, hogy mivel jársz jobban a kapható termékek közül. Nem az előző gen. a lényeg... persze az is, amíg kapható, de felhasználóként elsősorban az a lényeg, hogy mire vágysz és mennyid van rá. Ha ezt az egyik cég jobban kiszolgálja, mint a másik, akkor azt érdemes venni, különben egy vágyálom üldözése közben becsapódó csalódottság lesz úrrá rajtad, még akkor is, ha a vágyaid ezt nem is engedik észrevenni.
Összevetni a fejlődést az előző generációval a konkurens figyelembevételének kizárásával arra jó lehet, hogy lásd, hova tart a fejlődés cégen belül és extrapoláld a jövőt. De vásárlóként miért fosztanád meg magad a szabad választástól? (már ha erről beszélhetünk egy szerintem erősen kartellgyanús szituban, ahol mindkét gyártó terméke folyton egymást kerülgeti dacára a totál különböző architektúrának és gyártástechnológiáknak, de ez már más kérdés).
-
szmörlock007
aktív tag
Nekem a következő a tippem aztán meglátjuk igaz-e. Szerintem azért se mutattak nagyon konkrét tempót, mert a referenciával rámentek arra, hogy minél kisebb fogyasztás minél kisebb kártya aztán ezt lehetett marketingelni nvidiához képest. Aztán majd a custom kártyákkal (Sapphire, meg többiek) biztos lesznek a refhez hasonlóakon kívül elengedett kártyák fogyasztásban mint az rtx 4090 és ott majd jönnek a 3Ghz körüli meg feletti órajelek, és azzal együtt egy jókora plusz teljesítmény is amivel lehet villogni csak ugye drágább hűtés+vrm miatt azok már 1200-1300$-os MSRP körül lesznek kaphatók. Aztán persze az is lehet, hogy ezt meghagyják az rx 7950xt(x)-nek amire ráküldik a vcache-t meg a plusz órajelet jövőre.
-
Spizzi
tag
Pontosan, látod nekem pedig épp ellenkezőleg, nem ér meg +500 dollárt hogy "ha kell ott legyen" valami ami sose kell. Egy autóért se fizetek azért többet +33.3*%-al hogyha majd nem lesz elég a nyomaték akkor egy Lambo után kötnek és az vontat padlógázon. Hogy miért? Mert szerintem fas*ság, hamis élmény, fake joy mint az egész nyugati világ mostanában. Persze nem ítélem el azokat akiknek ez bejön.
-
Spizzi
tag
Engem nem zavar egyáltalán, hogy mibe van meg mibe nincs, valakit nem zavar a manipulált mesterséges kép valakit igen, én az utóbbi csoporthoz tartozom mert akármennyire hihetetlen a real enhtuhiast-ök számára léteznek ilyen sehonnai bitangok. Natív teljesítményben meg sajnos nem láttam már se az előző és eddig s jelen generációban sem, hogy mi indokolja egy mindenkori Core i9 felárát mert annyival nem jobb. Amikkel pedig én játszok többnyire, indie játékok, Tarkov stb. azokban még hírből se hallottak a DLSS-ről nem hogy a 3.0-ról. Akkor az én felhasználási szokásaimat illetően mit is tud jobban az nvidia? Eladni 16 GB VRAM-ot 24 helyett ami már lehet két év múlva limites 4k ultra grafikán valami combos UE5 gamma alatt.
-
Abu85
HÁZIGAZDA
Azt a fajta chipletet az NV is tudná, amit az AMD. Az AMD megoldása ilyen hülyén fogalmazva egyfajta monolitikus chiplet, tehát maga a GPU még mindig egy nagy egész, de a memóriavezérlő és a csatornák le vannak választva. Ezt az NV is le tudná választani, egy olyan cache-rendszer kellene csak hozzá, mint az infinity Cache. Más igénye ennek a megoldásnak nincs.
A valós chiplet azért ennél nehezebb, amikor már magát a GPU-t is szeleteled, nem csak a jól levágható részeit. Azt az AMD sem tudná ma megcsinálni, mert változtatni kell a parancsszervezésen. Viszont a chipletnek alapvetően az a lényege, hogy a nem skálázódó elemeket levágd a skálázódó áramkörökről. Az IO tipikusan nem skálázódik, tehát azt megéri levágni a GPU-ról, és korábbi node-on gyártatni, mert méretben nem lesz sokkal nagyobb, és a gyártása olcsóbb. Ezt a fajta kezdetleges chiplet koncepciót az NV-nek is érdemes meggondolni, mert viszonylag egyszerűen kivitelezhető, és látványos előnyei vannak az IO levágása miatt. -
Abu85
HÁZIGAZDA
Eddig is hardveres volt, és sosem a TMU csinálta ezt. Annyira sok a buta a Twitteren, aki arra nem hajlandó, hogy elolvassa mi a fene az a bejárás, amivel nem mondana olyan orbitális marhaságokat, hogy azt a TMU csinálta eddig a Radeonokon.
#58138 Yutani : Inkább butaság, mint érdekes. A TMU sosem csinált bejárást. Soha! A TMU csak metszésvizsgálatot csinál, de ez minden architektúrán így van. A BVH mindig is hardveres volt az összes RT dizájnon. Ha nem az lenne, akkor 1-2 fps-sel futna minden. Ez a baj a Twitterrel. Minden idióta írhat oda, és sokan hozzáértés nélkül el is hiszik. Nincs olyan, hogy nem hardveres BVH bejárás, mert nem futna normálisan az RT effekt.
#58135 Petykemano : Az Infinity Fabric egy architektúra. Az összeköttetés az egyik eleme, és az egy busz gyakorlatilag. Két lapka összeköttetésére való.
-
-
-
-
Devid_81
félisten
Pedig nem igen skalazodik az utolso 100-150Wattol.
Nevezhetjuk barminek, de feleslegesen kap 450Wattot guarilag.Megint arrafele haladunk, hogy next gennel jo lesz az 5090 800Watton mert mennyi tranyo van/lesz benne.
Mindig megvan magyarazva -
szmörlock007
aktív tag
Viccet félretéve, 2021 decemberében az volt a pletyka, hogy az intelnek 2023 lesz az első igazi megmérettetése a 2. genes Battlemage-el, azt az Ada ellen tervezték versenyeztetni a felsőkategóriában, kíváncsian várom, hogy ez megvalósul-e, én szurkolok nekik. (személy szerint kedvelem Raja stílusát, bár tudom ezzel itt egyedül vagyok
)
-
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Nem tudom észrevetted-e, de alig van MSRP áron 4090. Egyszerűen nem éri meg apró haszonért dolgozni, inkább ráraknak a gyártók még 200-400 dollárt, hogy legyen pénz az eladásból. Ez nem azért van, mert köcsögök, hanem azért, mert drága előállítani, annyira, hogy szinte előállítási limiten van az MSRP. De gondolom szerinted tök nyugodtak, hiszen miért is aggódnának egy árverseny miatt, amibe bele sem tudnak menni.
-
Abu85
HÁZIGAZDA
Mármint attól, hogy kidolgoztak egy formátumot? Ez csak egy fájlformátum, mint a txt vagy a doc. Hozzák csak, jobb lesz mindenkinek, de ez a működésen nem változtat, csak segíti a jobb eredmények elérésében. Mindenki örül neki, mert hatékonyabban használhatók vele a GPU-k.
A DirectStorage pedig szabványos, mert annak készült. Ami nem szabványos az az, amit az AMD csinál a Smart Storage Access funkcióval, de az alapvetően inkább egy SSD és processzor specifikáció lesz, nem egy GPU-ra vonatkozó. Az a lényege, hogy a GPU olvashassa be az SSD-ről direkten az adatot. Ezt a szabvány szerint a DirectStorage úgy csinálja, hogy előbb a memóriába kerül az adat, a GPU pedig onnan olvassa.
-
Abu85
HÁZIGAZDA
Lófa... vagyis hát az equus péniszét. A DirectStorage API a GPU-n szabványos compute shaderrel használható. Ami a problémát okozza, hogy ez a módszer a rendszermemóriát mindenképpen használja, mert a kódolt tartalmat onnan olvassa be a GPU, amit aztán kikódol. Amin dolgoztak a gyártók, hogy ezt az extra kört kivegyék, vagyis olvassa csak be a tartalmat a GPU direkten az NVMe SSD-ről. A probléma ezzel az, hogy az NVMe SSD-t a CPU is eléri, és ha egyszerre küldenek az adattárolónak parancsot, akkor az elég durva para. Ezt az utóbbit az AMD és az Intel meg tudja oldani, mert platformot kínálnak, míg az NV-nek ehhez az AMD és az Intel segítsége kell. Ezért írtam, hogy az NV csak a megoldás felét tudja biztosítani, mert a másik felére meg kell győzniük az AMD-t és az Intelt, hogy ugyan támogassák már GeForce-specifikus peer-to-peer DMA-t. Annyit tehet esetleg az NV, hogy elkezdenek alkalmazkodni az AMD és az Intel megszakításoptimalizálásaihoz, csak közel sem biztos, hogy ezekkel jól érzi magát a GeForce. Ezért jelenleg pihen a téma, mert látni kell, hogy egyáltalán kivitelezhető-e a gyakorlatban egy driveres behackelés az AMD-féle SAS-ba, és az Intel készülő saját megoldásába, amelyek egyébként nagyon gyártóspecifikusak, tehát a SAS Ryzen+Radeont, míg az Intel technológiája Core+Arc-ot igényel. A keverés itt még nem működik.
Opcionális megoldás még, hogy a Microsoft specifikáljon egy SSD-k számára kötelezően támogatandó mechanizmus egy szabványosított peer-to-peer DMA-ra, de ez évekbe telik, noha valószínűleg, hogy elmegyünk majd ebbe az irányba. Khmm... DirectStorage 2 vagy 3... -
Abu85
HÁZIGAZDA
Az UE5 húzófícsőre a virtualizált geometria, ami homlokegyenest szembemegy azzal a ray-tracing implementációval, amit az NVIDIA erőltet. A Lumen sem AABB-ben dolgozik, hanem SDF-ben, amit nem tud gyorsítani az NVIDIA AABB-re szabott RT részegysége.
Szerinted az RTX I/O-ról miért nem hallottunk 2020. szeptembere óta? Még az NVIDIA sem említette meg az Ada bemutatásakor. A hivatalos oldalon sincs róla egy szó sem a termékoldalon. Segítek, hogy miért. Az ötlet az volt, hogy optimalizálják a peer-to-peer DMA eléréssel az SSD-k és a GPU-k közötti adatmozgatást úgy, hogy elkerülik rendszermemóriát. Ez alapvetően működik is, csak gondot jelent, hogy ilyen környezetben az NVMe eszközt a CPU és a GPU is eléri. Tehát nem elég csak úgy a GPU-ra egy peer-to-peer DMA elérést alkalmazni, hanem biztosítani kell azt is, hogy a GPU ne szakítsa meg a CPU munkafolyamatait, és persze fordítva. Itt jön a nehézség, ugyanis az NV-nek semmi ráhatása az NVMe eszközök meghajtójára. Egyszerűen a gyártók nem is foglalkoznak a GeForce-ok PCI Express implementációjával, mert soha nem kötnek rá direkten SSD-t. Tehát az NV meg tudja oldani magát a peer-to-peer DMA-t, de nem tudja megoldani, hogy a CPU és a GPU ne szakítsa meg egymás munkafolyamatait, nincs meg hozzá a platformjuk, amivel ezt kontrollálni tudnák, az AMD és az Intel pedig elküldik őket a fenébe, mert nem különösebben hasznos nekik, hogy GeForce-specifikusan peer-to-peer DMA-ra optimalizáljanak megszakításokat. Ezért nem hallani az RTX I/O-ról manapság. Az NV önállóan csak a probléma felét tudja megoldani. Az AMD és az Intel az egészet.
-
Abu85
HÁZIGAZDA
A multiprocesszorból tesz ki kétharmadot a tensor, amiben benne van az OFA is. Főleg utóbbi lett jóval dagibb, de a tensor is sokkal több tranyót igényel már mert sokkal több formátumot támogat, ami sokkal több eltérő állapot. Ezen túlmenően az L2 főleg a tensorért nőtt mag nagyon, mert tipikusan ez egy olyan művelet, ahol sok a koherencia.
Szerintem simán elképzelhető, hogy ugyanaz lesz a felállás, mint a Vega és a Pascal esetében csak fordítva. És igen, abszolút el tudom képzelni, hogy 5 év múlva az Ada lesz a jobb, ahogy egyébként a Vega is elverte 5 évvel később a Pascalt. Csak 5 év sok idő.
-
Abu85
HÁZIGAZDA
Nem én döntök arról az NVIDIA-nál, hogy a tensor kapacitása nő jobban, nem pedig a szabványos API-kkal elérhető feldolgozóké. Maga az NVIDIA is így mutatta be az RTX 40-et, hogy volt egy today's game rész, és egy tomorrow...
Ez szándékosan van így megcsinálva, mert ez lesz a fő marketingüzenet: lehet, hogy ma kikapunk, na de majd holnap...
-
Spizzi
tag
Kb. 4080 16G szint, bár ezt nehéz megmondani egy NV marketing film és egy neten talált Radeon táblázat alapján még most. Navi 31 elv. 24 GB memót kap, azt, hogy ez most az 00/50/70 közül melyikre érvényes nem tudom, de nem lennék meglepve ha csak a 70. Arányaiban kétlem, hogy olcsóbbak lesznek a konkurencia bizonyos modellével pariban lévő darabok. A show-t a 3070-3080 árban árult 3090Ti körüli kártyák fogják elvinni.
Enthusiast-oknak vagy hogy is fogalmazott az öreg sunyi ferdeszemű jobb lesz a GeForce, mint ahogy eddig is igazából az elmúlt 10 évben, legalábbis működik még mindig a Stockholm szindróma.
-
Alogonomus
őstag
1. Az AMD-nek a gaming GPU (RDNA) szegmens meglehetősen kis része, ami ráadásul erősen támaszkodik a professzionális (CDNA) és CPU szegmens kutatásaira (például a jelenlegi előny nagy részét biztosító Infinity Cache és chiplet felépítés is onnan származik). Nem a gaming kártyákkal kell visszahozniuk a fejlesztési költségeket.
Nvidia megteheti, hogy csökkenti az árazást, de az AMD gond nélkül követni tudja az árversenyben, mert sokkal alacsonyabb az RDNA 3 tényleges bekerülési költsége. Ráadásul az AMD számára sokkal kevésbé lényeges a gaming kártyákból származó bevétel, mert nem azok jelentik a céges bevételek nagy részét. AMD elvan valószínűleg 10-20% haszonnal is, ha a piaci részesedését szeretné növelni, viszont az Nvidia számára a 60% helyett 40% haszon már a céges bevételek jelentős csökkenését okozná. Persze amennyiben nem tolja háttérbe az Nvidia is a gaming kártyákat a professzionális termékekkel szemben. A bemutatón is látványosan a professzionális alkalmazási területekre fókuszált Jensen.
Az egyértelmű, hogy a boltokban és bányászoknál levő kártyák tömege határozza meg még legalább jövő nyárig a gépekbe kerülő kártyák megoszlását, és az az Nvidia számára kedvezőbb, mert AMD kártyákból boltokban is sokkal kevesebb van, bányászgépekben pedig túlnyomó többségben az RDNA 1 és azelőtti generációk kerültek, és azok közül nagyjából csak az 5700 XT lesz érdemi opció az idén érkező játékokhoz, ha nem számoljuk a "versenyzős" és "lövöldözős" játékokat.
2. Összességében biztosan van AIB, aki többet keresett az Nvidia termékvonalon, mint az AMD termékvonalon, de ez a bányászok miatt történt, mert a szélesebb memóriabusz miatt a bányászok az Nvidia kártyákat keresték.
3. PCB árakkal kapcsolatos számolást nem találtam a szövegben, pedig biztosan más komplexitású (rétegszámú) PCB kell a kb 20%-kal (450 vs. 375) magasabb fogyasztású kártyákhoz.
4. 7900 XT-ről felvételt még nem láttam, csak render tippet. Ami nagyon valószínű, hogy alapesetben valahol a 6950 XT 375 wattja környékén lesz a fogyasztása, míg a 4090 450 wattos fogyasztással érkezett. Az persze elképzelhető, hogy több AIB nem fog külön hűtést tervezni, hanem "rácsapják" a 4090-hez tervezett hűtőt, és azzal elhúzzák a 450 wattos határig plusz 10-15% teljesítményt nyerve. RDNA 2 esetén is ezt csinálták. A Sapphire, Powercolor, XFX és egyéb AMD-exkluzív AIB-k valószínűleg gyártanak külön 2,5-3 slotos hűtőt a 375 wattos szinthez is, míg a mindkét oldalra gyártók talán az eggyel kisebb Nvidia modell hűtőjét teszik majd a tuning nélküli AMD kártyákra.
Az árkülönbségen túl az is számítani fog a vásárlásnál, hogy a vásárló gépébe mekkora kártya fér bele, valamint mekkora hőmennyiséget tud kiszellőztetni a gépházból. Az ilyen kártyák már egy új szintet képviselnek, és a többi AIB kártyái is hasonló méretűnek tűnnek.
-
Petykemano
veterán
Hmmm, hát én azért nem.bántam volna, ha kiteszik legalább intervallumban a dollárban számolt költségeket.
Így annyit tudunk meg, hogy a Navi31 mintegy 15-20%-k olcsóbb lehet a 4090-től, a Navi 32 szintén mint a 4080-16GB. És a navi33 tényleg olcsó, akár 30%-kal is olcsóbb lehet, mint az Ad106. Ezek egyébként nem kevesek, bárcsak ekkora ármükönbözeteket is látnánk.
Csakhogy ugye azt nem tudjuk még, hogy ezek miképp viszonyulnak majd teljesítménben egymáshoz. És azt sem, hogy egyébként ehhez képest az Ada árak túlárazottak-e jelenleg, vagy reálisak.Tehát minden lehetőség benne van
- ha az Ada túlárazott (mondjuk 20%-kal, kipörögjön az Ampere) és valójában lényegesen olcsóbban előállítható és ma már eladható lenne ennyivel olcsóbban is és az AMD még annál is olcsóbb, miközben versenyképes, akkor abból az következik, hogy az Ada áráNak 2/3-ával is előrukkolhat.
- ha viszont az Ada nem túlárazott és az AMD amennyivel olcsóbban előállítható, annyival gyengébb is, akkor kijöhet az az árakban , hogy végülis amennyivevel olcsóbb, annyival gyengébb is.Annyi viszont kiderült, hogy felsorolt a BOM költségek közül a legsúlyosabb a lapka
-
Petykemano
veterán
az AD102 608mm2 lett Custom N4 processen.
Ehhez képest az RDNA3 N31 a maga 308 + 6x38mm2-es méretével még akkor is kicsinek mondható, ha úgy számoljuk, hogy N6-on készülő MCD-k pontosan ugyanannyi helyet foglalnának N5-ön is. Ha azt is figyelembe vesszük, hogy esetleg a GCD-n és az MCD-n is némi helyet foglal a kapcsolódás is, akkor meg aztán végképp.
Ha ezzel akár csak 10-15%-ra megközelítik a 4090-et, már az is egy csoda. Igaz, ma valaki elejtette, hogy a 2500-2600Mhz majdnem egy 1Ghz-cel alacsonyabb frekvencia, mint az AMD-nél.
Önmagában abból, hogy az AMD N5-ön gyártat, én arra tippelnék, hogy azzal nem fogják tudni megfogni a Nvidia custom processzen készülő lapkáját. Persze ki tudja, hogy a custom mire vonatkozik. Nem biztos, hogy a customizáció a frekvenciára irányul, lehet, hogy a reticle limit-re.
Mindenesetre én arra számítok, hogy a frekvencia előny figyelembevételével is a Navi31 15%-kal biztos le fog maradni az AD102-höz képest. De ha ezt ledobják mondjuk $1099-ért, akkor az egy kedvező ajánlat.
Aztán két irányt tudok elképzelni, hogy mi lehet az AMD tarsolyában:
Egyrészt az továbbra sem letisztázott, hogy a 3D stacked infinity cache mire lesz alkalmas. Nekem továbbra is az a meggyőződésem, hogy az 3D stacked infinity cache verzió az RT sebességet fogja tudni megdobni (a gamer piacon legalábbis)
Másrészről pedig szerintem majd Navi32 és Navi31 lapkákból fognak 2-t összecsomagolni. De tartok tőle, hogy ez elsőre nem sikerült és majd 2-3 negyedév múlva egy refresh után fog megvalósulni.Sokat elmond az AMD versenyképességéről, hogy az Nvidia egyetlen Ti jelzésű kártyát sem jelentett be. Hagyott magának mozgásteret reagálni az AMD produkciójára.
-
Alogonomus
őstag
Direkt nem írtam értékeket, mert nem az a lényeg, mert csak tippek. Ami biztos, hogy az AMD legalább 50 százalékkal energiahatékonyabb RDNA 3-at ígér.
Egyébként a videóban ott vannak az értékek is:
- a most ősszel érkező csúcs Lovelace alapfogyasztását 450 wattosnak jósolja, valamint a lista élére kerüléshez - dual-bios alkalmazásával - lesz 600+ wattos üzemmódja is.
- a csúcs RDNA 3 fogyasztásáról homályosabb a tipp, és valahova 350 watt környékére tippeli az alapfogyasztását, vagyis kb az RX 6950 XT szintjére.A 4 GHz nyilván túlhúzott RDNA 3-ra vonatkozik, vagyis a 600+ wattos csúcs Lovelace hűtési megoldásával elvezethetővé váló további 250 watt segítségével lehet a 70 százalékkal magasabb fogyasztásból esetleg 30 százalékkal magasabbra, vagyis 4 GHz-ig elereszteni az RDNA 3 chipet.
-
Petykemano
veterán
Én is érzek némi ellentmondtást a két információ iránya között. Hogy az AMD energiahatékonysággal kíván virítani - ha le is marad pár százalékkal, de legalább alacsony fogyasztású, egyszerű kivitelű, olcsón előállítható kártyákat fog kínálni. És hogy az AiB-ek nagyon meghajtják.
Persze ha van játéktér, az teszi lehetővé a játékot.Arról lenne szó, vajon, hogy lesznek referencia modellek, amelyekre az előbbi igaz, és az OC modellek esetén a kivitelben, teljesítményben és persze árban is nagyobb lesz majd a különbség a megszokott 2-3%-nál?
Manapság nem szokták bennehagyni a teljesítményt. Még a szaros kis lapkákat is túlhúzva adják ki, 150-180W, hogy 10-15%-kal többet érjen el, cserébe kétszeres áron rá lehessen tenni a brutál hűtőt.
Ilyesmit utoljára szerintem az Nvidia engedhetett meg magának a Pascal korszakban, amikor nagyon nagy volt az előnye.
-
-
Abu85
HÁZIGAZDA
A Pixar igényeit egyszerű kielégíteni, mert nem a realisztikus látvány a lényeg. Emiatt ők megengedhetnek sokkal kevesebb memóriával rendelkező rendszereket. A valódi Hollywoodi igények viszont nagyon realisztikus modelleket igényelnek, hogy ne tudd kiszúrni a filmben az igazi és a CGI fát.
Ehhez már nincs elég memória a gyorsítókon. Ezért is van Hollywood előnyben, mert nekik nem téma 4 TB-os memóriával rendelkező CPU-kat összerakni. Jövőre pedig kapnak olyan játékszert, amibe 12 TB-nyi tartalmat is pakolhatnak. És ők ezt nagyon ki is használják tartalomvizualizáció során, mert rengeteg munkaórát spórolnak meg azzal, hogy a modelleket nem kell 60-80 GB-os darabokra bontani.
-
Abu85
HÁZIGAZDA
Ez maximum a keleti stúdiókra igaz, ahol az ár miatt muszáj GPU-kat használniuk a feladatra. A nyugati filmstúdiók tehetősek, oszt megveszik a legtöbb magos procit több terabájt RAM-mal. Ők azért annyira nem érzik magukat korlátok között. Jövőre 12 TB-os szörnyeket tudnak építeni, míg keleten be kell férni 128 GB-ba és kész.
-
Abu85
HÁZIGAZDA
Most pont nagy korlátokat szabunk neki azzal, hogy maximum pár virtuális méterig működhet, és másodlagos sugarak nélkül. Ezért nem ad látványos különbséget. Olyan elképesztően tragikus korlátok közé van szorítva a mostani RT implementáció, hogy nyilván nem lehet vele látványos dolgokat elérni. És persze a userek sem hibáztathatók, hogy csak a sebességcsökkenést veszik észre, mert a minőségelőny az minimális.
Csak ez nem egy hardveres probléma. A jelenlegi helyzetet pusztán a programozhatóság hiány idézi elő.
Ó igen, az nagyon igaz... olyasmit szívesen látnának az emberek, csak az ugye két darab NVLINK-kel összekötött V100-on futott, mert 64 GB VRAM kell neki. Ahhoz, hogy ez fusson 10 GB környéki VRAM-mal, kell a programozhatóság.
-
Abu85
HÁZIGAZDA
Ez azt jelenti, hogy nem tudod úgy használni, hogy látványos legyen, mert túl sok olyan dolgot számolsz a mostani pipeline-nal, ami nem is látszik. Ezért tartják sokan gimmicknek.
A dinamikus LOD-hoz programozhatóság kell, amit kizár a dedikált hardver. Tehát nincs olyan, hogy mindkettő van. Vagy programozhatóság van, vagy fixfunkciós hardver a bejárásra. A kettő együtt kizárja egymást.
-
Abu85
HÁZIGAZDA
Korábban már linkeltem az Intelnek egy régebbi prezentációját, amiben kifejtik, hogy ez miért nem jó réjtrészing.
A lényege ennek annyi, hogy ahhoz hogy jó legyen nagyon-nagyon-nagyon sok GB-nyi VRAM kellene, és amíg ez nincs, addig rendkívül limitáltan tud az egész működni. Ezért sem jutott el olyan szintre a réjtrészing, hogy a usereket érdekelje. Egyszerűen keveset ad nagyon drágán. De maga az eljárás nem ilyen fos. Az aktuális implementáció teszi csak szarul alkalmazhatóvá.
Az Intel is felhozza a saját előadásában, hogy jójó, de az UE5-ben mit csinálsz? Számolsz akár 1 GB-nyi többletterheléssel AS-t? Nincs annyi memória a VGA-kon, hogy megtedd, még két év múlva sem lesz. Ezért sincs az UE5-ben alapból RT. Nincs rá elég memória, márpedig az UE5 nagymértékben épít a geometriai részletességre, és részletes geometriával a mostani RT nem tud működni.
#57765 imi123 : Lényegtelen a hardver. A programozható traversal eleve a shadereken fut. Nem kell hozzá külön részegység. Azért programozható, hogy ne is kelljen traversal unit. Szóval akármelyik RT-s hardver jó erre, csak a szoftveres háttér hiányzik.
-
Abu85
HÁZIGAZDA
Semmit. Ugyanazokat a problémákat, amiket mindenhol. Egészen rövid sugarakat, és másodlagos sugarakat alig-alig. Amíg nem lesz programozhatóság, addig ezeket nem lehet megoldani. Esetleg úgy, hogy elkezdünk 100 GB-os VRAM-okat pakolni a VGA-kra, de az overkill, akkor már igazán jobb megoldás, ha programozható lesz.
-
Abu85
HÁZIGAZDA
Az adaptív skálázás természetesen sokkal jobb, mint a dinamikus, mert figyelembe veszi a környezetet. Ezért adaptív. Alkalmazkodik a körülményekhez, míg a dinamikus erre képtelen.
Az más kérdés, hogy sokan túl bonyolultnak tartják az adaptív skálázást, ami egyébként reális is lehet, mert az AMD-nek is 8 évbe telt, mire összerakta az első ilyen rendszerét. Tehát nem egy könnyen megoldható problémáról van szó. -
Busterftw
nagyúr
"meg úgy is hogy ez azért nem túl fair dolog egy gyártótól, hogy erre nem fegyelmezteti a felhasználóit hogy csókolom az a 220 W valójában 270W és egy részletes elemző cikk kell ahhoz hogy ez kiderüljön."
Helo 2022 tevuton vagy, a PH-n ezt mar megirtak. Bar keresem ezt az elemzo cikket, nem talaltam meg meg.
-
Abu85
HÁZIGAZDA
Meg az Intelről is. Ők is külön egységgel oldják meg. Nagyon messze is vannak a versenyképességtől.
Én sem, de megvan a maga átka. És nyilván nyomós indokkal nem akar az AMD tranzisztortízmilliárdokat költeni egy olyan dologra, aminek a hatása a tesztekben nem fog látszódni.
Az Infinity Cache csak egy egyszerű victim cache. Eleinte voltak particionálási kísérletek optimalizálás gyanánt, de az AMD egy ideje egyáltalán nem ajánlja. Egyszerűen csak az a javaslat, hogy hagyják automatikusan dolgozni, ne is foglalkozzanak azzal, hogy van, tudja a dolgát magától. -
Abu85
HÁZIGAZDA
Specifikusan külön ilyen egység nem lesz benne. Egyszerűen nincs értelme egy feladatért tranzisztorok tízmilliárdjait elkölteni, amit lehet, hogy xy cím alatt be sem lehet kapcsolni. Ráadásul ezek az eljárások jó darabig gyártóspecifikusak lesznek, tehát face-to-face tesztben be sem fogják őket kapcsolni, ami azért nagy baj, mert tranzisztorok tízmilliárdjai rögtön mennek a kukába az irányadó teszteknél. És akkor jöhet a gyártó azzal, hogy nem jól tesztelsz, mert amúgy a hardver gyors.
Az RDNA 3 egyszerűen csak kap egy úgynevezett WMMA operációcsoportot. Ez ugyanaz, mint ami a CDNA architektúrákban van, azzal a különbséggel, hogy sokkal korlátozottabb a mátrixok kezelése, de ugye az RDNA csak grafikai dizájn. Ennek a módszernek az az előnye, hogy mindössze csak a dekódolót és az ütemezést kell átalakítani, külön ALU-t nem igényel, vagyis az operációk futhatnak a normál számításra használt SIMD motorokon. Ilyen formában ezért a képességért nem tízmilliárdos, hanem inkább százmilliós nagyságrendben kell tranzisztorral fizetni, így a megnyert tranyókat el lehet költeni olyan feldolgozókra, amelyeket minden program hasznosít, és amelyekre majd a tesztekben is építenek.
-
Petykemano
veterán
> Szerintem is ez 3D V-cache a Navi 31-hez kapcsolva
Nem gondolnám, hogy a 3D.vcache nagyobb mértékben növelné a teljesítményt. Lehetnek.bizonyos késleltetés érzékeny folyamatok, amiknél persze igen. Például szerintem az RT ilyen.
Ehhez képest a GCD duplázás biztosan nagy hallelúja lenne.Szóval bármennyire is szeretném, hogy az $1500-2000 példányok inkább ezek a böhöm állatok legyenek, valóban az tűnik reálisnak, hogy ha most 3D cache alapján történik a szegmentáció és lesz Radeon RX és Radeon RTX. Meg persze a PRO szoftvereknél ki tudja hol jön jól az alacsony késleltetés?
Aztán jövőre lehet egy olcsón megúszható refresh az összekapcsolt lapkákból. És akkor nem marad ki év a 2024-re ígért RDNA4-ig.
-
Alogonomus
őstag
A régóta általánosan elfogadott vélekedés, hogy az RDNA3 jelentősen energiahatékonyabb lesz, mint a Lovelace. Ezek után vagy a 7800 (non XT) már a 4080 szintjét hozza, míg a 7800 XT már a 4090, a 7900 XT pedig a 4090 Ti kihívója lesz, vagy a táblázat mond ellent a közvélekedésnek.
Az 192 bites RTX 4060 pedig szinte biztosan hiba a táblázatban, mert vagy 128 bit, vagy 12 GB a lehetséges. Fölöslegesen nem áldoznak chipterületet az egyébként is nagyon területigényes memóriavezérlőre.
-
Petykemano
veterán
A 9 lehet
- egy navi32 + 4 MCD+ 3D IC
vagy
- két navi32 + 2×3 MCD + 1 nagyrészt cache-t tartalmazó cache lapka. Ahhoz hasonlóan, ahogy a kínai BR10X is összekapcsolódik, tehát a kapcsolódás pontja az, ahol az MCD kapcsolódna, és ahol egy IC szelet is lenne. De ott egy nagyobb cache lesz ami azt a célt szolgálja, hogy bridgeljen a másik GPU lapkához tartozó adatok gyors eléréséhez. Így csökken a nyomást a másik lapka belső buszán és persze csökken a késleltetés.A 13 lapkás változat ugyanez csak navi31 lapkákkal és 2×5 MCD-vel.
Én ugyanezt a táblázatot ma egy Coreteks videoban láttam
-
szmörlock007
aktív tag
Könnyen lehet, plusz valószínűleg azzal lehet támadni a top1 gaming gpu címet is ha szükséges nekik, meg persze ha jól skálázódik.
#57700
"Az igazán ütős és piacrész szerzésre tervezhető SKU ebből a N32 ami elhagyja az úri( 3D) ficsőrőket és olcsó hatékony , gyors Kártyákat lehet majd erre építeni. Itt nem is a felső szegmens a lényeges a konkurenciával szemben , hanem ez."Elvileg a navi31 se lesz 3d-s, legalábbis a cikkben az van, hogy a sima 96 MB-os lesz az elsődleges gamingre, mert a 192 MB nem éri meg a felárat arányaiban. Szóval elvileg a navi 31 se lesz sokkal-sokkal drágább azért mint a navi 32, ugye 50%-al nagyobb a GCD meg +2 MCD van, a 3d tokozásos verziója valszeg megmarad Pro-ra, meg Refreshre, vagy ha csak 5-10% plusz hiányzik a csúcson, akkor kiadják azt megtámadva.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Béta iOS-t használók topikja
- Autós topik
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Győr és környéke adok-veszek-beszélgetek
- Milyen légkondit a lakásba?
- Építő/felújító topik
- Kerékpárosok, bringások ide!
- Luck Dragon: Asszociációs játék. :)
- Óra topik
- Honor Magic6 Pro - kör közepén számok
- További aktív témák...
- Samsung Galaxy A23 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
- Telefon felvásárlás!! Apple iPhone 16, Apple iPhone 16e, Apple iPhone 16 Plus, Apple iPhone 16 Pro
- BESZÁMÍTÁS! VALVE Steam Deck LCD 1TB SSD kézikonzol garanciával hibátlan működéssel
- Csere-Beszámítás! Gigabyte Aorus Elite RX 9070 XT 16GB Videokártya! Bemutató darab!
- ÁRGARANCIA!Épített KomPhone i5 10600KF 16/32/64GB RAM RTX 3060 12GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged