- Bivalyerős lett a Poco F6 és F6 Pro
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Samsung Galaxy Z Fold4 - egyre megy, honnan nézed
- Samsung Galaxy A54 - türelemjáték
- Xiaomi 11 Lite 5G NE (lisa)
- Megérkezett a Google Pixel 7 és 7 Pro
- Samsung Galaxy S22 és S22+ - a kis vagány meg a bátyja
- Huawei Watch 3 Pro - óraátállítás
- Érintésnélküli fizetési megoldások - PayPass via NFC
- Samsung Galaxy S23 Ultra - non plus ultra
Hirdetés
-
A hátsó raktárból érkezhet a Galaxy S24 FE főkamerája
ma A Samsung nem gondolja újra a kamerarendszert és bejáratott alapokra építkezhet.
-
Retro Kocka Kuckó 2024
lo Megint eltelt egy esztendő, ezért mögyünk retrokockulni Vásárhelyre! Gyere velünk gyereknapon!
-
Megjelenési dátumot kapott a Conscript
gp Az I. Világháborús horror játék jövő hónapban érkezik.
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
2xar
tag
Ha ezek igazak, az annyira eltérő struktúrát és működést jelent az 5700XT-hez és az RTX3000-hez képest, hogy valszeg nagyon szélsőségesen fog hullámzani a kártya teljesítménye a különböző játékokban, nem?
Lehet hogy egyes játékokban, amiknél nem működik jól a rendszer, alig fogja egy 5700XT teljesítményét hozni. Máshol meg bőven verni fogja a 3090-et is. Legalábbis régen a CF/SLI időkben ez volt. Lehet hogy ez a szorosabb kapcsolat a két GPU között csökkenteni fogja a hullámzást, de nem hiszem hogy lenne rá esély, hogy megszűntesse. Bár a CPU-knál bejött...
-
2xar
tag
Wow. Én személy szerint Abu hsz-éből az első bekezdést értettem, a másodikból kb semmit, a harmadikat pedig félig. És még valszeg Abu fejében sem állt össze, hogy valójában hogyan is fog működni ez a dolog és milyen összeredmény várható tőle.
Ezzel szemben neked, ennyi részinfóból is már teljesen összeállt a fejedben ennek az új architektúrának és felépítésnek a teljes működése és hatékonysága és következtetést tudtál levonni a rá épülő, még nem ismert specifikációjú VGA-k (SP, ROP, frekik stb) teljesítményére, amit kevésnek találsz. Nem semmi, hogy mennyire alaposan képben vagy a GPU-k architektúrájával és működésével. Valszeg a Ph-n belül páratlan tudásod van a témában.
És persze a következtetésednek semmi köze ahhoz, hogy Nv rajongó vagy
-
2xar
tag
válasz Petykemano #48378 üzenetére
Ez menő méricskélés volt, grat!
Állítólag a 256 bit-es buszt sok cache-el próbálják kompenzálni, abban bíznak hogy az jobb teljesítmény/tranzisztor arányt hoz, mint +256bit beépítése hozott volna.
Sztem ez nem fog működni, hasonló melléfogás lesz, mint a HBM volt. Durván memórialimites lesz a kártya és lehet hogy épp ezért nem fogja tudni felvenni a versenyt a 3080-al.
Ráadásul nem is tudnak feljebb lépni GDDR6X-re ha jól tudom, mert az NV only.
-
2xar
tag
válasz atok666 #48709 üzenetére
Pl. hogy "a 2070-es erősebb mint a Titan Xp". Valójában 30%-al gyengébb a 2070.
Vagy újabban azt, hogy a 3070 erősebb mint a 2080TI. Valójában a 2080(S) környékén lesz, azaz 15-20%-al lassabb.
Vagy hogy a 3090-es elhozza a 8K játékok korszakát. Azt nem tette hozzá, hogy 30FPS átlaggal...
Vagy pl. ez a slide-ja is full kamu. Kezdve pl. a Control-ban RTX-el azt állítja hogy 2,1-szer gyorsabb a 3090 mint a 2080TI. A valóság meg az hogy inkább csak 50%-al. -
2xar
tag
válasz atok666 #48720 üzenetére
Nem kell ahhoz nagyon tesztelni hogy teljesen nyilvánvaló legyen hogy a 2080TI szintje hazugság a 3070-re. Mivel architekturálisan azonos a felépítése a 3080-al, így az egyes számolóegységek arányaiból és a frekikből nagyon jól lehet következtetni a 3080-hoz viszonyított teljesítményére, innentől kezdve ez már csak matek. Mint ahogy elég pontosan megmondtuk egy páran a 3090 teljesítményét is 20 nappal ezelőtt. Idézem magamat:
"A 3080-as valóban jó ár-érték arányú és teljesítményű kártya lett, komoly előrelépés. Nem véletlen hogy a DF-nek is ezt a kártyát adták csak oda "tesztelésre".
A 3090-es ehhez képest említésre sem érdemes. Plusz 15% teljesítményért cserébe +115% ár..."Sőt talán még egy kicsit optimista is voltam, emlékszem hogy 10%-ot akartam írni a számok alapján, de én sem tudtam elhinni, hogy ennyire gyenge lesz a 3090, pedig a számok nem hazudtak. Hasonló alapon teljesen egyértelmű, hogy a 3070-es maximum a 66%-át tudja hozni a 3080-nak, mivel:
3070 vs 3080:
66% TFLOPS
66% ROP
58% memória sávszélLehet egynéhány kivétel, ahol pl a 3080 már vmilyen rendszer-limitációba fut bele, a 3070 pedig még nem, de nagy átlagban ez a max 66% várható a 3080-hoz képest. Az pedig nem a 2080TI szintje...
Ami a konzolos érvedet illeti:
1. Konzolon sem minden 30 FPS-sel megy, sőt.
2. Konzolon a 30FPS az realtíve stabil azért. A 3090 8k-ban pedig ilyen 10-12FPS-es minimumokat produkál...
3. Nem, számomra legalábbis eddig sem volt és valszeg nem is lesz gaming konzolon
4. Azt hogy a 3090 egy 8K-s kártya lenne, még Tech Jesus is hazugságnak nevezte."Biztos volt olyan is amiben rendesen tulzott, ezt nem vitatom. "
Te most viccelsz, ugye? Gyakorlatilag végighazudta
az utolsó négy évetaz összes bemutatót elejétől a végéig... De nincs ebben semmi különös, ez a "bemutogatós" dolog egy ilyen szakma.Lehet hogy Su is ezt csinálja, nem tudom, az ő bemutatóit (eddig) nem követtem. De hogy Jensen hazudik mintha fizetnék érte, az biztos. Oh wait!
(#48721) b.:
"Jósgömb? Mivel 2 féle 3070 fog érkezni valószínűleg, majd ki fog derülni mi mit tud."Jósgömb? Egyet jelentettek be.
#48722) awexco:
Tehát azt akarod mondani, hogy a TPU meghamisította a Control tesztet?[ Szerkesztve ]
-
2xar
tag
Igen, ez jogos. Vagy benéztem, vagy változtak közben az erre vonatkozó adatok, mivel első nap még nem voltak teljesen tiszták a speckók. A helyes számok tehát (az FE verziók hivatalos frekijei alapján):
3070 vs 3080
68% TFLOPS
100% Pixel Rate (ROP)
68% Textúrázás (TMU)
68% Tensor és Ray tracing
59% memória sávszélEzekből a Pixel Rate úgy tűnik hogy egyáltalán nem korlátozó tényező a 3080 számára, hiszen mindössze 20%-al nagyobb a teljesítménye ebben mint a 2080TI-nek, mégis összességében 30-35%-al gyorsabb annál. Ez alapján tehát a 3070 nem fogja tudni kihasználni a meghagyott ROP-okat, mivel a GPU többi része nem fogja tudni etetni őket, hisz azok 2/3-ra vissza lettek vágva.Tehát a számok továbbra is azt mondják, hogy reálisan a 3070 a 3080 teljesítményének két-harmadát hozhatja, kivéve néhány szélsőséges esetet. Ahol a ROP limitálja a 3080-at, ott közelebb lehet, ahol a memória lesz a szűk keresztmetszet ott még nagyobb lesz a lemaradása.
Fogalmam sincs hogy a TPU csinált-e valaha olyat amit állítasz, az biztos, hogy a Control-tesztet pontosan ugyanabban a rendszerben/driverrel futtatták az összes kártyán. Persze ahhoz hogy ezt megtudd, el kéne olvasni a teszt ide vonatkozó oldalát...
-
2xar
tag
válasz paprobert #48970 üzenetére
18 év vegyes ATI/AMD-Nvidia használat után, ami kb. 15-20 VGA-t ölelt fel, ki merem jelenteni, hogy időnként mindegyik gyártó drivereivel jó nagyokat lehet szívni. De csak egyik gyártónál emlékszem olyanra hogy szándékosan szopatott a drivereivel, hamisította meg az általam megadott beállításokat és adott sokkal szarabb minőségű képet, csak azért hogy kevésbé tűnjön gyengének a konkurenciához képest.
-
2xar
tag
Most miért? A nálunk picivel jobb helyre születni tudó emberek annyiért fogják tudni megvenni a 6900XT-t, mint mi itthon a 3070-et. Ráadásul nekik ez az összeg egy havi átlag fizu 25-50%-a, nálunk meg a 150%-a. Ha innen nézed már nem is olyan rossz üzlet
BTW: ezt azért mindenképpen meg kell köszönni nem csak az Nvidiának, hanem a mi nagyjainknak is: THX Matolcsy, THX Orbi!
[ Szerkesztve ]
-
2xar
tag
Az AMD szerint 4k-ban 13% a 6800-as előnye a 3070/2080TI-hez viszonyítva. Persze ők biztos kozmetikáztak kicsit az adatokon. De azt azért nem hinném, hogy ne lenne a független tesztekben is 5-10% előnye a 6800-nak majd.
-
2xar
tag
válasz FLATRONW #58254 üzenetére
C2077-ben 4K felbontáson még a 4090 is csak átlag 42fps-t tud, azaz játszhatatlan.
Az ilyen "felskálázzuk 480p-ről 4K-ra, meg még be is szúrunk 1-1 kamu képkockát közéjük" típusú megoldásoktól mint a DLSS meg az FSR pedig csak artifact-os szart kap az ember, ami rondább és idegesítőbb mintha simán csak kikapcsolnád a RT-et.
Innentől kezdve, hiába lenne szép a RT, egyelőre sajnos még mindig használhatatlan. Vagy annyira le kell butítani, hogy megint csak értelmét veszti. Talán majd 1-2 generáció múlva lesz egy csúcskártya ahol lehet értelme használni.
-
2xar
tag
válasz FLATRONW #58266 üzenetére
Nem érdekel mivel "szoknak tesztelni". Én játszani DLSS OFF-al szokok. A DLSS ronda artifact-okat okoz a legtöbb játékban (főleg a DLSS 3). Amit persze a low bitráta és a 30fps miatt még a 4K Youtube videókon se talál olyan feltűnőnek az ember. Na de a valóságban... Kösz nem!
#58271 b.:
Ne zavarjon hogy az 1500 dolláros kártyán kívül mindenen még a fentieknél is használhatatlanabb ez a "fícsör", mivel natív 60-80 fps alatt ótvar szar eredményt ad.[ Szerkesztve ]
-
2xar
tag
Hát nem tudom. Az XTX jó ár-értéknek tűnik, ha abból indulok ki hogy kvázi csúcs-kártya, ehhez méltó árazással, és főleg ha a 4080/4090-es áraihoz hasonlítom.
De. Az XT nagyon túlárazott ehhez képest. Jó 20%-al lassabbnak tűnik, de csak 10%-al olcsóbb? Épp fordítva kéne lennie, a csúcs-kártya "prémiuma" miatt. Vagy ha már 20%-al gyengébb akkor legalább 30%-al olcsóbb is kéne legyen. 700$-ért nem is nagyon gondolkodnék rajta, shut up and take my money!
Így viszont vagy veszek XTX-et (azaz bedőlök az AMD-nek, aki pofátlanul afelé terel), vagy inkább nézek valamit az előző generációból. Kár Már nagyon rákészültem, hogy lesz egy új csúcs-közeli kártyám, értelmezhető/nem-bányász áron. De ilyet úgy látszik egyik gyártó se szeretne eladni nekem.
[ Szerkesztve ]
-
2xar
tag
válasz paprobert #58414 üzenetére
Van több die yield kalkulátor is, meg lehet futtatni a számokat ha pár alap adatot ismerünk.
Ha jól tudom az AD102 és a Navi31 is TSMC 5nm, 300mm átmérőjű waferen készül, ami kb. $17k.
0,04 hiba/cm2-el számolva, az AD102-ből 65 jó darab jön ki.
Tehát az Nv $260-t fizet darabjáért.Navi31 GCD: 160db / wafer -> $106 / chip
Navi31 MCD (6nm, $10k / wafer): 1635db / wafer -> $6 / chip -> $36 / GPUTehát az AMD $142-t fizet / GPU. Azaz alig több mint a felét, mint amit az Nv az AD102-ért.
Szerk: ha Abu száma helyes a $35k / 5nm wafer-re, akkor a számok:
AD102: $520 / GPU
Navi31: $248 / GPU[ Szerkesztve ]
-
2xar
tag
válasz Alogonomus #58417 üzenetére
Hmm. Viszont jóval magasabb, 0,07 hiba/cm2-el. Az ő adatai alapján:
AD102: $309 / GPU
AD103: $155 / GPU
Navi31: $152 / GPU#58418Pug:
$35k / 5nm wafer árakkal:AD102: $636 / GPU
AD103: $321 / GPU
Navi31: $274 / GPUAkárhogy is számoljuk, a csúcs Navi31 kb. fele vagy még kevesebb költség, mint az AD102, és max annyi vagy olcsóbb mint az AD103.
Azt hiszem elég egyértelmű, hogy az AMD mit célzott a Navi31-el.
Az más kérdés, hogy ha igaz, akkor teljesítményben még az AD102-höz sikerült elég közel kerülni.[ Szerkesztve ]
-
2xar
tag
válasz Petykemano #58429 üzenetére
Sztem igen. Bár nekem ahogy most utánanéztem, egyre inkább a 17k / wafer ár tűnik reálisabbnak. Tehát:
AD102: $309 / GPU
AD103: $155 / GPU
Navi31: $152 / GPU
Navi31+3D V-cache: $200 / GPU#58432 fatal`:
Igen, 600k Br. tűnik reálisnak és sajnos eladhatónak is az XTX-ért karácsonykor. Januárban talán lesz 500k-ért. Ami még fájdalmasabb, hogy az XT is csak 500-550k tájékán várható idén sztem, és ~450k-ért az első hype lecsengése után.Ezek még mindig borzalmas árak. Nem tudom hogy mikor lesznek újra "elérhető" áron felső kategóriás kártyák. Ha így haladunk tovább, a PC-játék annyira szűk réteg számára válik csak elérhetővé, hogy szépen kihal az egész a francba...
[ Szerkesztve ]
-
2xar
tag
Kicsit azért sztem alálőtted azt.
1. A 4090-es nem csak a chip miatt drágább. Az egész BOM több, nagyobb, drágább alkatrészt tartalmaz. Pl. már csak a nagyobb fogyasztás miatt is drágább VRM, nyák, hűtőborda (látványosan óriási hűtők vannak rajtuk, drága réz + alumínium anyagokból), ventilátor van rajta. Az egyedi 12 tűs tápcsati is sokkal drágább, mint a szabványos 8 tűsből akár 2-3db, ami az AMD-kre kell. Drágább RAM van rajta (GDDR6X vs sima GDDR6) stb.
Láttad mekkora dobozokban árulják a 4090-et? Egy konténer utaztatása Kínából Európába pl. $15-20k-ra felment a COVID alatt, nem tudom most épp hol állnak az árak. De ha fele-negyed annyi fér egy konténerbe mint egy másik VGA-ból, akkor a szállítási költség is 2-4-szerese lesz. Nyilván azért csinálják mert azt gondolják hogy a nagyobb doboz annyival jobb marketing, hogy ez a nagyobb eladásokon keresztül megtérül nekik. Amiben valszeg igazuk is van, ennek a nézettsége alapján. De ettől még a költségeket mindenképp növeli.
2. A gyártási/forgalmazási láncolatban mindenki százalékosan számol díjakat/árrést. Ha csak a chip kerülne többe $200-al és semmi más, az a végfelhasználó áron akkor is minimum $300-$350-t dobna. Úgy, hogy közben az Nv egy centtel se keresne többet a kártyán, mint amennyit az AMD a $200-al olcsóbb chip-pel ellátott és $300-al olcsóbb kártyáján keres.
Összességében tehát, a chipek ára, valamint a fenti két pont alapján szvsz a 4090-et minimum 1,6-1,8-szor akkora költség gyártani/ a vevőkhöz juttatni, mint 7900XTX-et. De a 2x-en se lepődnék meg.
A példa kedvéért:
7900XTX: MSRP $1000 - összköltség $500 = $500 haszon az AMD-nek.
4090: MSRP $1200 - összköltség $900 (1,8*$500) = $300 haszon az Nv-nek.Ha viszont:
4090: MSRP $1600 - $900 = $700 haszon az Nv-nek.Bár Abu szerint a különbség jóval nagyobb: $630 vs $1340. Ha ez igaz, akkor a 4090 $1200-ért már BŐVEN veszteséges lenne.
-
2xar
tag
válasz Alogonomus #58437 üzenetére
A 6950XT-nél erősebb 50-70%-al az AMD szerint.
A 3090 Ti-nél akkor csak 40-60%-al erősebb, RT-ben pedig max egy szinten lehet vele.Csakhogy ezek előző generációs kártyák. Ezekhez képest az új generációnak elvárhatóan hoznia kell ennyi teljesítmény többletet, kb. azonos áron. Nem pedig arányosan növekvő áron. Ez így ment évtizedeken át.
Az hogy a Covid + bányászat betett ennek az elmúlt 2-3 évben, még nem jelenti azt hogy mostantól ez az új normális. Moore törvénye még nem halt meg. Fokozatos lassulás tényleg van és reális, de az hogy egyik generációról a másikra vége legyen az kizárt, semmi nem indokolja. Még.
-
2xar
tag
Nem gondolom, hanem tudjuk.
500W-ból is csak 2-3%-ot tudnak kihozni a 4090 FE-hez képest az AIB OC verziók.
Egyébként manuális tuninggal pedig 600W-ból ki lehet hozni még további 4%-ot, pont ugyanazt, mint a gyári FE-ből.Ha egy 350W-os kártyát húznak fel az AIB gyártók 450-600W-ra, az ehhez való VRM, hűtés stb. költségével, akkor jó eséllyel ezt nem 3%-ért fogják tenni. Ha mégis, akkor az csupán parasztvakítás lesz. A kártyák ára mindenképp a 4090 (FE)-t fogja súrolni. Ha a teljesítményük nem, akkor hülye lesz aki megveszi őket. Akkor ref 7900XTX-et kell venni és kész.
-
2xar
tag
Nem vagyok erős németből. De ha jól értem akkor manuális OC-val érték el a 8%-ot az alaphoz képest, azaz a 3Ghz-es órajelet. Ami pontosan ugyanaz, mint amit a TPU ért el kb. az összes kártyával, beleértve az FE-t.
A fogyasztást meg nem mérték, hanem a szoftver által becsült érték.#58452 fatal`:
Talán visszaolvashatnál kicsit, mielőtt itt értetlenkedsz. A write-only mód nem méltó egy "félisten"-hez.
Segítek: a 450-600W-ra felhúzott über-7900XTX-ekről volt szó.
Pár hsz-szel fennebb írtam hogy a ref és hasonló kártyák sztem 500-600k körül lesznek, az 1 milliós 4090-hez képest. -
2xar
tag
válasz Albus_D #58549 üzenetére
"Ki beszél itt arról, hogy az RT kinek a találmánya?"
Segítek. Te:
"Az nv nem intel, aki évekig csak csepegtetett, hanem komolyan fejleszt. Példa az RT. Éveken keresztül nem hozott látványban senki semmit, az nv megtette."
Jó lenne ha abbahagynád a flamelést és gusztustalan trollkodást. SENKI nem kíváncsi az elmeroggyant vagdalkozásodra!
-
2xar
tag
Elemzés a 7900XT-ről.
A lényeg:
- a 7900XT egy átnevezett 7800XT (á la 4080 12GB, ami szvsz még 4070Ti néven is átverés), az elődjéhez (6800XT) képest $250-al drágábban
- ennyiért, alig $100-al olcsóbban a 7900XTX-nél, SENKI nem fogja megvenni, teljesen életképtelen kártya
- lehetséges (hopium?) hogy az AMD csak altat az árazással kapcsolatban (ahogy az 5700XT-vel tette) és az utolsó pillanatban a megjelenés előtt árat csökkent pl. $750-ra. Ezzel, bár még mindig $100-al drágább lenne az elődjénél, de legalább ár/érték arányban végre versenyképes lenne az XTX-el. A 4080/4070TI-t pedig lemosná a pályáról.Az én véleményem egyébként hogy még $750 is sok érte. A gyártási költségekben elvileg a chiplet dizájn kompenzálja az inflációt, tehát ezt is adhatták volna $650-ért. Akkor rohannék érte a boltba megjelenéskor. Így valszeg ki fogok várni még a cserével.
-
2xar
tag
Sztem azért van különbség a kettő között: az Nv mint mindent, ezt is sokkal pofátlanabbul, tenyérbemászóbban csinálta. Nem véletlen hogy ők kénytelenek voltak változtatni az elnevezésen, míg az AMD-t senki nem nagyon basztatja emiatt.
Egyrészt az AMD nem csak a memória mennyiségével különbözteti meg a két kártyát, hanem a név végződésével is, ami mindkét gyártónál hagyományosan utal arra, hogy a GPU-k teljesítménye is eltér, nem csak a memória mennyisége.
Másrészt, a 4080 12Gb vs 16GB között elég nagy szakadék tátong, 24-30% az Nv szerint is. Az 7900XT vs XTX között még nem tudjuk pontosan, de valszeg inkább csak 5-15% különbség lesz. Nagyon max. 20%.
Harmadrészt az XT és az XTX legalább ugyanarra a die-ra (Navi31) épülnek, ezzel feljogosítva az AMD-t, hogy ugyanazt az alap elnevezést használja rájuk. Ezzel szemben az Nv két teljesen különböző die-ra (AD103 vs. AD104) épülő kártyát próbált ugyanazon név alá beszuszakolni.
+ Bónusz: az Nv másodjára is átverős nevet adott a kártyának. Azt a GPU-t 4060 (TI), vagy legfeljebb sima 4070-ként kellene árulják. Majd meglátjuk persze a teszteredményeket, de ha csak azt nézzük, hogy az előző genből a legnagyobb 192 bites kártya a sima 3060 volt, akkor a 192 bites AD104-nek még a "4070 TI" név is igencsak bicskanyitogató...
De ezektől eltekintve, a két helyzet között tényleg van hasonlóság. Mindkét gyártó a reális teljesítményéhez képest egy tier-rel feljebbre (igazából az Nv inkább 2-vel) pozícionálta a leggyengébb új GPU-ját, mind árban, mind pedig elnevezésben. Remélem az emberek nem lesznek olyan hülyék hogy bedőlnek nekik és messze elkerülik ezeket a termékeket.
-
2xar
tag
Fél napon keresztül érveltél amellett, hogy téged idézve:
"Nem tartom szerencsésnek, hasonlóan megtévesztő számomra [az XT és XTX elnevezés] mint Nvidiánál pusztán a Vram mennyiségével megkülönböztetni egy kártya teljesítményét."Ugyanerről szólt a fenti kommentem első pontja is, csak a másik irányból megközelítve. Nem ahhoz a kártyához viszonyítva, amihez a nevével közelebb lett tolva, hanem aminek normál esetben hívni kellett volna:
"a 7900XT egy átnevezett 7800XT (á la 4080 12GB, ami szvsz még 4070Ti néven is átverés), az elődjéhez (6800XT) képest $250-al drágábban"Erre a hsz-re annyit válaszoltál, hogy:
"jé,nem csak én gondolom akkor így . "Ezek után nem érted, hogy kerül ide az Nv...
Hát remélem most már érted."Vs ehhez a témához hosszú sorokon át kifejtve milyen fos cég stb míg AMD a félisten akit védeni kell. Mint minden AMD párti hozzászóló..."
Miért személyeskedsz?
Minden amit leírtam teljesen objektív és tényszerű, érvekkel alátámasztva. Objektív TÉNY, hogy az Nv eljárása a nevezéktanban most átverés volt. SOKKAL nagyobb megtévesztés, mint amit az AMD csinált. A "pofátlan" jelzőt ezért objektíve kiérdemelték. Nem volt véletlen az elsöprő elégedetlenség amit kaptak, ami miatt vissza is kellett vonják a nevet.Személy szerint pedig az elmúlt 20 évben kb ugyanannyi Nv kártyám volt mint ATI/AMD. Mint pl. jelenleg is. Mindig az ár/érték szerinti jobb kártyát választottam és fogom is. De ettől még felismerhetem és megjegyezhetem ha egyik vagy másik gyártó épp pofátlanul át akar verni. Vagy ez tilos? Ha valamelyik gyártótól van egy kártyám, akkor azt a gyártót kötelezően meg kell védenem és minden aljas húzását meg kell bocsátanom, sőt meg kell védenem?
"...a fő érv az AMD mellett hogy Nvidia milyen fos és hogy azért drága egy AMD kártya mert Nvidia feláraz .. What?"
Ilyet nem írtam. Nem szép dolog a szalmabábozás, inkább ne csináld kérlek.
[ Szerkesztve ]
-
2xar
tag
válasz Albus_D #58903 üzenetére
Az általad adott google találatok szerint is a Zoom fekete képernyő Intel és Nv kártyákkal ugyanúgy fennált, sőt. Az AMD driverhez semmi köze nem volt.
De ha már így sztorizgatunk, akkor nézzük az én példámat. Az első bányászláz közepén váltottam RX470 4GB-ról 1060 6GB-ra, úgy hogy még kerestem is rajta 10-20k-et. Azt hittem hatalmas üzletet csináltam. Nagyon hamar visszasírtam az RX470-et.
Először is, míg a 470-es simán natívan támogatta a 4k@60Hz/RGB 8bit-et. addig a 1060 erre nem volt hajlandó. Választhattam a 4K@30Hz (amit alapból a driver beállított) és a 4096@59Hz/4:2:0 és az ezzel járó torz kép, életlen és okádék színű betűk és döcögő videók között (próbáld ki a YCC 4:2:0-t, ha azt hiszed túlzok). Heteken keresztül, eszméletlen sok órán át próbáltam mindent, de minden más beállítás automatikusan hozta a 30Hz-et. Legalább fél év kellett mire egy driver frissítés végre megoldotta és az 1060 is tudta végre 4K@60Hz/RGB-t.
Ja és később a COVID alatt a vadiúj 1mFt-os céges Dell laptop mittomén milyen Quadro videokártyája ugyanezt eljátszotta, de azt nem is sikerült megoldaniuk soha, kénytelen voltam asszem 1440P-t használni a monitoromat.Aztán kb. az egyetlen játékban amit akkor játszottam, a Dirt Rally-ban olyan gyönyörű villódzó textúrákat/árnyékokat volt szerencsém megcsodálni a 1060-al, hogy abba is hagytam a játékot. Semmivel nem lehetett eltűntetni őket, komplett Win reinstall-al se. A 470 minden hiba nélkül vitte, teljesen ugyanolyan beállításokkal és FPS-sel. És úgy látom ez utána bizonyos körülmények között még évekig fennállt mindenféle Geforce-okon. Persze könnyen lehet, hogy a Zoom-os példádhoz hasonlóan, ez sem driver probléma volt, hanem Bug a játékban. De felhasználóként én ezt pont leszarom. AMD-n jó volt, Nv-n meg szar. Most akkor vonjam le a konzekvenciát, hogy az Nv driverek szarok?
Ja és amúgy nálam az RX470 egy 3570K-val (ami már akkoriban 6-7 éves proci volt talán?) teljesen simán játszotta a 4K@60Hz YT videókat. Az utolsó AMD kártyám, aminél az nem volt röccenésmentes (ugyancsak a 3570K mellett) egy HD7850-es volt, de az amúgy sem tudta a 4K@60Hz-et.
A lényeg azonban, hogy ezekből nem szabad olyan általánosításokat leszűrni, hogy az egyik gyártó/kártya/driver/játék stb. szar, a másik meg tökéletes, vagy akár csak lényegesen jobb. Ilyen esetek, amíg ember által készített szoftver létezik, addig mindig is lesznek. Minden hardveren, minden szoftverrel és minden driverrel. Idővel a legtöbbeket érintő bugokat mindegyikből kigyomlálják, a többi meg lassacskán "elévül". Helyettük pedig jönnek teljesen új bugok.
-
2xar
tag
válasz FLATRONW #59024 üzenetére
Hát nem tudom, szerintem nem reális elvárás egy 530mm2-es chiptől hogy versenyezzen egy 600mm2-essel. Főleg hogy az 530mm2-be a chiplet dizájn miatti plusz helyszükséglet is benne van. Ha az is monolitikus chip lenne akkor lenne mondjuk 500mm2 (csak nyilván drágább lenne gyártani).
Ezzel korrigálva tehát a Navi31 egy nála 20%-al nagyobb GPU teljesítményét kéne hozza szerinted? Amellett hogy még a fogyasztása is 25-30%-al alacsonyabb?
Sztem teljesen korrekt ha az XTX 25%-on belül lesz a 4090-hez és kb. hozza a 4080-at.
Nyilván az AMD is csinálhatott volna egy ~650mm2-es chiplet GPU-t. Gyártani még azt is olcsóbb lett volna mint az AD102-t. Fogyasztásban is hasonló szinten lettek volna. És akkor reális elvárás lenne, hogy hozzák a 4090-et. Kérdezd meg tőlük hogy miért nem tették. De az is lehet, hogy ott van még az a tarsolyban. Vannak pletykák 7990XTX-ekről. Bár azok inkább csak emelt frekiről, mintsem növelt SKU méretről szólnak.
-
2xar
tag
válasz FLATRONW #59027 üzenetére
"15 százalék körüli eltérésnek"
Legalább 20%. Az Infinity Links helyet foglal mind a 7 chiplet-ben, míg az NV-ben erre nincs szükség a monolitikus dizájn miatt. Ahogy Abu 300 vs 600 mm2-es összehasonlítása nem volt fair, úgy a tiéd sem az ha ezt nem veszed figyelembe (608/533=1,14). Ha figyelembe veszed: 608/500=1,21.
Reálisan 21%-al nagyobb az AD102 mint a Navi 31.> Vega 64 egy picivel nagyobb volt az 1080 Ti-nél, mégis jelentősen lassabb is volt. Tehát bőven versenytársak a Navi 31 és az AD102.
Itt logikai bukfencet érzek
Abból hogy az AMD egy jóval nagyobb chip-pel se tudta felvenni a versenyt az NV ellen a Vega idején, levonod a következtetést, hogy most egy sokkal kisebbel is kéne sikerüljön nekik...
Az Nv bőven bizonyította az elmúlt 30 évben hogy tudnak hatékony architektúrákat csinálni, még ha mellé is nyúlnak időnként. De az AD102 bőven ott van a legjobban sikerült generációik között. Hogy az AMD ezen még hozzon +20%-nyi hatékonyságot nem csak csoda lenne, hanem a fizika törvényeit feszegetné...Ha viszont mégis elfogadjuk a következtetésedet, hogy "Nem igazán van jelentősége a chip méretnek" és a 20%-al kisebb Navi 31 kéne tudja az AD102 teljesítményét, akkor miért nem csinálta meg az Nv 20%-al kisebbre az AD102-t? Sok pénzt spórolhatott volna magának...
-
2xar
tag
Már hogy kapnál több FPS-t a felbontás emelésétől? Legfeljebb nem csökken, ha CPU limitben vagy.
Az XT árazása teljesen értelmezhetetlen. Valahol 700 USD körül kéne legyen, figyelembe véve az inflációt is, a bányászláz hatásait stb. A 900 USD-s ár simán csak upselling, hogy mindenki XTX-et vegyen. Ahogy Nv-nél a 4080.
De szerintem nem marad egyik se sokáig így. Jól megfejik az early adopter-eket, rávezetve őket a 4090/XTX-re, majd 1-2 hónap és ejtik 2-300 USD-vel a 4080/XT árát. -
2xar
tag
válasz FLATRONW #59032 üzenetére
A fizikailag, technológiailag lehetségesnél rosszabb chipet gyártani bárki tud. A lehetségesnél 20%-al jobbat SENKI. A fizika törvényei mindenkire vonatkoznak.
Amit írsz annak akkor lenne értelme, ha a Lovelace egy szar arch lenne. Akkor elképzelhető lenne, hogy az AMD kihoz egy kisebb, kevesebbet fogyasztó, de gyorsabb, vagy ugyanolyan gyors chipet. Csakhogy a Lovelace egy kimondottan jól sikerült darab. Sokkal nagyobb ugrás az elődjéhez képest mint ami pl. a Gf 10-20-30-as szériák között volt.
Az, hogy az AMD a jelenlegi infók alapján tudja tartani vele a lépést teljesítmény/die-méret, illetve telj./watt arányban is egy meglepő és nagyszerű hír. Még ennél is többet várni egyértelműen a csodavárás kategória.
-
2xar
tag
Azt mondja konkrét, teljes teszteredményeket kapott az új kártyákról.
Ez alapján a 4080-hoz képest a 7900XT 10%-al lassabb, az XTX 10%-al gyorsabb átlagban. A 4090-es 21%-al gyorsabb az XTX-nél.Van olyan játék ahol 1080p-ben még az XTX is elveri a 4090-et, és van ahol meg 1440p-ben is. Gondolom ennek az Abu által emlegetett CPU-limit megkerüléshez van köze.
Van olyan is, ahol a 4080 is megveri az XTX-et. RT-ben ez mindig így van.
-
2xar
tag
válasz GeryFlash #59217 üzenetére
"Marmint raszterben, ugye RT-ben meg sehol nincsenek"
Ez amúgy hogy jött ki?
RT-ben a 4080-as kb. 15%-al erősebb a 7900XTX-nél. Miközben 20%-al drágább..."realisan 20-25%-kal jar elorebb architekturalisan az Nvidia az AMD elott."
Ez vajon architektúrából jön, vagy csak ennyivel jobban az Nv-re optimalizáltak a játékok? -
2xar
tag
válasz Raymond #59221 üzenetére
A CB tesztcsokorja más mint a TPU-é, amit linkeltem. Ugyanakkor a CB-nél a 7900XTX valamiért sokkal lassabb mint ugyanazokban a tesztekben a TPU-on. Pl. Deathloop-ban a TPU-nál 26% különbség van, a CB-nél meg 33%. CP2077-ben 50% vs 61% (de az ilyen 15FPS vs. 24FPS összehasonlításnak amúgy is nulla értelme van, ezt nyugodtan el lehet felejteni). Én nem tudom, hogy melyik a hitelesebb.
De legyen akkor 15% helyett 20-30% átlagban. Az sem jelenti azt hogy "sehol nincsenek". Még mindig 20%-al olcsóbb/drágább kártyákat hasonlítunk.
Árban a 4070TI lesz a 7900XTX ellenfele, azt meg kb. még RT-ben is hozni fogja.Egy-egy elfuserált és extrém szarul optimalizált engine (CP) alapján pedig blődség következtetést levonni.
-
2xar
tag
válasz Devid_81 #59311 üzenetére
Tehát a Pre-Fetching aktív és úgy működik ahogy kell. A driver kódban talált utalások kikapcsolt Pre-Fetch-re nem a driver aktív részeiből származnak.
Az A0 steppinget az AMD nem erősítette meg. De akár az is lehet, révén az RX6000-es és 5000-es kártyák is többséggel A0-ra épültek. Ahogy az Nv-is gyárt A0 steppinges GPU-kat.
BTW: a Sapphire Rapids a 12. steppingjénél tart és még mindig nincs kész
Magyarul: az egész Pre-Fetch-es meg A0 steppinges történet egy vakvágány volt. Valaki feldobott egy humbugot, az internet népe meg rácuppant mint gyöngytyúk a takonyra. A Navi31 vélt vagy valós gyengeségének okát nem itt kell keresni.
Ami engem illet, én nem igazán látom a csalódottság (illetve a hater-ek részéről a káröröm) okát. Leszámítva hogy valóban az AMD is, de főleg a fanok nagyon túlhypeolták a szériát, olyanokat vizionálva hogy 100W-al kevesebb fogyasztással, 20-40%-al kisebb chip-pel és fele akkora árral a Navi31 leveri majd a 4090-et...
A Lovelace az egyik legjobban sikerült Nv generáció valaha, a Pascallal és a G80-al egy szinten. Az AMD ehhez képest nincs is jelentős (vagy semekkora) lemaradásban, ha a teljesítmény/fogyasztói ár, telj./gyártási költség, telj./fogyasztás arányt, vagy akár a max kihozható teljesítményt nézzük.De ahogy már írtam, az AMD valóban túlbecsülte valamelyest ezt a szériát (vagy alá a Lovelace-t), hiszen ők nemrég még "Zen 2 moment"-ről beszéltek. Ehhez képest úgy tűnik inkább csak egy "Zen 1 moment"-jük van, amikor is a chiplet típusú felépítésre történő átállással megágyaztak a későbbi sikereiknek és domináns teljesítményüknek.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- 2025.11.04. Garancia! MSI RTX 3080 12GB GDDR6X TRIO PLUS Videokártya! BeszámítOK
- EVGA RTX 3070 8GB GDDR6 FTW3 ULTRA GAMING Eladó! 125.000.-
- ASRock Challenger D RX 6600 8GB - garancia 2024 november - eladó!
- KFA2 GeForce RTX 3070 EX LHR OC 8GB GDDR6 256bit
- AIO Vízhűtéses NVIDIA RTX 2080 SUPER ?? Igen!! Igazi kuriózum eladó csak itt!! - Beszámítás: OK
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen