-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Az alulfeszelés az tuning, arra nem specifikálhatnak.
Csak nincs ideálisnak kikiáltott gyári órajel. Az NV-nél van egy alapórajel, ami be van táplálva a BIOS-ba, ez nekik azért egyszerűbbé teszi a helyzetet, de még ők is kerülik a TDP-t. Ellenben az AMD-nek egy órajel van betáplálva a BIOS-ba, ami a PowerTune clock, aztán a driverbeállítástól függ, hogy a valós órajel mi lesz. Ezzel aztán pláne érdemes kerülni a TDP-t.
-
korcsi
veterán
Félre értettelek.
" Nem TDP hanem TBP(225 watt) keretet adtak mega VC oldalán Z10N táblázatában.. de a TDP az 180 watt."
És igen, a 225W TBP az pont 180W TDPSzóval nem szóltam
Két modellről van szó:
" According to our sources, the AMD Radeon RX 5000 series is said to feature two variants, a 180W TDP model with 225W TBP (Total Board Power) and a 150W TDP model with a 180W TBP" -
Abu85
HÁZIGAZDA
Nem kamu a TBP, vagy az NV-féle verziója. Ezek tényleg arra szolgálnak, hogy egy határértéket adjanak a vásárlónak. A legegyszerűbben megfogható határérték az AMD-nél a board power, vagyis az elméleti maximum, ahogy a hardver a gyakorlatban működni tud. Más érték egyszerűen nem reális, mert alapvetően a Radeonok valós fogyasztása a driverben 100-150 wattos skálán is befolyásolható. Emiatt nem optimális a TDP-re építeni.
[link] - ebben a tesztben ezt mi is megnéztük. Ugyanazt látod a kijelzőn, a fogyasztásmérőn viszont világos, hogy nem mindegy, hogy a driver hogyan működteti a hardvert. Az egyetlen valóban megfogható paraméter, ami független a működési módtól az a TBP.
-
-
Abu85
HÁZIGAZDA
A szoftvernek itt nincs jelentősége, mert lényegében csak egy koherenciavizsgálóról van szó, ami csoportosítja a sugarakat, hogy ne annyira véletlenszerűen történjenek a memóriaelérések. Nem mondom, hogy egyszerű megoldani hardveresen, mert közel sem az, de szoftveres oldalról ez a fícsőr láthatatlan és hozzáférhetetlen. Egyszerűen csak működik a hardverben, és az a célja, hogy a sugárkövetés ne szemetelje össze a cache-eket.
-
Petykemano
veterán
Az is lehet, hogy ez a szokásos szándékos nyelvtani hiba, hogy tudni lehessen, honnan szivárognak az infók.
Bár az nvidia beadványa elég későn érkezett, de ha AdoredTV értesülései tévesek lennének, arra miért mozdult volna rá az nvidia?
Lehet, hogy az nvidia csak trollkodik. Viszont az elég nagy blamázs lenne, ha az amd tényleg így nevezné a termékeit, amit aztán később kénytelen átnevezni. -
Televan74
nagyúr
Még nincs elfogadva, vizsgálat alatti státuszban van. Még fellebbezhetnek is ellene, talán meg is teszik. Szerintem túl általános lett így mert ha a RTX/GTX 3080 -t védeti le,akkor az ellen nehezen lehetne fellebbezni,de akkor még lehetne a RX 3080. Amúgy ha az AMD ezt szerette volna névnek ,akkor a RX 3080 már rég le lenne védetve.Talán csak trollkodtak egy kicsit az Nvidiával. Nekem tetszene/tetszett volna a RX 3080 -as Navi,de nem emiatt veszem meg.
-
Abu85
HÁZIGAZDA
Csak a Microsoft a DLSS-nél ezerszer jobb megoldást csinált.
De mint írtam a cikkben is, a DLSS-nek nem a koncepciójával van a baj, hanem azzal, hogy a gyakorlatban nem működik. A Microsoft viszont sokkal régebb óta dolgozik ezen, és a GDC-n elég jó eredményekről beszéltek.
Az is számít, hogy ezeket a megoldásokat hogyan integrálod. A DLSS-nél csak egy fájlt tudsz bemásolni, aztán vagy működik, vagy nem. Nincs rá befolyásod fejlesztőként. A Microsoft megoldása teljes fejlesztői kontrollt ad.(#40895) GeryFlash: Szerintem a PS5 is képes rá, de a Sony-nak van egy érdekes hardvere, ami még ennél is jobb lehet. Azt a PS4 Próban kipróbálták, csak egy játék se támogatta. Viszont a háttérben nyilván megnézték, és javítgatták a PS5-ös bevetésre.
-
GeryFlash
veterán
Dehogy lesz 700-1000 dollár
Maximum 600 de inkább 500. Az biztos hogy nem 400 lesz mint ahogy pár hete azt sok medium egymástól átvéve hangoztatta.
Abu85: És akkor ez a Navi metaparancsok XXbox only lesz, a PS ebből nem profitál? Csak mert mintha úgy mondanád mintha ez az MS ütőkártyája lenne.
-
Z10N
veterán
De itt nem $200-rol van szo, hanem $400-rol! Duplaja egy nagyon arerzekeny szegmensben. Ezenkivul ez nem igaz, mivel ott van a gtx 1660. Persze a price/perf rataja picit romlott is. Az mas dolog, hogy a Navi megint hoz egy rakat ujitast es spiler lesz valamiben. Ugye nincs rossz gpu, csak rossz arazas. Kiterve a 7nm-re. Emlitettem, hogy ha csak +200MHz-t kapunk az eleg rohejes lesz.
"Egyszerűen baromi drága a gyartas és zsugorodik a piac."
Es ezzel szepen hajtjak a vizet a konzolok malmara es mostmar a stream gamingre is. Viszont mindekozben az uj ps/xb SoC-ja megint az AMD-tol lesz rendelve, szoval megiscsak meg tudjak fizetni az uj gyartastechnologiat. Sot, akar veszteseggel is arulni majd. Az asztali gpu piac ezzel maga alatt vagja a fat. Nagyon ideje lenne a chiplet designak, a koltsegek kordaban tartasara. Raadasul a hbm ara is melyrepulesbe kezdhetne 4 ev utan. -
paprobert
őstag
Lefordítom én is: a 1650 összteljesítménye 30-50%-kal gyorsabb lehetne a GPU ereje alapján. De mivel sávszélesség-éheztetve van, a teljesítmény be van zuhanva.
Ilyen visszafojtott állapotban a teljesítmény/W mutató csökken. A nagyobb sávszélesség szinte ingyen lenne áramfogyasztás szempontjából, emellett jönne a teljesítmény.
-
TTomax
félisten
Nem akarok kontrázni,mert az egy aljas dolog amikor egy beszélgetésbe egy harmadik mindig rá rá kontráz,de engedd el,többször ,többen leírtuk és nem rossz szándékkal ezeket.El kell fogadni hogy oldal a feltételezett ködös jövőt tapogató teszteket akart készíteni,a jelen az mellékes.Emlékszem régen ha vga vita volt,teljesítmény vagy bármi kérdésben,akkor vígan linkeltük a PH! tesztjét,és mindenki el is fogadta nagy hümmögve.Mostanra eljutottunk oda,hogy linkelni se nagyon van mit,de ha van az is meredeken eltér barmitól amit a neten találsz.
-
Abu85
HÁZIGAZDA
Nem szoktam benchmarkolni. Frame-eket mentek ki, és azokat visszatöltöm profilozóban. A sebességet csak megmondtam, mert átlagoltam a kimentett kilenc frame-et. Ennek sok előnye van, mert nem arra vagyok kíváncsi, hogy a játék mit tud benchmarkban. Azt majd a tesztben megnézzük. Az érdekel, hogy pár kiválasztott frame hogyan fut le a GPU-kon. Így kiszűrhetők a limitek, mert például egy benchmarkon csak az fps-eket látod, de engem az érdekel, hogy konkrétan mik a timing és occupancy adatok. Ha ezek az egyik gyártón nem túl jók, akkor fel se vesszük a játékot a tesztcsomagba. Úgy felesleges tesztelni, hogy a GPU fele valami hiba miatt nem dolgozik. A korábbi driverrel simán nem vettük volna fel a World War Z-t, mert volt egy frame GeForce-on, amely azt mutatta, hogy a GPU egyszerűen malmozik a számítási idő nagy részében. Ezen sokat javított az új driver.
Egyébként itt az egy frame nem hangzik problémának, de valójában az, mert a probléma a jelenetből adódik, tehát ha egy frame-ben a timing és occupancy nem megfelelő egy hardveren (driver vagy program miatt, mindegy), akkor az az egész jelenetben rossz lesz, vagyis én igaz, hogy csak egy frame-et vizsgálok, de a tesztben abból lesz vagy 2000 rossz frame.
(#40722) b. : Más játék nem nagyon van az subgroup shaderek tesztelésére. Ha lesz, berakjuk azt is. Mint írtam, a No Man's Sky használni fogja.
Itt vannak a kártyák, csak állandóan van valami teszt, amit időre kell megírni. Így nehéz haladni. Múlt évben lett volna rá egy csomó időnk, ha küldenek hamarabb hardvereket, akkor nem lenne ebből probléma.
Attól függ, hogy mikor kapunk hardvert. Ha hamar, akkor elég gyorsan van teszt. Ha fél évig nem fontos a gyártónak, hogy csináljunk tesztet, akkor ott már nehéz az előre letervezett szervezést átalakítani, hogy legyen rá idő.
Szerk.: Pedig a teszthardver alapvetően a gyártón múlik. Ők döntik el, hogy a régiókba szánt hardverek kiknél landolnak. Ha tudnád mennyi GeForce jött a teljes régióba influenszereknek...
-
Abu85
HÁZIGAZDA
A parancsprocesszor akkor lényeges, ha limitált általa a GPU. Ilyen akkor fordul elő jellemzően, ha a játék az Xbox One-ról jött, ahol ugye eleve két parancsprocesszor van grafikai munkára, így mások a limitek, mint PC-n. Ha egy játékot már PS4-re is terveznek, akkor ott jellemzően hasonlóak a queue limitek a PC-s hardverekhez.
A Vega 20-nál ennek tényleg nincs igazán lényege, egy-két Microsoft játékot leszámítva. Itt arról volt igazán szó, hogy a Navi parancsprocesszora hamar kész lett, és azt rakták bele. Ennyi. Ez azért hasznos, mert így a régi parancsprocesszort nem kell 7 nm-re portolni, hanem elég a már leportolt fizikai IP-t felhasználni. Szimpla költségcsökkentés.
Aszinkron compute-ban pedig nyilván jobb egy Polaris, mint egy GCN2 vagy GCN3. Nem sokkal, de jobb, és emiatt nyílik szét az olló.
-
Tyrel
őstag
Szerintem még pár év és ugyan olyan lesz mint a tesszeláció vagy az anizotróp szűrés, ezeket is ha régen bekapcsoltad letérdelt a vas, most meg sokszor már nincs is külön gomb rá, csak alapértelmezetten be van kapcsolva és kész, észre se veszed már ill. nem látszik meg az fps-en...
Idővel felnőnek hozzá a GPU-k, addig meg kár erőltetni, úgy is nagyon bénácska még azon a kevés hardveren ill. abban a kevés játékban amiken/amikben fut egyáltalán...
-
Petykemano
veterán
Hát abban egyáltalán nem vagyok biztos, hogy a navira gondolok -e, és ha igen, melyikre.
Az xbox hardverre viszont igen. Csak nem tudom, hogy kliens vagy cloud hardverre-e.Nem biztos, hogy ehhez kell dedikált hardver. Mármint a cryengine sugárkövetését a vega 56 1080p-ben 30fps futtatta. Ha jól emlékszem, a Vega 10 lapka még csak fp16-ot tudott. (Mi25) és az int8 (mi60), vmint int4 (120tops) a vega20-ban érkezett meg. Ha a (egy) navi is tud ilyet, az talán elég lehet eka normális futáshoz egy 10-14 tflopsos xboxban is.
-
Abu85
HÁZIGAZDA
A voxel a háromszögek problémájára jelent itt megoldást. A pixelekhez nincs köze. Amúgy a többi stimmel, azt viszont nem zárnám ki, hogy a Microsoft nem vezeti be a voxeleket. A DXR is ugyanúgy fejleszthető, csak nyilván a voxelekhez megint új hardverek kellenek. Na meg az sem ártana, ha minden motor tudna hatékony voxelizálást, de akár erre is hozható lenne valami API, csak ez már nem olyan egyszerű probléma.
-
Abu85
HÁZIGAZDA
Sose volt olyan drága gyártani, ahogy a táblázat írja. Ilyen árakon 50%-kal nagyobb lett volna a vételár.
Amit igazából sose vesznek figyelembe ezek a fantasztikus elemzések, hogy az AMD és az NV sosem lapka szintjén fizet a bérgyártónak. De még csak nem is a GPU-k szintjén. Wafereket vesznek, aztán a bérgyártó magasról tesz arra, hogy a kibérelt kapacitáson mi készül. Összességében tehát nem az számít az AMD-nek és az NV-nek, hogy egy-két GPU-ra legyen meg a haszon, hanem arra a több tucat termékre, amit gyártanak, legyen meg a pozitív mérleg. Más nem is igazán számolnak, mert alapvetően megveszik a wafert x összegért, gyártják rajta a lapkákat a piac igényétől függő mennyiségben, és a végeredményt nézik csak. Ez a legfőbb oka annak, amiért az NV nem igazán akar a TSMC-nél maradni, mert el kellene kezdeniük licitálni az AMD és az Apple ellen, akik biztos, hogy árban föléjük tudnak menni. Nem azért, mert egy-egy lapkát kedvezőbben gyártanak, hanem mert van olyan termékük, amelyet a gyártási költség sokszorosáért adnak. Az Apple marha drágán kínálja az iPhone-okat, miközben a lapka pici bele, így belefér, ha egységnyi szinten akár 50 dollár fölött költenek rá. Az AMD-nek pedig ott a CPU, ahol a gyártási költség az eladási árhoz képest sokkal alacsonyabb. És az AMD mondhatja azt, hogy a 7 nm-en a GPU-kra inkább nem akar hasznot, nem számít, mert a CPU-kkal magasan pozitívban lesz a teljes mérleg. Az NV ezt nem mondhatja, mert nincs olyan nagy volumenben eladott hardverük, ami ellensúlyozná ezeket, tehát nekik muszáj olyan bérgyártói szerződés után nézni, ahol a GPU-kon keresnek. Ezért erősödnek a Samsungra vonatkozó pletykák.
A 7 nm-rel a gyártási árak növekedni fognak, de igazából a piac is kezd berendezkedni rá az új árszabással.
A régi node-ok sokkal kellemesebbek, mert sokkal olcsóbb volt rájuk kihozni egy lapkát. Főleg akkor, ha az nem a TSMC-nél készült, hanem esetleg egy take-or-pay szerződéssel született, amikor azért a waferár igen alacsony tud lenni. Emiatt lehet levinni a GloFo és a Samsung által gyártott GPU-knál a VGA-k árát. Amit az NV a TSMC-nél gyárt, azt már látod, hogy drága, például a 16-os GeForce sorozat. Nem tudnak vele mit kezdeni, mert ugyanazért a waferért a sokszoros pénzt fizetnek, a Samsunghoz viszonyítva. Ha az AMD is a TSMC-nél gyártana, akkor ők se vinnék le 130 dollárra az RX 570-et, nem férne bele a sokszoros waferár mellett.
Mert a kulcsokat nem így rendelik. Nem az van, hogy eladnak egy VGA-t, és fizetnek 25 dollárt. Van egy fix éves büdzsé erre fenntartva az AMD-nél és az NV-nél is, amit már eleve úgy számolnak, hogy elköltik. Ha nem kulcsokra, akkor reklámszerződésre, stb. Tehát ez egy már bekalkulált éves veszteség, amit bőven ellensúlyoz a nyereség, amit hoz. Másképp egyik gyártó se csinálná.
-
Abu85
HÁZIGAZDA
Nem. Az AMD és az NV úgy dolgozik, hogy van egy büdzsé az egész évre. Ebbe beletartozik a fejlesztői segítség, a szoftvercsomagok fejlesztése, illetve a reklámpénz. Ebből a büdzséből költenek mindketten. Tehát a valóságban már egy eleve betervezett éves költséget költik, amikor játékot vesznek a VGA-khoz. 20-25 dollárnyi játék egyébként nagyon sok. Főleg úgy, hogy az AMD-nek az Ubisoft és a Capcom esetében is R&D szerződése van, vagyis nem csak reklám, hanem egy rakás dolgot a PC-s porthoz tartozó R&D-nél nem az Ubisoft és a Capcom végez, hanem az AMD. Ugye az EA-vel ezért bontottak szerződést, mert berendezkedtek erre az R&D koncepcióra, de az EA-nek erre nincs szüksége. Megvan a saját anyagi forrásuk arra, hogy mindent elvégezzenek, amit az AMD fel tud kínálni. Az Ubisoft és a Capcom viszont költségkímélőbbnek érzi, ha ezt részben az AMD csinálja. Cserébe adnak nekik egy csomó olcsó kulcsot. De ez abszolút kifizetődő, hiszen az R&D költségek jóval nagyobbak, mint a kulcsok ára összesen. Másképp nem érné meg az Ubisoft és a Capcom számára ez az üzlet. Lesz majd a Borderlands 3, amit szintén berendelt magának az AMD, és az tuti drága lesz, mert ott a stúdióval van szerződésük, míg a kiadóval nem, tehát ott már nem ússzák meg 2-6 dollár/game-ből. Inkább 15 dollár/game lesz, talán még több.
Az RX 560 nagyon régen jelent meg, azóta az AMD és a GloFo kétszer újratárgyalta a szerződését. Alapvetően itt a GloFo van kényszerhelyzetben, mert fontos nekik az AMD megtartása. Ha mennek, akkor dollármilliókat fognak bukni naponta, hiszen a gyárak legnagyobb ellensége a kihasználatlanság. Emiatt a fő megrendelő megtartása úgy is kritikus, hogy nagyon olcsón adják a wafert. Ezt használja ki az AMD, amikor újratárgyalják a szerződést. Ezért jobb a TSMC üzleti modellje, mert ott nem egy megrendelőtől függ a működés. A GloFo azért nem tud igazán élni ezen a piacon, mert egy nagy megrendelőjük van, és emiatt a megrendelőnél pattog a labda, ha meg kell egyezni. Ezért voltak olyan tényezők a szerződésben, hogy ha az AMD mással is gyártat, akkor a GloFo felé büntetést kell fizetnie. 12/14 nm-re ez a kikötés még mindig él, viszont ilyen szinten a megrendelő elvárja, hogy marha olcsó legyen ám a wafer, annyira, amennyire más megközelítőleg sem adja. Ha ez nem teljesül, akkor inkább kifizetik a büntetést, és mennek máshova, aztán a GloFo nagy kerek szemekkel arra ébred egy nap, hogy le kell állítani a Fab 8-at, ami elkezdi veszettül égetni a pénzt. Ugyanez volt a gondja az IBM-nek, és ezért adták el úgy a gyáraikat, hogy még ők fizettek a vevőnek, hogy megvegye. Minden nap dollármilliókat buktak kihasználatlanság miatt.
Szóval ez a gyártás dolog nem úgy működik, ahogy azt elképzeli egy átlagember a mezei kereskedelmi tapasztalataiból. -
Abu85
HÁZIGAZDA
Nem így működik a játékvásárlás. Ezek külön szerződések, amelyek mennyiségi licencre vonatkoznak. A tipikus licencköltség 2-6 dollár per játék. Általában fél-egymillió kódot szoktak venni. Tehát se az AMD, se az NV nem fizeti a teljes játék árát. Az EA szokott nagy költséggel dolgozni, ők nem igazán mennek ~20 dollár per játék alá, de ők sem fizettetik a teljes árat.
Az is nagyon számít egyébként, hogy milyen a kiadóval kötött partnerszerződés is. Ha csak reklámszintű, akkor általában az ár nagyobb, mert lényegében a kapcsolat csak üzleti jellegű. Van azonban komolyabb szerződés is, például R&D vállalásokkal, és ott már azért lényeges engedmények is vannak, hiszen a gyártó végzi az R&D egy részét, ami éves szinten egy nagyobb kiadónál simán van 10-15 millió dollár.Keresnek amúgy az RX 570-en még. A GlobalFoundries ugyan idén már nem take-or-pay jellegű szerződéssel dolgozik, de fix waferárakkal, amelyek a TSMC waferáraihoz képest lényegesen alacsonyabbak. Ezért ragaszkodtak a GlobalFoundries technológiájához igen sokáig, mert lényegesen olcsóbban tudják elérni, mint a TSMC-ét.
Az NVIDIA is azért árazza a GTX 16-os sorozatot ilyen drágán, mert a kisebb Pascalokkal ellentétben ezek már nem a Samsungnál készülnek, hanem a TSMC-nél. A PC Partnertől tudom, hogy a TSMC 1x nm-es waferárai a Samsung 1x nm-es áraihoz képest majdnem négyszeresek. Tehát egy egységnyi méretű lapka legyártása majdnem négyszer drágább. És akkor a Samsung sem dolgozik az NV-nek fix szerződéssel, mint az AMD a GloFo esetében, tehát ennél még lehetne jobb árakat is kialkudni, csak az NV inkább flexibilitást akart. Értsd úgy, hogy menni akartak, ha az jobb. Az AMD például csak 7 nm-re ugorhat, de ha 12/14 nm-es lapka gyártásáról van szó, akkor azt a GloFo nem engedi máshol. Cserébe rohadt olcsón adja nekik a wafert.
A TSMC ilyeneket eleve nem csinál. Az viszi a kapacitás, aki a legtöbbet fizeti. Nekik nincs szükségük fix megrendelőre, mert sorban állnak a várakozók. -
-
-
Petykemano
veterán
Vajon jól vannak pozícionálva az árak?
Ez persze csak egy olyan tippp, részemről nincs mögötte kutatás, vagy ilyesmi.
Ez alapján a 3060 és a 3080 nincs jól pozícionálva
A 3060-nak vagy $100(-109)-ért kéne mennie, vagy kicsit még húzva rajta valahogy $149-ért - úgy, hogy erősebb legyen, mint a konkurens kártya ennyiért.
A 3070 nagyon betalálós lenne. Akár még egy RX (4|5)70 cseréjenként is el tudnám képzelni.
A 3080 ára jónak tűnhet, de ha történetesen van egy akár csak kicsit erősebb nvidia kártya $300-ért, az menőbb lehet.
szerk:
Persze tegyük hozzá ez csupán egy tényező a sok marketingeszközből. És még ha ezt sikerülne is jól eltalálni, nyilván önmagában az se fordítana nagymértékben a steam survey eredményein. De pár százalékot talán mégiscsak számíthat, hogy ha a legkeresetebb árakon a Te kártyád a legerősebb és Te vagy képes a konkurenciát kimozdítani a legkeresetebb árakról. -
cikkben a táblázatot így vezetik fel:
"Last year, AdoredTV suggested that AMD would aggressively bring a set of GPUs to market to undercut Nvidia’s Turing. Those leaks collectively looked like this:"
ezt csak azért citálom ide, mert AdoredTV sok mindent mondott, eddig semmi nem lett belőlük (6 magos IGP-s APU-ból nem is lesz semmi szerintem 3xxx szériában), ellenben a CES-en bemutatott Radeon VII-ről nem szólt egy szót sem.
-
GeryFlash
veterán
,,mert nekem nagyon gyanús ez a 3 éves Pascalhoz való hasonlítgatás, mikor már a Turinggal kell versenyeznie, nem a GTX 1080 nal...Mire kijön szinte egy éve már a piacon lesz az RTX. Valószínűleg azért van ez, mert marketing szempontból jobban hangzik az előző gen felső kategóriás kártyáját mércének venni, mint az RTX széria legkisebb tagját."
Addig igazad van hogy marketing, de nem (hiszem hogy) azért mert az előző generáció csúcsa, hanem mert ott lehet példálózni hogy mittomén a 1080 400-500 dollár. Nyilván a 2060-tal kellene összemérni, de annál csak 30-50 dollárral olcsóbb. Ettől függetlenül Tensor magos VGA-kat az Nvidia nem fogja olyan könnyű szívvel árcsökkenteni.
-
GeryFlash
veterán
Nem teljesen értem, ha 300 dollárért adnának egy 5-10%kal erősebb 2060-at az miért ne érné meg az AMD-nek, vagy az ebben az ársávban keresgélő vásárlóknak? Alá áraznak 30-50 dollárral a 2060-nak aminél kicsit erősebb is lesz (ha minden igaz) és támogatni fogja a raytracinget, az más kérdés hogy annyira lesz érdemes bekapcsolni mint a 2060-on
-
Televan74
nagyúr
Tudhatnád hogy ez topik mindig a csodavárásról szól.Nem kéne ezen már meglepődnöd!
Egyénként ha hozza a GTX1080 teljesítményét(ami a RTX2060 fölött van egy picivel) akkor jó lesz az.És ha ezt megvehetem 259$/€ áron akkor a azért odab@szna az RTX2060 329-350$/€ árának.Tudjuk azt is a PS5 hírből hogy az AMD -nél is dolgoznak a Ray Tracingen,az hogy a Navi10 mennyire lesz képes futtatni az még a jövő rejtélye.
Majd a tesztek és a bolti ár tudatában meglehet mondani hogy mennyire sikerült nekik.Addig minden csak találgatás egy csipetnyi fantáziával fűszerezve. -
Abu85
HÁZIGAZDA
Ez nem így fog működni. A fixfunkciós blokkoknak mindenképpen kell egy nagyobb lapka, mivel rendkívül rossz lenne minden chipletbe külön raszterizálót, és egyéb fixfunkciós részegységet építeni. Amit az NV mutatott az rendben van az AI igényére kigyúrva, mert ott nem szükséges fixfunkciós blokk, de a grafika az más.
Az MCM egy jó lehetőség, de grafikai szempontból a kialakítás olyasmi lesz, mint amit látsz az új EPYC-nél. Lesz egy nagyobb lapka, ami nem tartalmaz ALU-kat, viszont minden fixfunkciós blokk ott van benne, és lesznek chipletek, amelyek gyakorlatilag a multiprocesszorokat tartalmazzák.
Ennek tényleg az a lényege, hogy a multiprocesszorokat tartalmazó chipleteknél viszonylag sokat ér a modernebb node, de mondjuk a fixfunkciós blokkok esetében ez már nem igaz, így itt megtartható az olcsó 12 nm.
Ennek nyilván hátránya, hogy a fixfunkciós blokkok miatt a vezérlőlapkát skálázni kell, de mivel ez 12 nm-en maradt, így olcsó megtenni.Ribi: Az interfész szempontjából linkekről van szó, vagyis ha mondjuk kettő link nem elég gyors, akkor raksz bele négyet, ha az is kevés, raksz bele hatot, stb. Így ez akármeddig skálázható.
-
Ribi
nagyúr
Ez azon nem változtat, hogy minél több izén megy keresztül az adat, annál nagyobb lesz a késleltetés.
És annál rosszabb az egyes részegységek "együtt futása" és egymással kommunikációja. Ryzennél még csak 2 modul van és nincs közben még + cucc, mégis észrevehető lassulást eredményez. 36 egységnél mi lesz? -
Tyrel
őstag
#40033
"Sokan fújtak itt a GCN-re, hogy sz*r meg leáldozott neki, de én még mindig úgy hiszem hogy logikailag nincs vele semmi egetrengető probléma, egyszerűen "csak" az energia-hatékonyságát kellene valahogy jelentősen növelniük... Ha ezen az egy ponton valami csoda folytán sikerülne nekik egy jó nagyot lépni előre a Navi-val, akkor sztem nagyon is versenyképesek lehetnek majd."A Radeon VII nem mérvadó, a Vega túlzottan elment compute irányba és egyébként nem is egy alapjaiban 7nm-re tervezett GPU... simán csak megtekerték a zoom slider-t "CAD-ben", de nem tervezték át az egészet...
A Navi inkább a Polaris utóda lesz, és egyben az első valóban 7nm GPU is.Szerintem vegyes fogadtatása lesz, egyrészt ünnepelni fogják amiért megmutatja majd, hogy van még létjogosultsága a GCN-nek... másfelől viszont szerintem sokan köpködni is fogják, egyrészt mert várhatóan nem a felső kategóriát célozza és sokaknak csalódás lesz hogy az RTX 2070+ kártyák nem kapnak ellenfelet és indokot az árcsökkentésre... továbbá szerintem a középkategóriába is magasabb áron fog megérkezni, mint amire számítanak a túlzóan optimista leak-ek.
Azon viszont nem lepődnék meg, ha nem kéne rá őszig várni... -
Tyrel
őstag
Arra gondol hogy ott is probléma volt ezek mennyiségéből, az egyik játéknak az egyik fajtából kellett több, a másiknak a másikból, e miatt nagyon ingadozott hogy melyik játék melyik GPU-n futott jól... mígnem bevezették az unified shadereket, amik bármelyik feladatot el tudták látni, és onnantól a program/programozó/driver allkoláhatta ezeket az erőforrásokat, nem a hardver, kötötten.
Az nVidia féle RT-vel pontosan ugyan ez a baj.
...és ezzel vissza is értünk az első hozzászólásomhoz, mi szerint a meglévő shader/stream processzoroknak kellene inkább egy új utasítéskészlet kiterjesztés (ahogy eddig is tették), esetleg minimális felokosítás (pl. kicsit nagyobb regiszterek), hogy hatékonyan tudjanak ray tracing szimulációt is futtatni - erre mondtam hogy remélem az AMD ezt az irányt fogja követni.
Így továbbra is az adott program döntheti el, hogy mit csinál a chip-el, nem lesznek kötött, esetlegesen dead-weight részei. Ha még mindig nem érted sajnálom, de nem kívánom még 200x leírni ugyan azt pepitában...
-
Tyrel
őstag
Nem értem mit nem értesz...
Jelenleg a Turing azt csinálja hogy van mondjuk 2000 CUDA Core meg mellette akkora GPU területen amin elférne még legalább 1000 ugyanolyan CUDA Core, ott van a RayTracing cucc.
Ezzel a fejlesztők döntése csupán annyi, hogy az RT részt használatba veszik-e, vagy sem. Ha nem tudják mire használni, mert az adott játék nem kívánja, vagy szimplán nem értenek hozzá, vagy nincs pénzük DXR-t tanulni és implementálni, akkor a GPU-nak az a része ott alszik, nem jó a világon semmire.Ezzel szemben azon a GPGPU megoldáson amit én tartok továbbra is előnyösnek, azon a fenti chip-területen nem RT-specifikus részegységek lennének, hanem ott lenne az a hiányzó ~1000 CUDA Core... aztán amelyik fejlesztő akar RT-t, az az összesen 3000 CUDA Core egy részét allokálhatná erre a feladatra, pont ahogy a Crytek teszi a fenti techdemóban... akinek meg ez az egész RT cucc bármi okból nem kell, annak 2000 helyett 3000 CUDA Core állna rendelkezésre, amin kedvére futtathatna bármit... nem csak shading-et, hanem pl. OpenCL kóddal bármi okosságot, részecskeszimulációt, AI-t akármit.
Ezzel amit az nVidia csinált a Turing-al, ezzel kivették a fenti döntést a fejlesztők kezéből. Ezen mit nem lehet érteni? Vagy RT-re használják a GPU azon részét, vagy semmire. Ez szerintem egy alapjaiban rossz megközelítés.
Az már csak hab a tortán hogy a hatalmas célhardverrel gyorsított RT még a felsőkategóriás kártyáikon is köhög 1080p felett... Igazán nem értek el a célhardverrel jobb teljesítményt mint a Crytek nélküle... (techdemo 4K 30fps sebességre képes célhardver nélkül)
Kb. bekapcsolod az nVidia RTX-et és feleződik az fps... pont ugyan ez lenne az eredmény, ha CUDA Core-ból lenne több, és azok felét hirtelen lefoglalná RT számításra; Csak épp ha ezt nem akarnád, akkor használhatnád azokat a magokat másra... így meg nem. -
Tyrel
őstag
?? A DXR nem az nVidiától származik, MS / DX12 szabvány, csak a Turingok kivételével nem implementálták még semmire... de épp ez a mondandóm lényege is, hogy az a megoldás amivel az nVidia implementálta a DXR-t, az nem tetszik. Tök nyilvánvaló hogy ha az általános stream-processzorok egy része elmegy DXR-el játszadozni, akkor kevesebb erőforrás marad másra, egy szóval nem mondtam hogy ez nem így lesz... csak azt hogy, ez a fejlesztő döntése legyen.
Ne a hardver szabja meg, hogy milyen eljárásokat használhatnak és abból mennyit, ne a farok csóválja a kutyát! A hardver legyen általános, és dönthesse el maga a fejlesztő, vagy legrosszabb esetben a driver, hogy mit kezd vele.
Szerintem el se olvastad amit írtam, csak megláttad egy mondatban azt hogy "nVidia" meg hogy "rossz", és máris ugrottál védeni őket...
-
Tyrel
őstag
Úgy értem a célhardver nélkül dolgot, hogy szerintem meg kellene maradni a GPGPU iránynál, azaz olyan uniform shaderekkel / stream processzorokkal telepakolni a cuccot amik bármire használhatóak. Persze ezek utasításkészletét lehet reszelgetni, bővítgetni, kb. pont ahogy az x86 CPU utasításkészletének is számtalan kiterjesztése van már, de az alap irány ez kellene hogy maradjon...
Nekem ez a Turing-féle megoldás, hogy ott van egy nagy vödör tranzisztor a GPU-n amikkel a programok többsége nem tud mit kezdeni, és még amelyikek épp tudnak, azoknak is különböző korlátozásokkal kell szembesülniük... szerintem ez rossz út. Legyen egy általánosan bármire befogható, nagyon nagy számítis teljesítményű chip, és dönthessék el a fejlesztők, hogy mit csinálnak vele, akár részletekbe menően is, ha úgy akarják. A konzolok pont ettől tudnak a PC-vel versenyképes grafikai szintet hozni sokkal-sokkal gyengébb hardveren.
Ha a fejlesztő úgy dönt mint adott esetben a Crytek, hogy ő ray-trace-elni fog a GPU egy részén, hát áldás rá, csinálja bátran mert alkalmas rá a vas... ha egy másik meg épp úgy dönt, hogy az ő játékának épp GPU gyorsított AI-re, vagy valami nagyon erős AntiAliasing-re van szüksége, akkor ő meg hadd csinálja azt ugyan azzal a GPGPU-val. Legyen a fejlesztők kezében ez a döntés!
Ez amit nVidia csinál, hogy "márpedig most raytrace-elni fogsz k*csög, mer' azzal tudjuk eladni az új videokártyánkat!!!", ez nekem nagyon ellenszenves, lehet hogy az adott játéknak nem is lenne erre szüksége, ugyan úgy ahogy anno a PhysX-re vagy épp a Hairworks-re sem volt egyes alkotásoknak, csak pénzért bele erőltették... de ez rossz megközelítés, szerintem nem a hardvernek hanem a szoftvernek kellene diktálnia.
Szerintem a konzolok miatt az AMD ezen a GPGPU vonalon marad, valószínűleg azért nem is mondanak semmi konkrétumot pl. a RayTracing-ről mert azt már biztosan tudják, hogy a célhardverük nem lesz rá, azt viszont talán még nem, hogy a szoftveres megvalósítása hogyan lesz megoldva.
Sokan fújtak itt a GCN-re, hogy sz*r meg leáldozott neki, de én még mindig úgy hiszem hogy logikailag nincs vele semmi egetrengető probléma, egyszerűen "csak" az energia-hatékonyságát kellene valahogy jelentősen növelniük... Ha ezen az egy ponton valami csoda folytán sikerülne nekik egy jó nagyot lépni előre a Navi-val, akkor sztem nagyon is versenyképesek lehetnek majd. -
Petykemano
veterán
Szerintem eDRAM-ot fognak az IO dieba pakolni.
"Given the size of the 128MB eDRAM on 22nm (~84mm^2)"
Crystall wellnél megvolt 128MB 84mm2-ből 22nm-en. A semiwiki szerint az edram cells 0.029 µm² a GF HP nodeján csak 0.0174 µm²
Tehát a zen magok helyére egy 256MB-os edram is befér és nem.nagyobb az io Die mint a zeppelin.
Az Intel esetén a különálló lapka sávszélessége 2x50GB/s volt, ennél nyilván több kell.
A méretkérdést pedig az IGPn található HBCC megoldja. Csak nyilván több IF csatorna kell az IGP és az IO lapka közé.Ez megoldás gyártási költségekben nem jelentkezne nagy többlettel, ám persze más io lapkát kéne tervezni hozzá. De edram L4$ célú felhasználásáról amúgy is volt szó, hogy hasznos lenne. Ez eggyel több ok ebbe az irányba.
A másik út a HBM.
-
-
#45185024
törölt tag
Igazándiból nem az a baj hogy mit tud.
csak a Furyk /X 550 650-ben jött annó az az ár ami még kb a szakítószilárdság vége volt amióta csak romlott a forint.
Most 200 fölött nagyon kevesen tudnak kártyát venni,, tök mindegy mit tud...
Ebben kódolva van a 4K 8 K tartalom készítés
meg a tavasszal microsoft által kihozni akart MI
belecseppentenek egy Shader Model 6.5 öt
és indulhat az újféle M.I.-s bányászláz. Megvan a B oldal. -
Jacek
veterán
De az tudod hogy a leakek nem erről a kártyáról szóltak, tudod te
Tehát az AMD nem mondott soha olyat hogy jön egy 2070 teljesítményű Vega refresh 350 dollárért.
Egyébként nem múlt el semmi hanem egyszerűen az NV azt godolja hogy oda tolja az árakat ahova akarja, és majd az AMD nem követi vagy hogy? Természetesen lehet mindekét oldalt hibáztatni a kialakult helyzetért.
Aztán majd a kereslet csökkenése miatt árat emelnek és a kereslet megint csökkenni fogÉS valszeg a PC gaming koporsójába megint egy szög a 350 (aib 400?) középkategória, PS4Pro áránal koricálunk
-
Abu85
HÁZIGAZDA
Tényleg nem akarom a konzolt felhozni, de a helyzet az, hogy ilyen árak mellett...
Alapvetően a pénztárcával mindig lehet szavazni, az egy világos üzenet még a gyártók számára is. 130 körül lehet venni PS4 Prót, amire bitang jó játékok vannak. A PC meg jó írogatni.
Persze én könnyen beszélek, amikor közvetlenül tudok vásárolni a gyártóktól.
De ha mondjuk bolti árat fizetnék, akkor marhára nem fejleszteném ám a PC-t.
-
#45185024
törölt tag
"hülyeség volt rátenni ennyi ramot, lehetett volna 599$ is 8 GB rammal.,"
ezt már közben megcáfolták máshogy nem is lehetett volna"Tippre ez a professzionális piacra szánt GPU ról jön le ami ott kiesik,azt elnyomják itt jó áron."
Ez a tipp jó !Nem kell Radeon VII szobát csinálnom ez Vega köszi amd
és "eksönli" a Vega 56 utódja nem is a 64-éJa és 16 GB HBM az nagyon jó dolog tud lenni sokmindenre ez tetszik
nyilván nem fogok venni mert 240 fölött én sose vennék semmit... így csak szimplán tetszik
majd meglátjuk lesz e valamilyen módon kistesója...Ja és az a kis nyomi mosolyjel CPU az nagyon ari na aki meg tudja magyarázni az csipletet az mondja ne tartsa benn. De az I/O lejött ez a lényeg.
-
Dyingsoul
veterán
Ugyanez lebegett az én szemem előtt is. Várom a napot mikor az AMD képes lesz kijönni olyan GPU-val ami üti (és nem 1-2%-kal) a top Nvidia GPU-t... Viszont amíg ez nem következik be Nvidia lesz a gépemben... (a mostani 1080 Ti-m is hozza azt a szintet amit a Forzában mutogattak, sőt... nem tudom mi értelme van redditen is a red teamezésnek)
-
Abu85
HÁZIGAZDA
DX12-ben igen, de a Vulkan módját jobban szereti az NVIDIA ennek a játéknak. Ott közelebb vannak az eredmények. Persze a Vulkan 3-6%-kal lassabban is fut általánosan.
(#38602) Dareiosss: Olcsó hardvert már ne várjatok. Jóval korábban megmondtam már. A VGA-piac eladásai eléggé összeestek 5 év alatt. Egyszerűen annyira kevés a vásárló az évtized elejei szinthez képest, hogy a költségek növekedése mellett muszáj új árszinteket bevezetni. A középkategória mostantól 350 dolláros szint. Ha nem tetszik, akkor ott a konzol, de ettől a piac csak ilyen körülmények között tud megmaradni.
-
Dareiosss
senior tag
Így van. Sztem ezen az áron egy kanyi vasat sem fog keresni az AMD ezzel a karival. Plusz ha nem csökkentik a vega56, vega64 árát, azokkal sem, mert jön a 2060 ami sokszor hozza a vega 64 szintjét lényegesen olcsobban RTX el...
Én jóárasított Vega56 ra várok, de ha nem fog eljönni, veszek egy 2060 at.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Nintendo Switch
- Black Myth: Wukong
- Autós topik
- Kevesebb dolgozó kell az Amazonnak, AI veszi át a rutinfeladatokat
- Milyen autót vegyek?
- Stellar Blade
- Kormányok / autós szimulátorok topikja
- Realme 9 Pro+ - szükséges plusz?
- BestBuy ruhás topik
- A fociról könnyedén, egy baráti társaságban
- További aktív témák...
- Ultimate előfizetés új fiókra akár 2105 Ft/hó áron! Azonnali, automatizált aktiválással, csak Nálam!
- Fotó állvány eladó
- AKCIÓ! Lenovo IS8XM LGA 1150 DDR3 alaplap garanciával hibátlan működéssel
- Telefon felvásárlás!! Honor 90 Lite/Honor 90/Honor Magic5 Lite/Honor Magic6 Lite/Honor Magic5 Pro
- Több Lenovo Thinkpad x1 carbon gen 4 / 5 / 6 / 7 X1 Yoga gen3 6-9. gen i7, i5 procik
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: PC Trade Systems Kft.
Város: Szeged