- Csak semmi szimmetria: flegma dizájnnal készül a Nothing Phone (3)
- Samsung Galaxy Z Flip5 - ami kint, az van bent
- A sógorokhoz érkezik a kompakt Vivo X200 FE
- Azonnali navigációs kérdések órája
- Magisk
- Samsung Galaxy Watch7 - kötelező kör
- Mobil flották
- Hivatalos a OnePlus 13 startdátuma
- Poco X3 Pro - hardverfrissítés
- Redmi Watch 5 - formás, de egyszerű
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
hokuszpk
nagyúr
válasz
Petykemano #48595 üzenetére
"Nade amit mondani akartam, hogy lehet, hogy annak lesz igaza, aki azt mondta, hogy
40CU + 192bit
60CU + 256bit
80CU + 2048bit"mintha az 5700XT most is 40 CU lenne, es az nincs a csucson. ( *szerk : az NV zsugak mellett nem szamit csucskartyanak na ) valamit nagyon ki kellett talalni, hogy magasabb orajel mellett a szukebb 192 bites memoriavezerlovel ne a memoriasavszelesseg legyen a szuk keresztmetszet, es lehetoleg gyorsabb is legyen, mint az 5700XT
-
Mumee
őstag
válasz
Petykemano #48595 üzenetére
Kis Navi?
Big Navi? -
Petykemano
veterán
válasz
Petykemano #48590 üzenetére
Mindenféle pletyka volt már, ezért nehéz lenne beazonosítani, hogy mikor kinek lehetett igaza.
A cikkben írják ugyan, hogy a 192bit nem tuti, csak kalkuláció eredménye.Őszintén szólva én nem is tudom, hogy hogy jön össze a 192 bit a 2SE/4CE/40CU-val. Eddigi ábrákon ugye azt láttuk, hogy a 64bites memóriavezérlő szeletek 1-1 CE-hez kapcsolódnak.
Persze a kapcsolódás nyilvánvalóan nem kizárólagos, hiszen az 5600XT is elketyegett valahogy. De távoli memóriavezérlőről való adatigénylés járhat késleltetés-büntetéssel.Epyc esetén is minden chiplet csak a legközelebbi memóriavezérlő csatornákat használhatta, nem tudott 1 mag - sajnos - 8 csatornára párhuzamosan adatot igényelni
mi van, ha ezt a fajta laza kötést leválasztották és a késleltetést pedig az infinity cache fedi el?
Nade amit mondani akartam, hogy lehet, hogy annak lesz igaza, aki azt mondta, hogy
40CU + 192bit
60CU + 256bit
80CU + 2048bit -
válasz
Petykemano #48590 üzenetére
Kicsit olyan, mintha az NV-t gúnyolnák, bele lehet látni a megnevezésbe a Navi Founder's Editiont.
-
válasz
Petykemano #48423 üzenetére
Nem arról volt szó, hogy a Navi21 esetében a high performance libet használják, nem pedig a high densityt? Én úgy emlékszem Abu ezt mondta.
-
do3om
addikt
válasz
Petykemano #48378 üzenetére
Én sem értem mit kell nézni. Simán odafér a ram, ebből semmire nem következtetnék. Természetesen a HBM is kijön, szóval ebből felesleges találgatni, valami jobb kapaszkodó kellene.
-
Malibutomi
nagyúr
válasz
Petykemano #48387 üzenetére
Nem azt mondja.
Azt mondja az egyik Navi 60CUs lesz.
-
válasz
Petykemano #48392 üzenetére
Várjuk ki azért a végét, mert kb naponta jönnek ki egymásnak ellentmondó infók, ahogy volt az Ampere esetén is.
Nem kell beleélni magunkat semmibe akkor nagy baj nem lehet, maximum ha jó akkor kellemes csalódás
Amúgy ugye Abu azt mondta 2 kártya jön. Mi van ha ez a kisebbik? -
válasz
Petykemano #48387 üzenetére
Na most már csak 60 CU? Ennyit tud az AMD? Ezzel messze lesz a 3080.
-
TESCO-Zsömle
titán
válasz
Petykemano #48387 üzenetére
Egy 60CU-s kártya a mostani piacra édeskevés csúcsnak. Az kb 2080 Ti környéke, RTX3070 szint. Mármint nyilván az és attól levele van a piac színejava, de ha nem tudnak reprezentálni, akkor nem lesz hírverés, megint lehet az árakat reszelgetni... Az emberek zöme nem gondolkodik. Megnézi a legerősebbet és vesz a gyrátótól valamit, amire van pénz.
-
2xar
tag
válasz
Petykemano #48378 üzenetére
Ez menő méricskélés volt, grat!
Állítólag a 256 bit-es buszt sok cache-el próbálják kompenzálni, abban bíznak hogy az jobb teljesítmény/tranzisztor arányt hoz, mint +256bit beépítése hozott volna.
Sztem ez nem fog működni, hasonló melléfogás lesz, mint a HBM volt. Durván memórialimites lesz a kártya és lehet hogy épp ezért nem fogja tudni felvenni a versenyt a 3080-al.
Ráadásul nem is tudnak feljebb lépni GDDR6X-re ha jól tudom, mert az NV only.
-
hokuszpk
nagyúr
válasz
Petykemano #48375 üzenetére
esetleg (rtx) cache ?
-
TESCO-Zsömle
titán
válasz
Petykemano #48369 üzenetére
Az én fejemben is az jár, amit Buildzoid mondott. Túl nagyot terpesztenek azok a csavarok és ha csak a két szélső nem az ezüst betétet fogja hozzá a fekete hátlaphoz, akkor túl sok van belőlük egy sima GRRD6 konfighoz.
Elég megnézni, nVidiának milyen közel kellett raknia a modulokat a GPU-hoz, oda nem fér el egyszerűen annyi csavar, hogy ne rondítson bele a képbe. -
hokuszpk
nagyúr
válasz
Petykemano #48369 üzenetére
ne a "standard" HBM2 -vel szemben nezd.
milyen elonye van a gddr6x elleneben ? -
hokuszpk
nagyúr
válasz
Petykemano #48323 üzenetére
hmhm. mi van akkor, ha az AMD feltalalta az 512 bites HBM2E -t ?
-
válasz
Petykemano #48325 üzenetére
Azért nem ártana megvarni amíg megjelenik hogy mekkora is lesz a teljesítménye mekkora fogyasztással. A 3070 220 W TDP -n jön.
-
TESCO-Zsömle
titán
válasz
Petykemano #48327 üzenetére
De a Cezanne-ba még mindig nincs RDNA...
-
válasz
Petykemano #48325 üzenetére
Ez így rendben is lenne, csak vegyék is a zemberek az AMD notikat!
Az nagy előrelépés ebben a generációban az AMD-től várható, de elsősorban saját magához mérten (5700XT és Radeon VII), és az NV flagshipet (3080, ahogy bűrjakó nevezte) remélhetőleg meg tudja közelíteni. Abban nem hiszek, hogy le is nyomná. Most van rá lehetőség, hogy perf/W téren utolérje, sőt, meg is előzze az NV-t. Láttuk, hogy az RX 5700 milyen jó lett ilyen tekintetben (is).
-
Alogonomus
őstag
válasz
Petykemano #48325 üzenetére
"De ez az AMD számára a mobilpiacon való térhódításra akkor is rég nem látott lehetőségnek tűnik."
És emiatt az Intel is izgulhat, mert idáig csak Intel processzoros notebookhoz lehetett az RTX 2080 GPU-t rendelni, és ez is segítette az Intel-t notebook fronton.
-
awexco
őstag
válasz
Petykemano #48297 üzenetére
Szemre mutatós majd jönnek a custom kártyák amik saphire-t leszámítva csiricsáré kinézetűek lesznek .
-
Raymond
titán
válasz
Petykemano #48261 üzenetére
Nem igazan ertem miert tema itt egyaltalan hogy mit mond coreteks, AdoredTV vagy peldaul MILD. Ugyanannyi informacios erteke van mint barki mas hozzaszolasanak itt a topic-ban. Nem sok ertelmet latom az importalasat ezeknel a YT arcoknak.
-
hokuszpk
nagyúr
válasz
Petykemano #48261 üzenetére
a Coreteks veletlenul nem az Adoredtv masodlagos csatornaja ?
#48268 : "Mi van akkor, ha az NV a Navira rakja a traversal coprocessort? "
Zavar az erőben ? -
Malibutomi
nagyúr
válasz
Petykemano #48261 üzenetére
Nvidia koprocesszort megtalalta mar azota?
-
Busterftw
nagyúr
válasz
Petykemano #48261 üzenetére
"a 256bites navi kártya 250-275W-os fogyasztással talán megközelítheti a 3080-at"
Ez lenne a navi 22 ami kesobb jon, vagy navi 21?
-
Jack@l
veterán
válasz
Petykemano #48229 üzenetére
Nem hiszem hogy leválasztják a képrnyőt szeltekre, akkor a dula gpu is simán működne majdnem 100%-os sebességgel. Amit irtál (foglamam sincs hogy mukodik belulről), ahhoz még képzelj hozzá egy plusz késleltető réteget, ami a geometriát, texturát kénytelen a másik gpu memóriájából kiszedni, vagy oda menteni. Ez az amin nagyot fog bukni a konstrukció.
Két memvezérlőlesz szerintem és kettéválasztot memória. Elég érdekes lenne ha 2 vezérlő ugyanazt a memóriát irhatná-olvashatná egyszerre... -
válasz
Petykemano #48226 üzenetére
Nem talán, biztos.
-
awexco
őstag
válasz
Petykemano #48192 üzenetére
Amd telefon GPU fronton mi a történés mert jó ideje nem hallani semmit ...
-
TESCO-Zsömle
titán
válasz
Petykemano #48189 üzenetére
Engem az érdekel, hogy miként oldják ezt meg úgy, hogy a kihasználásához ne kelljen külön optimalizáció.
Illetve, hogy mi ment félre, mert ez megint amolyan kiskapu/vakvágány szagú. Főleg ,ha a konzolokba nem került bele... -
válasz
Petykemano #48172 üzenetére
A Borderlands érték az eddigi leakek alapján stimmel a 3080 ra, ez alapján lehetne éppen valós. A Control már sántít kicsit.
-
Robi BALBOA
őstag
válasz
Petykemano #48175 üzenetére
2db 8gb-os stack + 2db 4gb-os stack
Hopp, kicsit lemaradtam ezzel.
Amúgy a méretet a konzol igp-hez mérni azért nem érdemes, mert volt szó róla, hogy azt annyira nem tömik ki Cache-el, itt meg szó van 12mb l2 Cache-ről, ami nem pici.
-
Devid_81
félisten
válasz
Petykemano #48175 üzenetére
Sehogy nem jon ossze a matek amugy.
Mindenesetre mar lattam en is ezt a kepet, vagy itt vagy kulfoldi lapokon. -
válasz
Petykemano #48172 üzenetére
De jó is lenne
-
Alogonomus
őstag
válasz
Petykemano #48167 üzenetére
Radeon Image Sharpening beüzemelhető minden játékban, DLSS viszont csak nagyjából 20 játékban.
Pirelli P Zero abroncs is jó, csak tükörsima út kell hozzá, ahol defekt veszélye nélkül használható. Egyéb esetekre pedig ott vannak a széles körben használható abroncsok, amik gyengébben szerepelnek, de el tudsz menni velük a vidéki utakon is. -
paprobert
őstag
válasz
Petykemano #48167 üzenetére
Mert a RIS (valójában CAS) csak egy élesítő filter, ami kevesebb képi hibával és kisebb erőforrásigénnyel dolgozik, mint a korábbiak.
A DLSS viszont élsimítás és élesítés egyben, ami a magasabb felbontások részletességét tudja lehozni a kis felbontású képhez. Ha jól működik.
(#48168) Callisto
"Nem natív render. Lószart sem ér annak akinek a minőség a fontos."
A quality mode-ot azért egyszer nézd meg. Az 1440p-n renderelt játék szebb tud lenni mint a natív 4K. -
Callisto
őstag
válasz
Petykemano #48167 üzenetére
DLSS upscaling. Nem natív render. Lószart sem ér annak akinek a minőség a fontos. Éppen ezért nem szabad DLSS-el végzet teljesítménymérést hasonlítani natív méréséhez.
A RIS teljesen más célt szolgál. -
Malibutomi
nagyúr
válasz
Petykemano #48163 üzenetére
Epp ezt irtam talan tegnap hogy total helyet cserelt a ket ceg..
AMD most vette ki a jatekra valo kartyakbol a felesleges szarokat, az NV meg belepakolta a sok compute kepesseget ami nincs is igazan kihasznalva, es sokat is fogyasztanak a kartyaik.
Most mintha AMD lenne a Maxwell es NV a GCN.
-
Malibutomi
nagyúr
válasz
Petykemano #48158 üzenetére
Ez amugy igaz, tuti ez lenne.
Kijonne az info hogy a navi 22TFlops egybol a sok kreten szajkozna hogy haha akkor gyengebb lesz mint a 3070.
A mar nem jonne le nekik hogy a 3070 20 tflops-al epp beeri a 2080ti-t ami 13 tflops-t tud.
Szoval a 22tflops navi siman a 3080 mellett lehet, de ez tuti nem menne at az 1 bites embereknek
-
válasz
Petykemano #48158 üzenetére
Digitalf foundry féle kamu teszt jöhetne.
-
Alogonomus
őstag
válasz
Petykemano #48141 üzenetére
"Ott volt az a kép a procihűtés ES kártyáról. 256 bites rammal."
Erősen kétlem, hogy az AMD tesztlaborjában olyan poros környezet lenne, mint ami azon a képen van. -
hokuszpk
nagyúr
válasz
Petykemano #48141 üzenetére
valamit nagyon sumakol az AMD, az XBOX adataibol kiindulva szamolgattam, az jott ki, hogy nem 22TFlops kornyeken van a BIGNAVI, hanem 250 wattbol tud 25 TFlops kornyeken.
-
Mumee
őstag
válasz
Petykemano #48144 üzenetére
Olvastad az újat is?
"256-bit 128 ROP WTF" -
válasz
Petykemano #48141 üzenetére
az nem lehet amúgy hogy a nagy navi priofeszionális cucc lesz
és hogy az a félig procihűtős cucc valójában majd vizet kap ? -
Devid_81
félisten
válasz
Petykemano #48141 üzenetére
Mondtam en, hogy az nem lesz a Big Navi.
A legnagyobb ugy lesz 300-350Wattos mint a pinty.
Azon se lepodnek meg ha kapnank egy durva HBM2e verziosat, abbol 4 stack es majdnem 2TB/s
Annak aztan lehetne mutogatni a kozel 1TB/s 3090-et...
De ezt max prof piacra vagy Apple, bar ki tudja, ha versenyezni akarnak vegre es nem csak bohockodni... -
schwartz
addikt
válasz
Petykemano #48108 üzenetére
Tudsz linket adni a szoban forgo a tesztekhez? (legyszi). Thx
-
Malibutomi
nagyúr
válasz
Petykemano #48110 üzenetére
Ezt a nagy compute duplazast nem is ertem, most pont forditva van a ket ceg mint eddig.
Most az NV kartyaknak van nagy (es reszben kihasznalatlan) compute teljesitmenyuk es zabalnak mint az allat, az AMD meg pont kulon vette a CDNA-t meg RDNA-t hogy a jatekos kartyakban csak a lenyeg maradjon.
-
Malibutomi
nagyúr
válasz
Petykemano #48108 üzenetére
Igy is az lesz mert az atlag internetfogyaszto nem ert hozza. Huu a navi 22Tflops az Nvidia 3080 meg 30 akkor az a jobb szoval veszek egy 3050-et mert en is nagyfiunak akarom magam erezni.
Pedig ugye mit latunk hogy a 3070 1.5X annyi szamitasi teljesitmennyel (elvileg) eri el a 2080ti szintjet 20Tflops vs 13Tflops.
-
Jacek
veterán
válasz
Petykemano #48043 üzenetére
Én pl. erősen ingadozom most mért jó az hogyha veszek egy 3080-at az AMD-nek
Lehet hogy lecserélem majd de biztos nem 1 hónap múlva. Ha semmi még igéret sem jön szep 17-ig ez van.
-
Jacek
veterán
válasz
Petykemano #48040 üzenetére
Ha valamire való a Bnavi teljesen kretének az AMD-nél ha nem tolnak egy büdös nagy paper launchot 17-e előtt... Ha már ígérni sem tudnak az gáz.
-
Carlos Padre
veterán
válasz
Petykemano #48040 üzenetére
Értem, ok.
-
Carlos Padre
veterán
válasz
Petykemano #48036 üzenetére
Hova gyorsulnak az "események" ?
-
Carlos Padre
veterán
válasz
Petykemano #48034 üzenetére
Hova? Meg milyen események?
-
Abu85
HÁZIGAZDA
válasz
Petykemano #48030 üzenetére
A textúra felbontása nem befolyásolja a sebességet. Egységes szűrés mellett 8K-s és 1K-s textúrákkal is pontosan ugyanannyi mintavételből lesz számolva a kép, csak 8K-val a mintávételek pontosabbak, mert részletesebb maga a textúra.
-
Yany
addikt
válasz
Petykemano #48024 üzenetére
Erre 2 dolog jutott eszembe:
1. Legyen pici a gamer/diy piac. Anyagilag, talán. De egy valamiben óriási: reklám. Iszonyat ereje van. Ha nem lenne, az Intel sem igyekezne hangemberkedni a diáin és eloszlatni pl. az AMD APU-inak erejével kapcsolatos (valós) beidegződéseket, ld. 4800U-val való folyamatos összehasonlítgatások. Szóval tegyük fel (még ha nem is értek teljes mértékben egyet, mert azért nem aprópénzről beszélünk még világcéges szemmel nézve sem), hogy pénzt nem sokat jelent, de ha körbenézel az Interneten, olyan gigantikus reklámereje van ennek a hírhadjáratnak, ami övezi, hogy kihat minden kapcsolódó piacra. Erődemonstrációs eszköz és nem is szégyellik erre használni a piacot. Nincs ezzel baj, mert a piac felvevői (mi) megkapjuk a kis falatainkat. Szóval nagyon másképp vélem: nagyon is fontos, csak legfeljebb nem (csak) azért.
2. "Meggondolták magukat": amelyik cég waterfall tervezéssel, a piac aktuális állapotához idomulni képtelen stratégiával lép színre, az nem hogy középtávon, de már rövidtávon is bukásra van ítélve. A pivotálás, vagy csak idomulás nem szégyen, vagy gyengeség. Épp ellenkezőleg: dinamikus, éber viselkedés. Szóval bármi is volt az eredeti cél (mert ugye nem tudjuk, hogy novemberig akartak-e várni, ez csak sejtés volt sokak részéről, a konzolokból kiindulva), egyáltalán semmi kivetnivalót nem látok abban, hogy a korábbi tervektől esetleg eltérnek az RDNA2-es termékek marketingjénél. Lean.
Az "Abu azt mondta" kártyán is sokan csak nevetnek, én meg erre is a 2-es ponttal tudok csak reagálni. Simán lehet, hogy Abunak maga Lisa mondta és 100% valós információk alapján tájékoztatott minket minden pillanatban, de ettől még a változ(ta)ás joga az AMD-é. És mert egyszer ez volt a terv, és ne adj' Isten kimondta valaki, attól még nem kell, hogy úgy is legyen.
De mindettől függetlenül, ha maga Lisa mondaná itt, hogy: nem, nem árulunk el többet október/novemberig... akkor is ezt mondanám: "egy mínusz", mert 3080-at fogok venni, nem várok az újabb overpromise-underperform csalódásig. Van egy 4k UW kijelzőm, alig várja már, hogy méltón kiszolgálja valami. (egyébként de, lehet, hogy várok, de csak azért, mert nem hajt a tatár, hacsak azért nem, hogy mielőbb megváljak a Sapphire Vega64-estől még emberi áron).
-
Yany
addikt
válasz
Petykemano #48022 üzenetére
Nem fér bele, csak ha le akarnak(!) mondani a piac jelentős részéről. Mármint abból a csoportból, ami amúgy az övék is lehetne, ha jó a termék. Ezt most már evidencia, szóval jó eséllyel nem csak teaser jön, különben halottnak a csók esete...
-
arabus
addikt
válasz
Petykemano #47994 üzenetére
80 cu-s chip biztos lesz de hogy ez melyik azt nem tudjuk.
a többi értelmetlen
a konzolos az más design.
xbox 56cu 4 letiltott
ps5 40 cu 4 letiltott
ezek abszolút nem mérvadóak csak annyiból hogy méret szempontjából
az 56 cu nincs 180mm2.
persze ehhez még majd hozzá jön a memória vezérlő méret meg a médiáért felelős részek
de az alap nem rossz. -
Abu85
HÁZIGAZDA
válasz
Petykemano #47954 üzenetére
De mit lehet a mostani RDNA2-n változtatni? A packing az már int4-ig megy, hova szeretnéd még növelni?
(#47955) paprobert: A DirectML egy API. Az a DLSS problémáit nem oldja meg. A rendszer gondja nem az, hogy nem lehet megcsinálni, hanem az, hogy nem raknak bele elég pénzt. Rengeteg játék támogatja már, és lényegében csak a Death Stranding alatt működik tervszerűen. És mi a Death Stranding jellemzője, az elejétől a végéig egy igen egységes környezetet használ, vagyis pont ideális az ilyen felskálázásra, mert el lehet érni, hogy nagyjából mindent fel tudjon ismerni a neuronháló és kezelni is tudjon.
Ami miatt ezek az AI felskálázások a DirectML elérhetősége ellenére sem érkeznek az a neuronháló problémája, ugyanis le tudsz egy olyan tréningelni, ami a játék 30-40%-ában jól működik, 30-40%-ában felemásan, és a maradék részben csapnivalóan. Tehát még egy azon játék esetében is lesznek olyan jelenetek, amikor szuper az eredmény, és olyanok, amikor okádék. És jelenleg egyetlen fejlesztő sem hajlandó jelentős erőforrást fektetni arra, hogy az gyenge minőségű jeleneteket felhúzzák. Ez nem gond egy Death Strandingben, de jelentős gond más játékban, ahol azért a tartalom mennyisége sokszorosa a Death Strandingnek.
Ezzel tehát kísérletezik a Microsoft, de ugyanazt tudják elérni, amit az NV. Kevés tartalom mellett kb. mehet, sok tartalommal a játék egy része irtó ronda lesz, míg egy másik része csodaszép. És az irtó ronda rész az problémaként éli meg a Microsoft.Az az AI felskálázás addig nem fog igazi áttörést elérni, amíg a stúdiók nem hajlandók jelentős mennyiségű időt és pénzt belefektetni, illetve bérelni egy rakás teljesítményt mondjuk a Microsofttól, hogy egy jó neuronhálót tréningeljenek. A Microsoft sem igazán erőlteti, mert tudnának jó részeket kiválogatni a játékokból, de mi van, ha eljutnak a tesztelők azokhoz a részekhez, amiket a neuronháló éppen nem fed le?
(#47968) Robi BALBOA: Éppenséggel ez elérhető. A Microsoft megoldása nagyon kevés tartalommal simán tud AI felskálázással a natív minőség fölé kerülni. A problémát az jelenti, hogy egy játékban nagyságrendekkel több tartalom van, és arra már sokkal nehezebb jó neuronhálót tréningelni. Technikailag kivitelezhető, csak még nincs meg a fejlesztői akarat, hogy ebbe komoly mennyiségű erőforrást öljenek, márpedig az AI felskálázás ilyen, pénz nélkül félkarú óriás.
-
arabus
addikt
válasz
Petykemano #47958 üzenetére
-
arabus
addikt
válasz
Petykemano #47944 üzenetére
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47950 üzenetére
Az AMD kínál egyféle dizájnt, azt RDNA-t a GPU-knál és a Zent a CPU-knál. Szóval ja a választás az MS és a Sony kezében van, de egyből választanak.
Például milyen döntést?
-
poci76
aktív tag
válasz
Petykemano #47944 üzenetére
Ha a big navi busza 384 bites, akkor nem 16 gb ram lesz rajta.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47944 üzenetére
A Sony és az MS nulla GPU-t tervezett eddig. Amit kapnak a konzolok, azok 100%-ban AMD tervezések. Az MS és a Sony pár saját vagy third party elemet rak hozzá a lapkához, de egyik sem a CPU és a GPU része, ehhez nem értenek. Ha kell valami a CPU-ba vagy a GPU-ba, azt inkább megrendelik, mert zéró tapasztalat áll szemben a sok évtizeddel.
Egyébként bármi bejött a Moore's Law is Dead/Coreteks vonalról eddig? Mert én se DLSS 3.0-t nem látok, se NVCache-t, se tensor tömörítést, se traversal coprocessort...
-
UnSkilleD
senior tag
válasz
Petykemano #47944 üzenetére
ez a 40%-kal nagyobb teljesítményű navi valszeg egy 56-60cu modell lehet
és lehet hogy ez fölé jön még egy nagyobb 80cu kártya ezt nem tudjuk
-
BoneDragon
veterán
válasz
Petykemano #47866 üzenetére
Pont én linkeltem nemrég...
-
Devid_81
félisten
válasz
Petykemano #47853 üzenetére
Nagyon helyes, ha annyit tud mint a 3080 -/+5% akkor mar egy 16GB-os verziot eladtak nekem, azt se banom ha vegre le kell csereljem erte a G-sync monitorom egy Freesync-esre
-
Malibutomi
nagyúr
válasz
Petykemano #47830 üzenetére
A 3080 szintjet sztem 100% meglepi a Navi sima shader teljesitmenyben, egyedul a RT teljesitmenyrol nem tudni semmit
Csak gondoljatok bele, ha semmit nem fejleszt az AMD csak hoz egy duplazott 5700XT-t az mar a 2080ti felett van teljesitmenyben, vagyis a 3070 korul/felett.
Ehhez johet meg ha minden igaz 20% koruli orajel emeles es akkor az RDNA1->RDNA2 fejlesztesek meg szoba sem kerultek.
-
EXA
aktív tag
válasz
Petykemano #47774 üzenetére
Értem.
Késő?
Addig sem kell egy talicska pénzt kártyára költenem.Én most már megvárom mit lép az AMD, ha meg nem lesz nagyon semmi, akkor veszek egy nv-t nagyon mellélőni nem tudok szerintem, a 290-nél már minden jobb lenne.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47748 üzenetére
Nem. Azért tűnnek furának, mert az utóbbi időben a GPU-kból eltűntek a co-issue és dual-issue feldolgozók, de régen igen sűrűn voltak ilyenek bevetve. Talán emlékszek még az R600-ra, ami szám szerint 320 FP32-t használt, de úgy, hogy 1+1+1+1+1 co-issue módban üzemeltek a multiprocesszorok (és ez igaz volt egészen a GCN-ig, bár az utolsó dizájnok már 1+1+1+1 co-issue módra váltottak vissza). Ezzel szemben ment az NV-nek a G80-ja 128 FP32-vel, de mindenféle co-issue nélkül. De itt az Intel is, ami 4+4 co-issue multiprocesszort használ. Az utóbbi időben ezek a trükkök kikoptak a GPU-kból, mert a komplex kódokban nagyon nehézzé vált a co-issue mód kihasználása, de hardveres szinten ezek azért megfontolandók, mert a tranzisztorköltsége nem nagy a nyers ALU-knak. Ami igazán viszi a tranyót az az ütemezés, az adatbusz, a regiszterek, stb. És pont ezt kerülik meg ezek a co-issue módok, amik valami speckó helyzetet kihasználva hozzácsapnak némi extra kapacitást a rendszerhez. Ezzel kvázi dupla ALU-t kapsz anélkül, hogy jelentős tranzisztorköltsége lenne, cserébe nem olyan a multiprocesszor utilizációja, hogy azt a dupla ALU-t olyan hatékonyan lehessen felhasználni, mintha erre ráterveznéd az ütemezést, a regisztereket, az adatbuszt, stb. Ezért sem tudja az RTX 3080 a nyers paraméterek alapján nagyjából háromszoros előnyét háromszoros fps-re váltani a 2080-hoz képest. Ebből az NV szerint kétszerest abszolvál a gyakorlatban, bár mondjuk nyilván minden szentnem maga felé hajlik a keze, de most tegyük fel, hogy hoz ennyit. Tehát az FP32 utilizáció lényegesen rosszabb lett, de arányaiban azt kell nézni, hogy a befektetett tranzisztorköltséghez képest mit javult.
Az efféle módokról egyébként az teljesítményingadozás miatt álltak le a gyártók, mert az R600-ra például jellemző volt, hogy valahol nagyon alázott, valahol pedig nagyon szar volt, és ez attól függőt, hogy egy adott alkalmazásban mennyire lehetett kihasználni a specifikus működési módokat. Ha például egyáltalán nem lehetett, akkor az R600 320 ALU-jából használható maradt 80 (az NV például külön ezzel szopatta az AMD-t, hogy teleírta a fejlesztőknek leadott kódjait függőséggel). Tehát a teljesítménye jó részét elvesztette. Valószínű, hogy az egész co-issue-féle trükközés a sugárkövetés miatt tért vissza, mert oda eleve kell int32, és azokat az ALU-kan nem volt nagy meló megtoldani FP32-vel, még csak komoly tranzisztorköltség sem.
Manapság egyébként a gyártók pont azért nem tudják jelentősen megszopatni egymást a fejlesztőknél, mert nem alkalmaznak semmilyen co-issue trükközést, de régen keményen szívatták egymást, hogy direkt limitre rakták az adott dizájn működését, és úgy elvették tőle a benne lévő teljesítmény jó részét. De ennek már majd 10-15 éve, azóta szerintem jó útra tértek, és biztos nem fogunk majd ilyen szopatást látni az AMD-től és az Inteltől.
(#47755) b. : Szerintem félreérted, én régen nagy híve voltam ezeknek a megoldásoknak.
Az R600-at pont emiatt tetszett nagyon, mert egy rakás ALU kapacitást raktak bele ilyen trükkökkel. Nyilván ezek a megoldások kikoptak, de újszerű GPU-kat kell tervezni az új igényeknek, és ha belegondolok, hogy int32 kell a sugárkövetésnek, akkor nagyon is jó ötlet azt kiegészíteni FP32-re is. Tranzisztorköltségben nagyon kicsi lábnyoma van, és ha a kódok 20%-a képes kihasználni, akkor már megérte. Emiatt írtam, hogy nem azt kell nézni, hogy maga az utilizáció kifejezetten alacsony lesz (ez jellegzetessége a trükkös dizájnoknak), hanem azt, hogy a trükközés nélküli állapothoz képest mennyi tranyót emésztett fel az extra teljesítmény kinyerése. Ilyen szempontból az R600-hoz hasonlóan bizonyosan előnye van az Ampere-nek is. Örülök is neki, hogy az NV ezeket a trükközési formákat hozza vissza.
Az utolsó mondat egy poén, ezért van mögötte fejecske.
-
válasz
Petykemano #47748 üzenetére
FP32.
szerk vot má. -
awexco
őstag
válasz
Petykemano #47747 üzenetére
Ezzel mivel lettünk okosabbak ?
-
Raymond
titán
válasz
Petykemano #47748 üzenetére
Nem, FP32-ben. A kollega is rajott egyebkent, nezd meg a tobbi csiripeleset ott a linkeden. Az SM-ek szama a fele annak amit megadnak, de a GFlops teljesitmeny a duplaja mint a Turing-nak per SM mert megduplaztak az FP32 throughput-ot.
-
gV
őstag
válasz
Petykemano #47748 üzenetére
? [link]
-
Petykemano
veterán
válasz
Petykemano #47746 üzenetére
Azok a raster tflops.értékek FP16-ban vannak.számolva
[link]Ezt vártuk a rapid packed mathtól is.
-
Malibutomi
nagyúr
válasz
Petykemano #47705 üzenetére
Ja sajna eleg keso November.
NV kartyak megkapjak majd a tesztekben a SZUPERGIGATETSZIK pecseteket mert gyorsabbak mint az elodok, esetleg aprobetusben hogy sokat fogyaszt. NAvi meg jon ket honappal kesobb es hiaba villant, a sok mokamiki mar rohant megvenni az uj NV kartyakat.
En special kivarok
-
válasz
Petykemano #47688 üzenetére
Tehát, ahogy a tvítelők is írták, jobb lesz a 3070-nél, míg a 3080 és 3090 úgy tud gyorsabb lenni, hogy 300W fölé kell tolni őket, különben nem tudják megverni?
Na, akkor innentől remélem, hogy a 3070 veri a 2080 Ti-t!
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47554 üzenetére
Ebből nem tudunk kiindulni, mert az Xbox Series X nem alkalmaz feszültségskálázást. Fix módok között ugrál, tehát a nagy teljesítményű módhoz olyan feszültséget fog beállítani, ami kibírja a terhelésszimulációra írt tesztprogramot. A PS5-ről kellene megtudni ezt az adatot, mert az viszont feszültségskálázást használ.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47516 üzenetére
Attól függ, hogy a neuronháló általános, vagy specifikus. Ha általános, akkor elég ha elkéred, és futtatod. A hátránya ennek az, hogy nagyon sok játékbeli tartalmat nem fog felismerni.
A játékspecifikus neuronháló a legjobb, amikor direkt a játékodra szabod. Ide gépidő kell, és csinálsz magadnak egy saját modellt. -
Abu85
HÁZIGAZDA
válasz
Petykemano #47513 üzenetére
Vagy építesz rá saját szervert, vagy bérelsz gépidőt valahol. Attól függ, hogy melyik a jobb opció.
-
Laja333
őstag
válasz
Petykemano #47509 üzenetére
Vega64-et és RTX 2060-at használok, viszont pont a RIS miatt vagyok 90%-ban a Vega-n. A 2060 fHD-ja már annyira homályos a RIS-hez képest hogy bántja a szemem
.
Párom gépében 1660 van és amikor látta hogyan fut nálam ugyan az a játék, kérte neki is vegyünk Radeont.
-
válasz
Petykemano #47509 üzenetére
Nem nagyon foglalkoztam vele, tavaly próbáltam RX 570-en a felskálázást Borderlands 3-ban, de csúnya volt (HD-ről fHD-re), de ugye ott nincs RIS, így nem mérvadó. Ott a játékban lehetett beállítani a felskálázást. Nem tudom, Radeon Software-ből lehet-e, hogy mindenre érvényes legyen, vagy profilt készítve az egyes játékokhoz. Majd esetleg RX 5700-on kipróbálom megint, immár RIS-sel.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47509 üzenetére
A DLSS nem működik általánosan. Az ilyen AI upscaling nehezen megvalósítható ilyen formában, de a Microsoft dolgozik egy általános megoldáson. A Facebook már prezentált is egyet.
Az AI upscalinggel az a baj, hogy technikailag csinálhatod általánosan, de sokszor nem ad jó eredményt. Emiatt nem alkalmazzák így.A RIS az általánosan működik, az jóval egyszerűbb post-process technika. Annak nincsenek extrém követelményei a működéshez.
-
Jack@l
veterán
válasz
Petykemano #47490 üzenetére
Van az a pénz amiért ezt mondja, vagy az ellenkezőjét
-
válasz
Petykemano #47490 üzenetére
ezt most mondta valahol?
-
Alogonomus
őstag
válasz
Petykemano #47450 üzenetére
"Úgy látom, nem ment át, amit mondtam.
Épp az volt a lényege, hogy nem törvényszerű, hogy 300W fogyasztás esetén +100w-tal ugyanúgy +10%-ot hozzá lehet adni két különböző architektúra, két különböző design esetén."Nem olvastad végig a válaszomat, pedig pontosan leírtam, hogy: "ahol esetleg már nagyon ellaposodik a "görbe", de +30% fogyasztásból valószínűleg így is kijön +15% teljesítmény"
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47450 üzenetére
De amiatt van. Ha az AMD is engedné 300 wattig a Ryzen 3950X-et, akkor be tudnának állítani 5 GHz fölötti órajelet, de nem látják értelmét, mert többet ártana az egész sorozat reputációjának, ha kazánt csinálnának belőle. Megelégszenek a 170 wattos maximummal. Ha megnézed a DIY eladásokat, akkor láthatod, hogy melyik opció éri meg jobban.
-
Alogonomus
őstag
válasz
Petykemano #47440 üzenetére
Egyértelműen (minden valószínűség szerint?) a sweet spot környékén (vagy csak kicsivel afölött) üzemelt a 3950 X, és valószínűleg első nekifutásra a Big Navi-t is a 250-300 W közötti sweet spot környékén tervezik kiadni. A kérdés az, hogy a 3800 Ti szintén 250-300 W közötti fogyasztással lesz egálban (vagy pár százalékkal magasabban), vagy 350-400 W közötti fogyasztással?
400 W körüli fogyasztással hiába lenne a 3080 Ti a Big Navi előtt mondjuk 5-10%-kal, mert az AMD is fel tudja vinni további 100 W fogyasztási kerettel 400 wattig a saját kártyáját (a'la 5600XT), és máris visszavenné az első helyet. Ezért ér nagyon sokat a perf/W előny.Amikor 220 és 240 W a két kártya fogyasztása, akkor nem igazán számít a perf/W, de amikor 300 és 400, akkor nagyon számít, mert az egyik a léghűtés végső határát tesztelgeti, a másik pedig még kényelmesen hűthető, és szükség esetén ugyanúgy elvihető a léghűtés végső határáig, ahol esetleg már nagyon ellaposodik a "görbe", de +30% fogyasztásból valószínűleg így is kijön +15% teljesítmény.
Persze Nvidia átválthat akkor folyadékhűtésre, és elképzelhető, hogy a 12 pines csatlakozóval elérhető 600 W környékén már az Nvidia "görbéje" mutat sokkal előnyösebb képet.
-
Alogonomus
őstag
válasz
Petykemano #47425 üzenetére
Perf/W előny azért ér sokat, mert valóban jolly joker kártya. Bármikor gond nélkül bevethető, és azonnali eredményt hoz.
MInden hűtésnek megvannak a korlátai, és amelyik gyártó ezekbe a korlátokba jelentősen később ütközik bele, annak elég a gyengébb gyártó kártyájának a hűtését a saját kártyájához használni, és állandóan a konkurens kártya teljesítménye fölött maradhat.Intellel az AMD egyszerűen csak nem állt le egymagos sebességben szkanderezni azért az 5%-ért. Zen 2 processzorok így is fogytak, így is ellátási nehézségek jelentkeztek. 3950X 150 wattból maradt le 5%-kal, amit kihívást kereső tuningolók bőven be is hoztak, amikor elengedték a processzort magasabb fogyasztásig, de még mindig nem az Intel 300 wattos szintjéig. AMD is simán megtehette volna ezt, ha akarja.
-
JóképűIdegen
tag
válasz
Petykemano #47425 üzenetére
"Szerintem ha az 5700 XT mondjuk csak 150W-ot fogyasztott volna 225 helyett, több fogyott volna belőle, de mondjuk csak 10, maximum 20%-kal tolódott volna el ennek a szegmensnek a részaránya."
- ez szerintem mindent megvaltoztatott volna, megjelenhetett volna a Big Navi RDNA1-en is meg ugyis ha 2 gpu-t drotoznak egy vga-ra es most sokkal bizakodobban tekintenek az RDNA2 fele. -
Alogonomus
őstag
válasz
Petykemano #47400 üzenetére
Én is végszükség esetére írtam az 512 bitet. Jó lenne 384 bitből megoldani, de az Nvidia is elszánt, amit a speciális hűtőrendszer és a 600 W-ig használható betápkábel is jelez, így AMD sem lehet szívbajos.
AMD valószínűleg sokáig nem kap még egy ilyen jó lehetőséget. Nvidia gyengébb node-ra kényszerült, Intel jövőre sem tud érdemi ellenállást felmutatni, DIY után már a pre-built és custom téren is kezd beindulni az AMD szekere, konzolok már elkészültek, Zen3 is kész van. Most tudna a VGA-területre koncentrálni hosszabb ideig. -
gejala
őstag
válasz
Petykemano #47292 üzenetére
"Mára már eljuthattunk oda, hogy akinek homeoffice célból kellett új gép az beszerezte, illetve az is, aki azért vett Valamit, hogy ne unatkozzon."
Na igen, a tavaszi keresletnövekedés jót tett a hardver/játékeladásoknak. Viszont megvan az a hátránya, hogy aki mostanában vett új kártyát, az alacsony valószínűséggel ugrik rá ősszel az újdonságokra. Főleg, mivel nagyon sokan azért vettek újat, hogy tudjanak játszani normálisan a karantén alatt, különösebb igényük nem volt. Na őket nem fogja érdekelni, hogy lesz egy új cucc, ami 30%-al gyorsabb. -
Alogonomus
őstag
válasz
Petykemano #47284 üzenetére
2022-as dátum teljesen reális. Elvileg ha az RDNA2 beváltja az AMD reményeit, akkor egy teljes termékskálát akarnak az új alapokon kínálni, ahogy az Nvidia is tette korábban. Big Navi és a "2080Ti szint" most ősszel, 5700 és 5600-at leváltó kártyák jövő tavasszal, 5500 és alatta, plusz a "G"-s processzorok jövő ősszel jöhetnek RDNA2 alapokon.
RDNA3 leghamarabb 2022-ban jöhet, bár ha Nvidia nem veszélyeztet, vagy Intel kezdene magára találni, akkor akár tovább is csúszhat az RDNA3, ahogy a 10. generációs Intelek teljesítménye láttán az "X"-es processzorok is végül csak 100-200 MHz-et gyorsultak, pedig adatbázisok alapján 400-500 MHz is volt a tervben. -
Abu85
HÁZIGAZDA
válasz
Petykemano #47263 üzenetére
Amihez saját fabricot használnak.
Mondjuk az A64FX inkább hasonlít GPU-ra, mint CPU-ra az ARM SVE-vel.
Be tudják építeni anélkül is az NVLinket, hogy megvennék az ARM-ot, de arra nem képesek, hogy irányítsák az ARM fejlesztéseit. Márpedig az ARM továbbra is általános irányba fejleszt, nekik pedig az nem tökéletes.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47248 üzenetére
A közös memóriakép a hasznos. Ma a GPGPU-s kódok jelentős részét az emészti fel, hogy a host memóriából másolod a VRAM-ba az adatot, vagy több GPU esetén az egyik GPU VRAM-jából a másikba. Ebből áll a kódok jelentős része. Az új modellel ezeket a kódokat be sem kell írni. Ezzel egyrészt tovább tudsz skálázódni. Nem véletlen, hogy az 1 EFLOPS-os rendszereket már ilyen konfigurációra építik. Másrészt olyan dolgok lesznek megvalósíthatók a rendszeren, amelyek korábban csak nagyon nehézkesen működtek.
Ezek az okai annak, amiért az AMD, az Intel és az NV is memóriakoherens interfészben látja a gyorsítók jövőjét. És persze amíg erre nincs egy szabvány, addig a processzor oldalán beépített vezérlőben kell támogatni a zárt interfészt.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #47238 üzenetére
Úgy tud majd működni ettől, mint az új konzolok.
De elsődlegesen valószínűleg a professzionális piac a célpont. Ott azért nem kis haszon, ha összekötsz mondjuk 8 darab 16 GB-os GPU-t, amihez dobsz még hozzá a CPU oldaláról akár 256 GB memóriát. Csináltál a rendszeredből egy nagy, APU-ként működő konfigurációt, összesen 384 GB memóriával.
-
hokuszpk
nagyúr
válasz
Petykemano #47197 üzenetére
Adored. szvsz ugy is kezelendo.
-
paprobert
őstag
válasz
Petykemano #47197 üzenetére
"perhaps roughly 750 mm2"
más néven AdoredTV tipp.
-
Malibutomi
nagyúr
válasz
Petykemano #47146 üzenetére
Ja hogy ugy
Engem nem igazan erdekel hogy melyik oldal, ha valamelyik hoz 700 font korul 2080Ti teljesitmenyt, akkor arra mar ugy erzem erdemes lesz valtanom az 1080-rol.
De en ugy erzem ez inkabb az AMD lesz nem az NV akik meg mindig felfele verik az arakat, de szerintem mar elertek azt a szintet mar a 2000-es szeriaval hogy maguk alatt vagjak a fat, egyre tobb hozzaszolas van hogy inkabb a konzal vagy AMD kartya mert 1200 dollarokert mar vegyen a hoher videokartyatAmugy az NV arak+markahuseg szerintem mar elment az idiotizmus iranyaba a hasznalt piacon. Itt arra gondolok hogy irrealisan magasak a hasznalt arak (ugyanugy mint az intel prociknal). Rengeteg mar bocsanat hulye van aki vesz egy hasznalt 1080ti-t azert az arert amiert kapna egy uj 2070-et vagy 5700XT-t garival uganolyan teljesitmennyel. Vagy Hasznalt 1070-et garis uj 1660Ti helyett (vagy alig tobbert mar 2060 vagy 5600xt)
-
Malibutomi
nagyúr
válasz
Petykemano #47144 üzenetére
Ezt nem ertem.
-
Alogonomus
őstag
válasz
Petykemano #47112 üzenetére
Ha csak annyira igaz is, mint a 350W-os Ampere pletyka, akkor érdekes ősznek nézünk elébe, mert az Nvidia bemutatóját követően az AiB partnerek akár 50W-ot húzhatnak is még az AMD GPU-n 5-10% további teljesítményért, és még mindig csak az Nvidia fogyasztásánál tartanak majd, amit Nvidia-szintű hűtővel ugyanúgy hűthetnek.
A PS5-höz beígért 4K/120fps is egyre elképzelhetőbbnek tűnik, ha belekalkuláljuk a PS5-ön elérhető speciális lehetőségeket.
-
Jack@l
veterán
válasz
Petykemano #47085 üzenetére
Semmivel nem lesze kissebb performance hit, az új inline api csak arra jó hogy butább RT-t lehessen egyeszerűbben leprogramozni. Silányabb minőséggel fog (talán) jobban futni.
Direkt a konozlok miatt kellett az "újítás". -
Busterftw
nagyúr
válasz
Petykemano #47078 üzenetére
Inkabb lett volna 5600X, a "refresh" meg XT, mint most a prociknal.
Televan
A vallalhato sebessegu RT 2060 Supernel kezdodik (1080p), ami epp 150k.
Max ugy lesz olcsobb, hogy az Ampere utan valogatsz az olcsobb 2XXX szeriabol.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Filmvilág
- Anglia - élmények, tapasztalatok
- Csak semmi szimmetria: flegma dizájnnal készül a Nothing Phone (3)
- Xbox Series X|S
- Samsung Galaxy Z Flip5 - ami kint, az van bent
- Death Stranding (PC)
- A sógorokhoz érkezik a kompakt Vivo X200 FE
- Fejhallgató erősítő és DAC topik
- Nvidia GPU-k jövője - amit tudni vélünk
- Villanyszerelés
- További aktív témák...
- Lenovo LEGION Pro 5 / Pro 7, Lenovo Yoga Pro gépek (RTX 4060 / 4070 / 4080 / 4090)
- Nvidia Quadro P400/ P600/ P620/ P1000/ T400/ T600/ T1000 - Low profile (LP) + RTX A2000 6/12Gb
- BESZÁMÍTÁS! Gigabyte B760M i5 14400F 16GB DDR4 512GB SSD RX 6700XT 12GB Rampage SHIVA CM 750W
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
- AKCIÓ! Gigabyte H610M i5 13600K 16GB DDR4 512GB SSD RTX 3060Ti 8GB Zalman S2 TG Seasonic 650W
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged