- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Milyen okostelefont vegyek?
- Huawei Watch GT 4 - kerek karék
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Motorola Moto G24 Power - hol van az erő?
- Samsung Galaxy A71 - elég ennyi?
- Android alkalmazások - szoftver kibeszélő topik
- Xiaomi Mi 11 Ultra - Circus Maximus
- Yettel topik
- Garmin Forerunner 255 Music - nem csak futóknak
Hirdetés
-
Rossz üzlet az EV-kölcsönzés
it Küszködik az EV-kölcsönzés miatt a Hertz Global, még több EV-t adnak el.
-
Rövid előzetesen a S.T.A.L.K.E.R. 2: Heart of Chornobyl
gp Továbbra is szeptemberi premierrel számolnak a fejlesztők, reméljük több halasztásra már nem kell számítanunk.
-
A Video AI lehet a One UI 6.1.1 ütőkártyája
ma Vagy hogy fogja a mesterséges intelligencia manipulálni a mozgóképeket?
Új hozzászólás Aktív témák
-
Chaser
titán
sztem upgradelik majd a 3070-eket 16gb-ra, lehet a 3060 ti-ket is
persze majd ha "rendeződött" a helyzet és lesz valós árverseny, most semmi nincs
rtx-ben jobbak az nv-k, nyers erőben a radeonok
de egyre többen használják a vga-kat különböző renderre/animálásra, ha csak hobbi szinten is
ezekben viszont nagyon alulmarad az amd sajnos
nv viszont előző genhez képest is szépet lépett előre, de ott meg árnyoldal a kevés vram, kivéve 3060 non-ti - és persze a 3090, csak az picit drága alapesetben is -_tejesen'® joálapotpan'™_-_Hamarosan a hiányból is hiány lesz...by Samus
-
Petykemano
veterán
Hát nem tudom. Nekem eddig ez a tapasztalatom.
korábbi GCN-es generációk során mindig az volt, hogy az nvidia 30-40%-kal magasabb frekvenciát ért el szívószál-vékonyságú memóriasávszélességgel a GCN széles kialakításával szemben.
Egy GCN alapú lapka több CU-val rendelkezett alacsonyabb frekvenciával, mint nvidia vetélytársa, ami viszont mondjuk 30%-kal magasabb frekvenciát ért el. Számok terén azt láttuk, hogy (elméleti max) tflops tekintetében a GCN alapú kártya vezet, és mégis alulmarad.
Minél nagyobb volt a felbontás, annál inkább csökkent a GCN alapú lapka és az nvidia ellenlábas közötti különbség. (Csak ez senkit nem érdekelt, amikor ez 20-30fps-t jelentett) Nem állítom, hogy minden különbség csak ebből fakadt, de sokmindent magyarázott.konkrétan a 6800XT és 6700 vonatkozásában:
a 25%-kal magasabb frekvencia alacsony, közepes és magas felbontáson is 25% többletteljesítményt eredményez. (amennyiben a memória is hasonlóképp skálázódik)az 50%-kal több CU viszont csak akkor eredményez 50%-kal magasabb teljesítményt, ha kellően sok párhuzamos számításra lehet a számolóegységeket befogni. (lásd még: Amdahl)
Találgatunk, aztán majd úgyis kiderül..
-
nagyúr
Ez az "Ampere sokkal jobban szerepel 4K-ban" dolog nagyrészt legenda, elsősorban a 3080 és a 3090 CPU-limitáltságából született. A 3070-re egyáltalán nem igaz (nézd össze itt az 1080 Ti-vel), és a 3080 esetében sem jelentős. Az RDNA2-vel szemben igaz lehetne, mert a 6800-asoknak 4K-ban fájhat a sávszélesség hiánya - de a tesztek ezt sem igazán támasztják alá.
A különbség azon része, ami nem CPU-limit, nagy valószínűséggel a GPC-k számával van összefüggésben - a 3070-nek ugyanannyi van, mint a 3080-nak, és lehet, hogy a frontend már egy kicsit kevés a 3080-nak.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
A HUB-video elsősorban azt támasztja alá, hogy a készítője nincs tisztában a vegyes limittel, mint jelenséggel. Nem akarom bántani őket, általában színvonalas anyagokat adnak ki a kezükből, de egy ilyen témába rossz ötlet volt belefolyniuk, a videoból látszik, hogy sem odavágó szakértelemmel, sem megfelelő tesztmódszerekkel nem rendelkeznek egy ilyen jelenség elemzéséhez. A következtetéseik arra a feltételezésre épülnek, hogy ha a felbontás csökkentése mellett nő az FPS, akkor az eredeti felbontásban nem volt CPU-limitáció - ez nyilván nem szükségszerű. A végkövetkeztetés pedig homályos hadoválás - a 3070-es teszt, amit linkeltem, teljes mértékben cáfolja is.
A 3070-nek valóban sokkal alacsonyabb a sávszélessége, de ez aligha gátolja komolyan 4K-ban - a 3060 Ti nem megy közelebb hozzá, pedig egyforma a sávszélességük, miközben minden más területen 20%-kal előrébb van a 3070. A 8GB hatása egyelőre minimális - sajnos elég kevés oldalon van a 3060-asokkal 4K teszt, de a Tom's HW tesztje szerint egyedül a HZD-ben problémás a dolog, és az átlagos FPS-t ott is csak minimálisan rontja.
Szóval nincs itt varázslatos architektúrális limit az Ampere-ben a duplázott FP32 kapcsán - pusztán csak rettenet magas a számítási kapacitás, és nehéz etetni.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
félisten
" könnyebb átütni a "bántsák az NVidiát" reflexeden."
Igen, gbors pont az az ember aki nem szokott korrekten hozzáállni bármelyik gyártóhoz. ref
ha értelmezed mit írt, akkor azt írta Abu is tulajdonképpen amit gbors...értelmezni nem nehéz szerintem :
gbors: "magas a számítási kapacitás, és nehéz etetni."
Abu: "Az Ampere-ben nehéz etetni a második FP32 futószalagot."[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
nagyúr
Próbáljuk meg akkor a másik oldalról, hátha úgy könnyebb átütni a "bántsák az NVidiát" reflexeden.
Itt abba is hagytam az olvasást. Vagy értelmes ember módjára beszélünk, vagy baromságokat vagdosunk a másik fejéhez. A kettő együtt nem megy, és a másodikkal meg szórakoztass mást. Adieu.
#106 Abu85: a kártyák teljesítménye nem arra utal, hogy nagyon ritkán megy együtt a kettő, jóval gyorsabb mindegyik, mintha csak feleannyi FP32 ALU lenne bennünk. Ettől még elhiszem, hogy jelentősen rontja a kihasználhatóságot - viszont ettől nem lesz relatíve gyorsabb az architektúra 4K-ban, mint alatta.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Ahogy gondolod, érvek ellen amúgy is be voltál oltva ebben a thread-ben.
Gyakorlatilag inkább saját magának és a CPU-limites elméletének mond ellent.Nagy divat lett ezen az oldalon ilyenekkel alaptalanul dobálózni, amikor nincsenek észérvek. Márpedig nincsenek - feldobod, hogy a "jelenség" miért nem érinti a 6900XT-t. Megnézted, hogy a "jelenség" érinti-e a 6900XT-t? Én megnéztem, és azt látom, hogy pont ugyanakkora a különbség közte és a 3090 között 1440p-ben, mint 4K-ban. 6800XT és 3080 esetében detto. A lassabb kártyáktól valóban jobban elhúz mind a négy kártya 4K-ban - a szintén Ampere 3070-től is. Vajon miért? Az RDNA2-ben is vannak rejtélyes erőforrástartalékok, amiket csak 4K-ban lehet előhúzni? De a GA104-ben már nincsenek?
Az RX6000-es sorozat és a GA104-es kártyák tesztjeiből teljesen egyértelmű, hogy a HU következtetései hibásak voltak - ami annyiban nem meglepő, hogy az alapfelvetésük is rossz volt. Elmagyaráztam, hogy miért, ha nem akarod megérteni, az a te dolgod. Ha nem olvasod el az indoklásként belinkelt teszteket (és később azt írod, hogy a logikám nincs mérésekkel alátámasztva), az is a te dolgod. Viszont ezek után ne nagyon várd el, hogy bárki komolyan vegyen.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Rendben, nézzük a Shadow of the Tomb Raidert:
1080p:
RX 6900 XT: 128.6 FPS (100%)
RX 6800 XT: 128.6 FPS (100.0%)
RTX 3080: 127.1 FPS (98.8%)
RTX 3070: 122.6 FPS (95.3%)1440p:
RX 6900 XT: 119.8 FPS (105.7%)
RX 6800 XT: 113.3 FPS (100%)
RTX 3080: 114.3 FPS (100.9%)
RTX 3070: 90.1 FPS (79.5%)2160p:
RX 6900 XT: 70.2 FPS (107.8%)
RX 6800 XT: 65.1 FPS (100%)
RTX 3080: 67.3 FPS (103.4%)
RTX 3070: 50.4 FPS (77.4%)Elemzés:
1080p-ben a 3 kártya 5%-on belül van, nyilván van valamilyen masszív limitáció - 99% valószínűséggel CPU / system ram / PCIE sávszélesség, 1% valószínűséggel valami más.
1440p-ben már kb. a normális arányok látszanak, miután közel vannak az 1080p-ben látott kimaxolt 128.6 FPS-hez, valamennyi CPU-limitet itt is gyanítok, de itt kellene keresztmérés, hogy biztos legyen. A 3080 1%-kal gyorsabb, mint a 6800 XT, és 4.6%-kal lassabb, mint a 6900 XT.
2160p-ben egy kicsivel széthúzódik a mezőny - a 3070 egy kicsit visszább csúszik, a 3080 és a 3090 egy kicsit előrébb lép. A 3080 a 6800 XT-hez képest 2.5%-ot javul, a 6900 XT-hez képest pedig 0.5%-ot.Konklúzió:
A 3080 és a 6800 XT relatív sebessége között látható 2.5% változás arra utal, hogy egyes játékokban a 3080 minimálisan előrelép 4K-ban. Miután a 17 játék átlagát mutató összegzésben ez a különbség nem látszik, a mértéke miatt már eleve kétes a dolog - és ráadásul a 6900XT-hez képest érdemben nem lép előre a 3080, tehát ezek a mérések egyáltalán nem támasztják alá a felvetést, miszerint a GA102 4K-ban bármilyen jelentőséggel bíró előrelépést mutatna a Navi-hoz képest.Ha az a mondás, hogy FHD-ben az AMD a menő (amit ez a mérés amúgy megintcsak nem támaszt alá), annak sokkal inkább az lehet az oka, hogy bizonyos körülmények között jobban bánik a CPU-limites helyzettel.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Duck663
őstag
Már amikor sikerül megoldani a landolás kérdéskörét.
Honnan tudod, hogy nem éppen azért akartak a földön landolni, mert valami gondjuk volt odafent? Pl.: találkoztak egy kisebb kődarabbal. Hány repülőn ejtett már sebet egy madárraj?
Egy idegen civilizáció helyében én is továbbállnék... nagyon messze van attól az ember(iség), hogy alkalmas legyen egy idegen civilizációval való kapcsolatfelvételre. Amikor ember gyűlöl embert, csak azért mert másképp gondolkodik, akkor egy teljesen idegen, idegenül kinéző, valószínűleg teljesen másképpen gondolkodó élőlénnyel mit csinálna?
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Darmol
senior tag
[link]
Az öreg elképesztően jó előadó, érdemes megnézni az összes témát amiről előadást tart.
Mindegyik kiugróan jól érthető szerintem.Aki azt mondja "nem tudom elhinni az igazságot" az naiv. Aki azt mondja "nem akarom tudni az igazságot" az ostoba. Aki azt mondja "az igazság tilos" az gonosz. Aki azt mondja "én határozom meg az igazságot" az beteg.
-
nagyúr
Pedig kéne az az elemzés, mert én a Metro Exodusnál is azt látom, hogy pár % extrát tud felmutatni a 3080 a 6800 XT-vel szemben, amikor 1440p-ről 2160p-re lépünk (5.6% helyett 8.7%). A 3070 és a 6800 viszonylatában meg még fordítva is van a dolog - a 3070 gyorsabb 1080p-ben, a 6800 pedig 1440p-ben és 2160p-ben.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Kansas
addikt
Nos szóval...
Akkor nézzük is az eredeti ellenőrzésemben szereplő Metro Exodus... helyett az egy kivételt, a Horizon Zero Dawn-t - most esett le hogy a Metro nem volt Steve listáján a jelenséget jól demonstráló játékok(AC Odyssey, R6 Siege, Doom Eternal, F1 2020, Horizon Zero Dawn) között(az első kettővel a CB nem tesztelt, a maradékból hasraütésre választottam egyet):Semmi eget verőt nem csináltam egyébkélnt, csak a kapcsolódó értékeket összerendeztem és extraként számoltam egy deltát hogy mennyivel magasabb az átlag framerate az eggyel kisebb felbontáson.
1080p:
RTX 3090: 119.5 FPS (136%)
RTX 3080: 110.8 FPS (126%)
RTX 3070: 100.4 FPS (114%)
RTX 2080Ti: 88.1 FPS (100%)
RTX 2080S: 79.1 FPS (90%)
RX 6900XT: 116.7 FPS (132%)
RX 6800XT: 106.8 FPS (121%)
RX 6800: 91.1 FPS (103%)
RX 5700XT: 69.6 FPS (79%)1440p:
RTX 3090: 104.8 FPS (146%) = 14.0%-kal több 1080p-ben a framerate
RTX 3080: 92.7 FPS (129%) = 19.5%-kal több 1080p-ben a framerate
RTX 3070: 82.0 FPS (114%) = 22.4%-kal több 1080p-ben a framerate
RTX 2080Ti: 71.8 FPS (100%) = 22.7%-kal több 1080p-ben a framerate
RTX 2080S: 64.4 FPS (90%) = 22.8%-kal több 1080p-ben a framerate
RX 6900XT: 100.6 FPS (140%) = 16.0%-kal több 1080p-ben a framerate
RX 6800XT: 92.3 FPS (129%) = 15.7%-kal több 1080p-ben a framerate
RX 6800: 78.5 FPS (109%) = 16.1%-kal több 1080p-ben a framerate
RX 5700XT: 55.3 FPS (77%) = 25.9%-kal több 1080p-ben a framerate2160p:
RTX 3090: 71.8 FPS (152%) = 46.0%-kal több 1440p-ben a framerate
RTX 3080: 62.6 FPS (133%) = 48.1%-kal több 1440p-ben a framerate
RTX 3070: 51.3 FPS (109%) = 59.8%-kal több 1440p-ben a framerate
RTX 2080Ti: 47.1 FPS (100%) = 52.4%-kal több 1440p-ben a framerate
RTX 2080S: 40.9 FPS (87%) = 57.5%-kal több 1440p-ben a framerate
RX 6900XT: 67.5 FPS (143%) = 49.0%-kal több 1440p-ben a framerate
RX 6800XT: 61.1 FPS (130%) = 51.1%-kal több 1440p-ben a framerate
RX 6800: 52.6 FPS (112%) = 49.2%-kal több 1440p-ben a framerate
RX 5700XT: 34.3 FPS (73%) = 61.2%-kal több 1440p-ben a framerateA 3060Ti azért nem lett beletéve, mert a konklúzióhoz legfontosabb 2160p felbontáson nem lett megmérve CB által.
Konklúzió: mind tévedtünk valamennyit, ugyanis:
- nem látok ezekben az értékekben CPU-limitet - addig tiszta sor, hogy nem szükségszerűen cáfolja önmagában a felbontás csökkenésével monoton módon növekedő framerate, de azzal együtt, hogy a VGA-k erejének növekedésével is monoton nő a framerate, már egyértelműen a CPU-limit hiányát valószínűsíti, és ezzel szemben nem látok semmit a másik oldalon, ami viszont a CPU-limit jelenlétére utalna- a két nagyobb Ampere nagyobb 4K skálázódási előnye csak az előző generációs kártyákkal szemben van meg, bár az RDNA2-khöz képest is marad valamennyi kimutatható extra előny, de az messze nem drámai - ez viszont annyiban elnézhető a HU csapatának, hogy az ő elemzésük megjelenésekor(2020. október 6.) még nem jött ki sem a 3070, sem az AMD lineup, így az előző generációra és a két nagyobb Amprer-re voltak kénytelenek alapozni, ami a később megjelent VGA-k mérési eredményeiből láthatóan torzítást eredményeztek.
- A 3070, 2080S és 5700XT viszonylag hasonóan szerepel 1440p->2160p közötti framerate-esés kapcsán, annak ellenére, hogy két különböző generáció 3 különböző architektúrájú tagjáról van szó, az egyetlen közös pont bennük a VRAM mennyisége(8GB), ami úgy tűnik, ebben a játékban kevés 2160p-re
- szintén ugyanebben a deltában(1440p->2160p) érdekes különbség van a két nagyobb Ampere és a kistesó közt, amit én szintén a VRAM-ra fognék, részben a mennyiségére, részben a típusából(GDDR6 vs GDDR6X) fakadó sávszélesség-előnyére, bár az nem tiszta számomra, melyik számít többet
Megjegyzés: nyilván a fentiek kifejezetten csak az általad linkelt CB teszt adatai alapján ennek az egy játéknak az esetében igazak, de a többi játékra, több tesztelő számai alapján csinálja meg az, akit ezért fizetnek...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Ja bocs, nem kivétel a Horizon, az véletlenül maradt benne...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Duck663
őstag
Jogos! Én elsősorban házon belül vizsgáltam, az 5700-assal összevetve, de kiderült, hogy tévedtem, csak látszólagos volt. Első körben a Navi 21 skálázódására gyanakodtam, de az rendben van.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
nagyúr
Haladunk
Akkor pár dolgot tűzzünk le:
- A régebbi generációk és az Ampere között egyes játékokban (de nem az átlagban) látható jelentősebb különbség az 1080p->1440p->2160p teljesítményvesztésben
- A Navi 20 jellemzően hasonlóan viselkedik, mint az Ampere
- Ezeknek a különbségek játéktól függően potenciálisan más-más okokra vezethetők vissza - a CB tesztben is van bőven olyan, ahol CPU-limit van (Death Stranding, F1 2020, Gears, SOTR biztosan). Ezen felül van pár, ahol a 3090 már karcolja a CPU-limitet, a többi még nem, úgyhogy vszleg érdemesebb a 3080-at nézni.Amit én a HZD-nál látok:
- CPU-limit ebben az esetben tényleg nemigen látszik, csak a 3090-nél
- A szokottnál sokkal kevésbé pixel-heavy a játék, az 1080p->4K váltás 65-70%-ra ejti az FPS-t, a jellemzőbb 40% helyett
- 1080p-ben van némi gond az új generációs top tier kártyákkal, a 2080Ti-hez képest mindegyik ellép a 1440p-ben, a Radeonok és a 3090 jelentősen, a 3080 kevésbé. Utána az ugrás 2160p-re már nem olyan jelentős.
- Jó meglátás a 8GB memória problémája 4K-ban - ha összeveted a min és az avg FPS-eket, akkor azt látod, hogy jellemzően 15-20% van közöttük, míg 4K-ban a 8GB-os kártyáknál ez felmegy 40-50%-ra. A 3070-nél amúgy pont nem, de valószínűleg már így is megszenvedik az átlag FPS-ek a memóriahiányt.A fenti 4 dolgot összerakva, nekem az a véleményem, hogy a HZD-ben a legnagyobb GPU-knak egyszerűen kevés a frontendje ahhoz, hogy a rengeteg ALU-t etessék 1080p-ben. 1440p-ben már majdnem normalizálódik a helyzet, de még 4K-ra is marad egy kis javulnivaló. 4K-ra ugráskor pedig a 8GB-os kártyák elkezdenek szenvedni, tovább homályosítva a képet.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
A fő különbség szerintem az volt, hogy én elsősorban a sok játékos átlagot néztem, te pedig egyes játékokat. Szóval volt értelme visszatérni a civilizált mederbe
Azt viszont továbbra sem látom sehol alátámasztva, hogy az Ampere ALU-struktúrájában kellene keresni a relatíve jobb 4K-s teljesítmény okát abban a pár játékban, ahol ez felbukkan. Utilizációs bottleneck ettől még akkora van benne, mint egy ház - ha nem lenne, akkor pl. a 3060 40-50%-kal lehetne gyorsabb, mint a 2060. Ha meg a másik véglet lenne igaz, miszerint nagyon ritkán lehet mindkét clustert etetni, akkor 5-10%-kal. Ehhez képest olyan 25-30%-ról van szó - pont a közepe.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
Én azért nem nézek sok játékos átlagot
OK, ezt értem, de válasszuk szét az egyéni igényeket és a GPU-k elemzését. Utóbbiban minél több játék van, annál jobb. Az átlagok persze hajlamosak eltakarni az érdekes, nem túl markáns részleteket (mint pl. a 8GB probléma a HZD-ben), viszont 15-20 játék esetén már elég jó képet mutatnak arról, mit lehet várni a cucctól általában.
Én az Ampere kártyák architektúráját említettem, és abba a GPU-n kívül a VRAM is beletartozik(meg az összes egyéb komponens a NYÁK-on és körülötte) (...)
Aha. Végső soron, az architektúra egy elég jó gumiszó, mindenesetre én a GPU logikai felépítését értem alatta, a funkcionális egységeket, az arányaikat és az összeköttetéseiket. Az eléggé más.
Utilizáció alatt a GPU egységeinek kihasználását értem, bottleneck alatt pedig azt a faktort, ami a legszűkebb keresztmetszet - jelen esetben a GPU-n belül. Az Ampere FP32-es ALU-inak kihasználtsága messze van az ideálistól - ha 4K-ban javul a relatív teljesítmény, akkor az arra utal, hogy az 1080p-ben lévő szűk keresztmetszet lassan áttevődik máshová (feltéve, hogy a kiindulási alapnál ez kb. stabil - mondjuk a 2080 Ti ilyen szempontból jó alapnak tűnik). A pixelek számának növelésével az ALU-terhelés is kb. arányosan növekszik, ezért nem gondolom, hogy az egy ütemezőre ráakasztott két ALU-clusternek ilyen hatása lenne. Miután a HZD eleve kevésbé érzékeny a pixelek számára, mi fájhat neki? A legegyszerűbb irány, hogy túl sok az egy pixelre eső háromszög.#159 Duck663: Gyakorlatban is megduplázták az ALU-teljesítményt, csak sok körülménynek kell összejönni, hogy ez kihasználható legyen, és a mai játékokban ezek jellemzően nem jönnek össze.
Ezt viszont nem értem:
az órajel változtatásával nagyobb mértékben változik a számítási kapacitás, mint a korábbi generációknál
Ezt mire alapozod? Az órajel növelésével a GPU összes része gyorsul, az ALU-k ugyanannyira, mint az ütemezők, a ROP-ok meg az összes többi.Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...