- Eurós árlista a Google Pixel 10 telefonokhoz
- Realme GT 2 - aláírjuk
- Xiaomi 15 - kicsi telefon nagy energiával
- Google Pixel topik
- Kis telefon hatalmas teleppel
- Honor 200 Pro - mobilportré
- Bemutatkozott a Poco X7 és X7 Pro
- Xiaomi 15 Ultra - kamera, telefon
- Xiaomi 14 Ultra - Leica hercegnő
- Samsung Galaxy Watch7 - kötelező kör
Új hozzászólás Aktív témák
-
igazából a GTX260+ nem egy hivatalos elnevezés, csak a 216SP-s verzió megjelenése után, amikor senki nem tudta, melyik kártya milyen, egyszer csak elkezdték így hívni a felhasználók
sz'al nem az 55nm-es neve, de ahogy elnézem, nem is lehet azt mondani, hogy konzekvensen a 216SP-sé
azt el is felejtettem, hogy 65nm-es a GPU - javítottam a cikkben, köszi! amúgy valamilyen furcsa okból az 55nm-esek se nagyon fogyasztanak kevesebbet
-
5770 vs 4870-1GB vs GTX260+ teszt - köszönet Qrunak a GTX260+ kölcsönadásáért!
-
sziasztok!
HD5770-nel való összeméréshez nem bírok sehonnan keríteni GTX260-ast. esetleg tudna valaki kölcsönadni nekem 1 napra?
hálás köszönet,
gbors / vgaspeed -
válasz
Firestormhun #15835 üzenetére
tudok olyat mutatni, ami közel van a clock-for-clockhoz: 9800GT vs GTX280
Ahol nem fogy ki a memória, és nincs platform limit, ott 60-80%-kal vezet a GTX280.
Bluegene: nekem a scheduler / triangle setup / engine sebesség gyanús - szerintem a GT200 "motorja" nem igazán bír a 30 kvázi-független SIMD clusterrel...
-
-
9800GTX vs GTX280 teszt - arra kihegyezve, hogy az anno közszájon forgó pletykák mennyire voltak reálisak.
-
Henk, Beowulf, TTomax: köszi!
A Clear Sky-ról annyit érdemes megjegyezni, hogy bár előszeretettel viccelődöm vele, az engine-ben óriási lehetőségeket látok, amiket a játék a felében sem használ ki sztem. a napsugaras képek mozgásban káprázatosak
-
új (saját) teszt a két GTX-280-asról...
-
még egyszerűbben:
- az újabb engine-ekkel egyre kevésbé lesz kompatibilies a HW-támogatott élsimítás (ebben akár az év végi játéközön hozhatja is a robbanást)
- a "szoftveres" élsimítás a DX10.1-ben gyorsabb lesz olyan szavak miatt, aminek láthatóan lusták vagytok utánanézni az Internetende most komolyan. a deferred rendering alapvető vonásait 12 másodperc alatt lehet megtalálni eléggé közérthető formában, a render targetet ennél kicsivel rövidebb idő alatt. a scene pedig remélhetőleg nem okoz fejtörést
-
válasz
schwartz #3750 üzenetére
deferred rendering esetén több render targetet használsz, a "drótos" MSAA pedig csak egyet bír figyelembe venni - ezért elvi síkon ugyan lenne valamilyen AA-d, de várhatóan randa - ezért is van pl. az UE3-as játékokban hanyagolva az AA.
miután több render targeted van ugyanahhoz a scene-hez, számos olyan műveleted lesz, amit mindegyiken el kell végezni. ha ez "egylépésesíthető", az biztosan javít a teljesítményen - ld. Assassin's Creed és a 38x0.konyhanyelven kb. ennyi
-
ha Abu-nak igaza lesz, és tényleg megugrik az ALU:TEX arány, akkor az DX9-ben is érezhető lesz - az más kérdés, hogy a Blizzardot ismerve ez kb. azt fogja jelenteni, hogy amíg az nVidia kártyán 60fps-sel megy a játék, addig a konkurens ATI-n nem 40-50-nel, hanem 80-90-nel. vagy ilyesmi.
-
-
válasz
janos666 #3721 üzenetére
nem a monitorod inputlagját csökkenti, hanem a Tiédet
a DX (meg asszem az OpenGL is) alapbeállításként 2 frame-et renderel előre, azaz 80fps-nél 25ms késéssel látod a képet, 200fps-nél meg 10ms késéssel. ez 6-8%-nyi különbség a reakcióidődben.
GTX 350: szerintem a különböző pletykasite-ok egymástól veszik ezt a "specifikációt" - eléggé hihetetlen, legalábbis ha nincs hozzá vmi architektúrás változás is (pl. szuperskalár egységek a szimpla SP-k helyett).
Abu85: azért azt kétlem, hogy magasabb ALU:TEX arány mellett a 2900Pro utoléri a 88GTX-et. hiába hasonló a shader-kapacitásuk, a magasabb ALU:TEX aránnyal várhatóan nem fog drámaian megnőni a shaderkódok párhuzamosíthatósága...
-
válasz
juliabrilke #3704 üzenetére
ennek az oldalnak az alján van ilyesmi, ha nem is erről a VGA-ról
-
-
no meg a mobil chipek, ha az nVidia reményei beválnak.
tzsolesz: CPU fronton már sokkal előrébb tart a folyamat, és ráadásul nincsen igazi egymagos alternatíva. Nem is igazán lehet amúgy, mert a GPU-knál a chipméret-különbségek sokban a párhuzamos egységek számának és szerkezetének variálásából jönnek, ami a CPU-knál nem nyitott irány.
De ha pl. lenne 1 magos C2D gyárilag 4GHz-en, hasonló áron, mint az E6750, akkor azon el lehetne gondolkodni... -
válasz
janos666 #3549 üzenetére
"Ha az eleje nem lenne tündérmesébe illő hát ez nyilvánvalóvá teszi hogy kamu:
Cannot support D10.1 .10.0/SM4.0 - Nem "képes" támogatni? Talán nem "fogja" vagy "nem akarja" lehetne a helyes ide, de nem a "képtelen"."Nem biztos, hogy ilyen szinten lehet alapozni a hardspell-esek angoltudására
-
-
válasz
Firestormhun #3487 üzenetére
igen, ez realisztikus kép, bár az is kitűnik belőle, hogy a kedves játékgyártók nagy ívben sz*rnak az optimalizálásra.
viszont válasszunk szét két dolgot: egy from scratch DX10 engine teljesen más tészta, mint egy engine, amiben van DX10 / 10.1 codepath, limitált extra tartalommal. csak feltételezni tudom, hogy az év végén közelítő DX10.1-es játékok elsősorban a korrekt AA miatt foglalkoznak 10.1-es codepath kiépítésével, és ezt leszámítva igen hasonló lesz a DX9-es image quality is.
sidenote: miután gyanítom, hogy ez lesz az első adag olyan játék, ahol a 12x10 mellé már amúgy sem fog beférni az élsimítás a 96GT-nek, különösebben nem aggaszt az nVidia VS DX10.1 kérdés
tzsolesz: egy ideje az az érzésem, hogy a grafika javulása többé-kevésbé kifutotta magát, mint a játékélmény növelésének eszköze. ha input fronton nem lesz valami drasztikus újítás, akkor hiába lesz 86MPixelen 160M poligonod, sokkal nem leszel előrébb vele. SZVSZ.
-
válasz
Dare2Live #3483 üzenetére
én két dolgot látok, ami komoly különbség lehet a DX10 javára:
- korrekt AA deferred rendering mellett (ehhez kellene legalább egy játék, ahol ez kimutatható szép screenshotokkal)
- geometry shader nincs a DX9-bensztem a GS-t még csak kóstolgatja mindenki, néhány érdekes techdemon kívül komolyabb alkalmazását még nem láttuk.
vszleg hasonló a helyzet az ígérgetett teljesítménynövekedéssel is - miért nem adott ki egyik IHV sem egy olyan techdemot, ahol az azonos eredmény mellett a DX10-es codepath 20-30%-kal gyorsabb?szóval, ha csak valaki nem húz elő valami igazi killer applicationt a kabátujjból, akkor ez egy lassú móka lesz...
-
válasz
Dare2Live #3433 üzenetére
Koreában egyes nagyvállalatok számolnak a Starcraft 2 megjelenésével a várható tömeges szabadságramenések miatt.
Gub3ra: a Techreport fogyasztásos teszttel vmi nem stimmel, nézd meg a GTX280 vs GTX280SLI fogyasztási adatokat, az szimplán irreális - innentől a többi szám is kétséges.
-
-
mit jelent az, hogy a "kezükben van"? nekem azt, hogy a játékkal kapcsolatos döntésekbe az nVidiának komoly beleszólása van. meglepne, ha ez 20-30%-nál több cégnél így lenne. a többiek meg hülyék lennének nem elfogadni, ha az nVidia odaküld hónapokra full time fejlesztőket.
DX10.1 tavaly novembertől érhető el mind HW, mind SW oldalon. a 3D engine-ek fejlesztési ciklusát ismerve az lenne a csoda, ha sok ilyen játék lenne. Jövő évben amúgy már elkezdenek szállingózni.
A tesselator meg custom API használatot igényel, emellett külön codepath kell neki, gondolom mindenki 5x meggondolja, hogy a gaming VGA piac 20%-át birtokló (2007 vége) AMD miatt megéri-e. -
köszi a kifejtést
Keldor Papa: nézd össze a GTX260 és a 4870 4xAA teljesítményét - 28 ROP VS 16 ROP-ról beszélünk... szerintem egy ok miatt van annyi ROP a GT200-ban - kellett az 512bites busz, hogy egy GPU mellé 4GB RAM-ot bírjanak pakolni (a Tesla kártyákban ez jól jön).
-
válasz
leviske #3265 üzenetére
szerintem már tök mindegy, mit minek hívnak, az utóbbi 2 évben 0 logika volt minkét gyártó nomenklatúrájában...
az Abu által említett cucc szerintem simán jöhet idén (ez szépen összecsengene azzal a gondolattal, hogy a 65nm-es GT200 csak kényszermegoldás a desktopon) - de simán lehet teljes kamu is.
Abu: ezt a Gather4-es dolgot nem teljesen értem - gondolom arra célzol, hogy a 80 szűrő - 80 sampler helyett 40-120 (1:3) lenne az arány. az RV770-nél az ATI nem vett vissza az RV670 1:5-ös arányából? -
de a GTX260-asok ára sem piskóta...
-
válasz
biggamer #3173 üzenetére
talán tudok ebben segíteni. úgy számoljatok az alkatrészekkel, hogy megnézitek, mennyiért veszitek, mennyi ideig használnátok és kb. mennyiért tudnátok eladni a végén. ezzel a módszerrel kijön egy átlagos havi költsége az egész gépnek. hogyha ügyesen veszi és adja el az ember a cuccokat, akkor:
- középkategóriás gépet (kb. mint az enyém) cca. havi 4-6e FT-ból
- felső középkategóriást havi 7-9e FT-ból
- high endet havi 10-15e FT-ból lehet megúszniebben benne van az is, hogy VGA-t sűrűbben cserélek, a többi alkatrészt inkább ritkábban.
ill. az is látszik belőle, hogy ha x hónap várakozással megspórolsz vmennyi lét, akkor azt érdemes-e (ha pl. felső középkat.ra lősz, és 3 hónap alatt 25e pénzt spórolsz, akkor nem érdemes várni)
-
válasz
leviske #3139 üzenetére
az a gond, hogy nem tudni, hülyeség-e, vagy sem, mert nincsenek mögötte tények - ezért példálóztam a vallással
egyébként elvi síkon a GT200-ban megvannak a DX10.1-hez szükséges eszközök és kapacitások - az SBAA viszont egy érdekes kérdés, mert míg az ATI-nak sokkal több tapasztalata van vele, az nVidia architektúrája szerencsésebb arányokkal rendelkezik hozzá. talán most még az első lenne a döntő - de ki tudja... -
-
válasz
ludasmatyi #2686 üzenetére
elég megvárni egy RivaTunert, ami ismeri a 4850-et, és utána szépen be lehet állítani a venti fordulatszámát.
a GTX 280 fogyasztása meg csak akkor sok, ha üresjáratban egyáltalán nem megy a gép - ha igen, ott szépen visszahozza. -
köszi
ennyire nem rózsaszín a helyzet. a fizikai adottságnál sokkal nagyobb memóriaigényt csak akkor tud egy kártya zökkenőmentesen kiszolgálni, ha ennek a nagy része textúra, mert ezeket bírja cserélgetni. és még itt is van limitáció, ez ugyan erősen kártyától és játéktól függ, de ökölszabályként, a fizikai memóriánál 2x nagyobb memóriaigény már aligha fog zökkenőmentesen működni.
az nVidia kártyák valamilyen okból nagyobb memóriafelhasználással dolgoznak, mint az ATI-k - erős a gyanúm, hogy ez a GT200-ban sincs másképpen, de ki kellene mérni. -
-
válasz
cowboy_bebop #2244 üzenetére
cseszegeted ahelyett, hogy örülnél, hogy nyomja itt a házilag készült teszteket. ráadásul kívánságokat is teljesít. néha nem értelek Titeket...
-
72 fps helyett nem lesz feltétlenül 105, mert sok esetben megfogja a CPU
szerintem csúcskártyát általánosan, így most is három okból vesz valaki:
- ha valaki ezzel akar felvágni vmilyen körben ("nekem van bmeg", "3DMark Vantage pontok", stb.)
- ha kíváncsi és ki akarja próbálni, és nem jelent megterhelést az ára (láttam ilyet is a pH!-n)
- ha a mainstream felhasználói szokásoktól jelentősen eltérő igényei vannak, pl. jelenleg 19x12-ben vagy feljebb akar játszaniha annyira nem bír a seggén maradni az illető, hogy 2 hónapot várjon, akkor ki fogja fizetni a "friss csúcshardver" prémiumot, ami a GTX 280 esetében cca. 40-50e HUF. ha türelmes, akkor 100e FT körül hozzájut a csúcskártyájához, ami szerintem már egy realisztikus ár (még mielőtt valaki belekötne - ezzel nem azt akarom mondani, hogy ideális ár/teljesítményű cuccot vesz).
-
válasz
tzsolesz #1840 üzenetére
istenem, olvassátok már el hozzá a körítést is, hol mért... meg nézzétek meg, hogy milyen eredményt mutat a 9800GTX...
szó sincs semmilyen csalásról meg kamuról. az egyedüli kérdés az, hogy milyen Catalyst volt a 3870 alatt, mert konzerv-eredmény van a grafikonban - 8.4 és 8.5 között van egy jelentős ugrás. -
válasz
#65755648 #1778 üzenetére
olvasd el az előzményeket. onnan indult a dolog, hogy ha 19x12-es monitoron / TV-n akarnék játszani, akkor ezt választanám. ebben a felbontásban 4xAA mellett hajlamos egyszámjegyű FPS-t produkálni a G92, egyrészt a szar memóriakezelés miatt (memória elfogy), másrészt a sávszélesség is ki bír szaladni alóla.
-
-
válasz
raskolnikoff #1732 üzenetére
mennyit játszol egy nap? ui. miután az idle fogyasztása nagyon jó, napi 2 óra game és 10 óra nemgame üzemmódban menő gép mellett nem jársz vele rosszabbul, mint pl. egy 8800GTS-sel.
Dare2Live: a kártya attól még lehet jó, hogy nagyon drága előállítani és túl van árazva. ha napi 4-5 órát játszanék, akkor elgondolkodnék egy nagyobb monitoron / TV-n, és 19x12 körüli felbontáshoz minden bizonnyal ilyen kártyát vennék, nem GX2-t és nem 88GTS SLI-t.
-
válasz
Dare2Live #1692 üzenetére
mondom:
-1- Egy GT280nál olcsobb 9800GX2 veri fpsben a GT280at. De még egy 65Ks 8800GT SLI is. Akkor mi értelme a 130K+os GT280nak? Semmi?
Egyrészt hol ide, hol oda billen a mérleg, másrészt nagyfelbontásban AA-val a G92 sok esetben felejtős, harmadrészt az SLI skálázódás még mindig messze van a tökéletesen koherenstől. Ha pedig az SLI megy, azt a GTX 280-nal is lehet - a GX2-féle QuadSLI viszont felejtős az alkalmazott 4way AFR miatt.
-2- A GT260 ha +30%ot hoz 9800GTXhez képest akkor nem nagyon fogja verni a 4870et. Mekkora is a 4870 magmérete? A GT260é? Mennyire is komplex és drága egy 448bites crossbar PCB?
Ezt egyelőre várjuk ki. Szeretném látni, hogy a 4850 4xAA/16xAF mellett pariban van a 9800GTX-szel, és akkor igazat adok Neked. Addig nem
Ill. az előállítási költség az jogos, de ez legyen az nVidia profitabilitásért felelős embereinek a baja-3- 4870 ha 9800GTXnél erősebb lesz márpedig ez elég sanszos akkor a 4870X2 csúnyán elfogja kenni a GT280at. Eközben előállítási árban kb egyszinten vannak
viszont a GTX 280 3 hónappal előbb van a piacon, és addig arat egy kicsit. meglássuk, hogy fognak alakulni az árak a 4870X2 megjelenésekor. ja, és az 55nm-en gyártott GT200-ból már esetleg lehet GX2-t is fabrikálni.
"Hülye aki új NVt vesz?"
szerintem ott megy félre az egész, hogy nem veszitek figyelembe, hogy ez a kártya minimum 50% árprémiummal indul pusztán a státusza miatt (emlékeztek még, milyen áron indult az X800XT?). ez így van minden új top-end műszaki cikknél, nem csak a PC-iparban. akinek farokméret ügyben van rá szüksége, az megveszi ennyiért is, a többiek meg szépen várnak, amíg beáll vmi realisztikusabb árra.ismétlem, szerintem a 8800GTX-re ennyit ráverni szép teljesítmény, még ha kissé későn is jött a dolog.
-
Térjen át konzolra a ***********
neeeeeem. B terv: VGA csere október vagy január környékén, C terv: marad a 9600GT, és 1 évig nem játszok 2009-es játékkal - van elég restanciám úgyis
R.Zoli: azt valaki magyarázza már el nekem, hogy miért kellene az nVidiának újratervezni az architektúráját a DX10.1 supporthoz. a GT200 esete is jól mutatja, hogy a magasabb GS teljesítményhez sem kellett új architektúra. szerintem csak sz*patni akarják ezzel az ATI-t.
Úgy általában nem értem, mi ez a nagy bukta-hangulat a kártya körül. Az ár-érték arányt egy debütáló csúcshardver esetében még szóba hozni is hülyeség, a teljesítménye meg lehetne még 20-30%-kal több, de ennyit a driverek várhatóan fognak hozni. És akkor kapunk egy kártyát, ami a 8800GTX-nél kb. 2-szer gyorsabb. Ezt hívják generáció-váltásnak, nem?
-
válasz
tzsolesz #1624 üzenetére
én nem vagyok nV fan, de szerintem teljesen rendben van a kártya - bár tény, hogy ezekkel a paraméterekkel fél évvel ezelőtt kellett volna érkeznie.
Abu85:
De még mindig nem értem, hogy mi lesz azokkal a tulajokkal akik még a nem az "upsized by 6x" struktúrájú GF8-9 karikkal versenyeznek?
Mi lenne? Sz*pni fogunkBár személy szerint nekem van B tervem
-
válasz
raskolnikoff #1443 üzenetére
ügyesen lehet ezzel takargatni, hogy 16x10-ben iszonyú CPU-limitek jöhetnek be egy ilyen szintű kártyával
köszi az INQ teszt linket!
-
válasz
raskolnikoff #1440 üzenetére
na meg nem fog elpusztulni akut sávszélesség-hiányban 1900x1200-tól felfelé...
amúgy a holnap reggeli NDA nálunk kb. du. 3 órát jelent, ahogy fentebb írta is valaki.
-
válasz
biggamer #1022 üzenetére
Ezekre hívnám fel a figyelmet az első linken:
* 2,5x more threads per chip
* Doubled register file size
* More efficient instruction scheduling and instruction issueEz mindegyik erősen gyenge pontja volt a G80-nak, ha ezeken tényleg jelentősen javítottak, akkor van rá esély, hogy tényleg sokkal gyorsabb lesz az új chip.
-
válasz
Firestormhun #992 üzenetére
tehát akkor összegezve: az új stream processorok darabonként ugyanannyi flopsot tudnak kipréselni magukból, mint a régiek, viszont mégis 50%-kal gyorsabbak lesznek. ez egyre érdekesebb
-
sztem a GTX 280 kb. akkora előrelépés a 88GTX-hez képest, mint anno a 78GTX a 68GT-hez, talán egy kicsivel nagyobb.
a shadereknél ködösítés folyik, az eddigiek 1 MADD + 1 MUL utasítást tudtak kiadni / clock, amiből a MUL-nak szinte semmi gyakorlati jelentősége nem volt - az újak valószínűleg 1 MADD + 1 ADD utasításra lesznek képesek, és gondolom, zajlott vmi tweaking is a témában.
az ALU:TEX arány tényleg nőtt, az eddigi kb. 5:1-hez képest lesz kb. 6:1. RV670: 20:1 -
haggggggyátok má' ezeket a szerencsétlen 3DM06 számokat - komolyan egy 2005 végi tesztprogram 1280x1024-es felbontással született eredményei számítanak egy ilyen kártyánál?
-
-
így igaz, a Crysis-ben az AA eléggé betegeskedik - ehhez az engine-hez már nem igazán alkalmas a bedrótozott MSAA.
a többi optimalizálnivaló szerintem nem annyira az engine-ben, mint a megjelenített objektumokban van...VinoRosso: nézd meg, ami CPU fronton folyik fogyasztás és gyártás terén - a GPU-k azt a trendet követik néhány év lemaradással.
-
válasz
raskolnikoff #890 üzenetére
sokáig nem lehet csinálni ezt a monstrumosítást chip fronton - a GT200 kihozatalával kapcsolatban már iszonyú huhogás megy. szvsz mindkét gyártónak a multiGPU irány az előre, tehát nem lehet hanyagolni az SLI-vonalat.
-
pedig ez vszleg kb. hiteles, max. a beállítások vannak úgy hangolva, hogy az nVidiának feküdjenek - a játékok meg eleve olyanok
ill. nem véletlenül nem a 3870 vagy a 8800GTX van ezen a grafikonon.nygma: a GX2 teljesítmény tekintetében 256-bit és 512M - ezért nagyfelbontásokon az új kártya minden bizonnyal sokkal-sokkal jobb lesz. 1920x1200 alatt nehezen tudom elképzelni, hogy 30-50%-nál több lenne a különbség - legalábbis ott, ahol a GX2 normálisan skálázódik.
-
válasz
VinoRosso #844 üzenetére
az MSAA-t a ROP-ok számolják, az SBAA-t a ROP-ok vezérlik és a shaderek számolják. mind ehhez, mind az AF-hez a textúrázókon keresztül jön be az információ. maguk a shaderek általában kevés memória-sávszélességet igényelnek, főleg, hogy elsősorban a regiszterekből dolgoznak - ha pedig vmiért nincs még regiszterben az adat, akkor az ütemező gondoskodik róla, hogy legalább a cache-ben legyen a megfelelő időben.
az AA-nál ugye az a gáz, hogy mind a framebufferen (ill. deferred shading esetén a framebuffereken) kell dolgozni, mind a textúrákat kell nézegetni, és ezért olyan gusztustalanul memória-intenzív. és igen, azt gondolom, hogy mire a ROP-ok kapacitása felkoppanna, már régen a memóriára várunk. ha meg csak a pixel fillrate-et nézzük, akkor a G92 16 ROP-ja talán ha 10-15%-ban van kihasználva (nincs kedvem most pontosan utánaszámolni
)
Firestormhun: így igaz, a 649GFlops a gyakorlatban csak 432. Ezzel szemben a 96GT alig több, mint 200, és hát a 98GTX korántsem 2x gyorsabb...
a farvizen behajókázó MUL-ról én azt hallottam, hogy a GT200-ban ADD lesz, amit várhatóan sokkal több esetben ki lehet használni - de ha egyéb optimalizálást nem végeztek, akkor a kihasználhatóság korlátai miatt a "sokkal több eset" még mindig a béka hátsója alatt lesz. bízzunk benne, hogy végeztek
-
válasz
Dare2Live #697 üzenetére
Szerintem sem kamu, de trükk az van: egyrészt a grafikon skálázásában, másrészt ott, hogy a kiválasztott játékok többségében nem skálázódik igazán jól az X2. Ld. amit a #632-ben írtam.
Amúgy 8.3-as Catalyst volt alatta.biggamer: azért a dolog pikantériájához hozzátartozik, hogy az R7xx topic off-jainak nagy része nVidia témával volt tele
-
válasz
raskolnikoff #626 üzenetére
kicsit megnéztem közelebbről azt a tesztet, és melléraktam a 3870-et kb. feltételeztem, hogy 12x10 4xAA-val készültek a tesztek, de 16x10-ben sem lenne drámaian más a kép.
eszerint a GTX260 1.5-2.5-szer gyorsabb a 3870-nél.
a GTX280 2-3-szor.
(a 4870 pedig várhatóan 1.5-2-szer).szép, de hasra nem esek tőle...
ui: 3DMark Vantage és ET:QW összehasonlítási alapot hirtelen nem találtam.
Új hozzászólás Aktív témák
Hirdetés
- Zenless Zone Zero (ZZZ)
- Eurós árlista a Google Pixel 10 telefonokhoz
- HP notebook topic
- Nagyon érzékeny lett a játékok archiválására a Nintendo
- Napelem
- Futás, futópályák
- Egyesítené a ChromeOS-t és az Androidot a Google
- Genshin Impact (PC, PS4, Android, iOS)
- Riasztó topik
- Építő/felújító topik
- További aktív témák...
- ÁRGARANCIA! Épített KomPhone Ryzen 7 9800X3D 64GB RAM RTX 5090 32GB GAMER PC termékbeszámítással
- Bomba ár! HP Elitebook Folio 9470M - i5-3GEN I 8GB I 256GB SSD I 14" I DP I Cam I W10 I Garancia!
- BESZÁMÍTÁS! MSI B450M R5 3600 16GB DDR4 512GB SSD GTX 1080 8GB Rampage SHIVA ADATA 600W
- Samsung Galaxy S23 Ultra , 8/256 GB , Kártyafüggetlen
- BESZÁMÍTÁS! SAPPHIRE NITRO+ RX 7900 XTX 24GB GDDR6 videokártya garanciával hibátlan működéssel
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest