Új hozzászólás Aktív témák
-
dezz
nagyúr
''Én valahogy úgy képzelem, hogy az egy SIMD-be tartozó MIMD-ek (vagy mind a 16, vagy csak a fele, a jó ég tudja) egyidőben ugyanazokat a VLIW-eket hajtják végre más-más adatokon (na ez egy jó mondat lett).''
Igen, én is ezt próbáltam leírni az egy oszlopba tartozós szöveggel. -
Én valahogy úgy képzelem, hogy az egy SIMD-be tartozó MIMD-ek (vagy mind a 16, vagy csak a fele, a jó ég tudja) egyidőben ugyanazokat a VLIW-eket hajtják végre más-más adatokon (na ez egy jó mondat lett). Ez ügyesen programozva állati nagy rugalmasságot jelent - de tényleg ügyesen kell programozni. Lehet egyébként, hogy itt vannak elásva a szellőztetett performancia-gondok - új a dolog, sokat kell még hangolni a dispatch stratégián (ez biztos), ill. a shader fordítón (ez ''csak'' valószínű). Az nVidiának azért sokkal több ideje volt ezekre - abban pl. majdnem biztos vagyok, hogy az irdatlan shader órajel nem volt az eredeti design része
Btw. nem ismerem a konkrét műszaki hátteret, de az eredmény szempontjából ugyanezt játszotta el az ATI az X1-es szériával is.
Na asszem ezt sírba tettük. Már csak meg kellene jelenni a kártyának
gbors -
dezz
nagyúr
Jahh, már értelek.
Néztem én azt a 4-es lapot már, de ott is egy-egy sort vettem egybetartozónak. De valószínű, hogy tényleg inkább dupla-oszloponként kell nézni.
Bár ettől még kérdéses a számomra, miért nevezi ezeket a blokkokat az AMD SIMD-nek. Végülis minden MAD egységen más-más műveletet végezhet, így ez az egész egy ''super-MIMD'' cucc. Mondjuk valószínű, hogy úgy túl bonyolult lenne a kezelésük, így az egy oszlopba tartozó, azon belül ugyanolyan sorszámú (magyarán egymás alatti) MAD egységekkel ugyanazt a műveletet végezteti a belső scheduler (Ultra-Threaded Dispatch Processor).
Érdekes. Más kialakítás, de lényegében hasonló működtetés... (R600/G80.) -
De jót röhögtem most - azon vitatkozunk már több lépésben, hogy másképp csoportosít a látásunk
De végre leesett.
Nekem egy SIMD azt a 2 oszlopnyi (8+8) 5-way MIMD egységet jelenti, amik 0 pixel távolsággal össze vannak zsúfolva, innen a 16 egység / SIMD, és 4 ilyen SIMD van. Nézd meg amúgy a 4-es sorszámú ábrát (azt, amin nincs belinkelve az eredeti linken a fórumba - tréfás fiúk), ezen a HD2600 és a HD2400 látszik, és ott 3 (egyenként 8 elemű) és 2 (egyenként 4 elemű) SIMD-ről beszélnek. -
dezz
nagyúr
Nézd a képet: [link]
Egy unitban 2x 5(+1 branch, de azt most hagyjuk) egység van, te honnan szeded ezt a 16-os számot? (16*4*8(sor) = 512!)
Naszóval, azt tudjuk, hogy egy ilyen 5-way blokk az itt MIMD, azaz mind más műveletet végezhet. Aztán valamilyen oknál fogva 2-2 ilyen van egy unitban. Most hogy miért nevez az AMD egy ilyen 4 unitból álló sort SIMD-nek, azt nem tudom. Talán úgy értik, egy-egy sor egy adott shaderkódot futtat.
A G80 shader tömbje 16db 8-way SIMD MAD egységből áll (plusz ott vannak az interpolátor és spec. funct. egységek), amik szintén párosával vannak rendezve, 8db unitba. De úgy alakul a végrehajtás, hogy minden ilyen unit más-más kódot futtathat, szép egymás utánban az utasításokat, csak éppen egyszerre 16 pixelen. -
asszem elvesztettem a fonalat
az ATIs (bocsánat, AMDs) prezentáció 4 unitról (SIMD Arrays) beszél, ezek mindegyike 16 feldolgozó egységet tartalmaz (ezek az 5+1-es MIMD-ek, vagy ahogy a prezentáció írja, VLIW végrehajtók). Én azt vettem ki belőle, hogy a 4 unit egy-egy SIMD egységként működik, igen hasonlóan ahhoz, ahogy a G80-ban 8 SIMD egységbe van szervezve a 128 stream processor. -
-
Persze, sokmindenhez kell szögfüggvény, csak az nem állt össze a fejemben, hogy mitől kell most hozzá hirtelen ilyen HW támogatás. De a T&L változása jó érvnek tűnik, meg az előbb említett geometry shaderek is.
A füstölésről. Egyik oka biztosan az, hogy amíg az nVidia-nál már egy ideje szempont a fogyasztás (nyilván nem utolsósorban a hűtés miatt, de ez most mindegy), addig az ATI erre nagy ívben sz**ni tűnik. De hogy ez önmagában megmagyarázza a 1.5-szeres / tranzisztor fogyasztást, azt még én sem hiszem
SIMD-ek és MIMD-ek: a cikkbe belenéztem, alkalomadtán végig elolvasom, thx. Ami még érdekes, hogy az R600 is hasonlóan van szervezve, ott a 64 processing unit van 4 SIMD-be szétpakolva, bár azt nem tudom, hogy azokon belül van-e további olyan bontási lehetőség, ami a G80-nál (logikus lenne, hogy legyen). -
dezz
nagyúr
Egyébként asszem mégis ''kőbe lehet vésni'' azt a (2x)8-way SIMD működést G80-nál:
''There are 128 such processors (called SPs by NVIDIA) in a full G80, grouped in clusters of 16, giving the outward appearance of an 8-way MIMD setup of 16-way SIMD SP clusters. Inwardly, each 16 SP cluster is further organised in two pairs of 8 (let's call that 8x2) and the scheduler will effectively run the same instruction on each half cluster across a number of cycles, depending on thread type.'' [link] (Tudom, már nem mai.)
(A ''8-way MIMD'' a 8db clusterre vonatkozik, azok külön-külön legalább mást csinálhatnak.)
Szó van egyébként az elemzésben arról, hogy elvileg a shader procik tudnak ilyet, hogy dual-issue a MADD and MUL, viszont a szerzők, és mások ennek semmi jelét nem látták.
Még valami: itt is vannak ám trigonometriai utasítások, a special function egységek leple alatt. Ezek számát tekintve ellentmondás van eme elemzés, és a korábban linkelt tábla között. -
dezz
nagyúr
Nos eddig volt jó kis bedrótozott T&L, ezt most már szépen shader-programokkal kell csinálni. Talán nem kell hozzá szögfüggvény?
Nem vagyok túlzottanotthon a shaderprogramozásban, de mintha eddig is használatosak lettek volna szögfüggvények egyébre is. Nem tudom, be volt-e ilyen építve, de ha így nem, akkor textúrás táblázattal volt megoldva. Csak az ugye nem olyan pontos.
Jahh, az a 730M-s adat. Tudtommal az egy becslés, ami a die méretből és a 80nm (vs. 90nm) vonalszélességből indul ki.
Viszont valaminek el kell füstölnie a wattokat... Szerinted mi? -
A crossbar vezérlő nekem is eszembe jutott, biztosan költségesebb a ring bus-nál, de szerintem nem ez a nagyságrend.
Igen, sok mindenre lehet használni kedvenc szögfüggvényeinket, de eddig megvoltunk ilyen egységek nélkül - miért kellett pont most bedobni? (...) Egy tippem mondjuk támadt közben, a geometry shadingben lehet hasznuk.
Jót derültem a tranzisztorszámos eszmefuttatáson - végül is miért ne lehetne hamis a 730M-s adat?Tartok tőle viszont, hogy a fogyasztás tényleg annyi sok lesz...
-
dezz
nagyúr
A crossbaros memvezérlő is elég sok tranyóba kerülhet a G80-ban. Meg gondolom, az is, hogy G80-on külön vannak a MAD és interpolator/INT/spec. funct. egységek.
Nem 64 transcendens egység, hanem a 320-ból 64 tud ilyet is. Hogy érted, hogy mi szükség sin, cos, stb.-ra? Ha elég gyors, szükségtelenné teszi a textúrába tett táblázatokat, memóriahozzáféréseket spórolva.
Ez a ROP-os dolog szerintem inkább csak FUD.
[Szerkesztve] -
Csabahun
senior tag
Ez kb olyan eset mint anno a 6800GT Vs 6800 Ultra.
50Mhz különbség volt a kettő között ami a 6800 Gt részéről 5 mp-volt és elérted az ultra szintet.
TELJESEN FELESLEGES VOLT EZ A KÁRTYA AZ NVIDIA RÉSZÉRŐL!!!
Szegény már szenved magától és nem birta ki,hogy ne adja ki ezt a kártyát!
Jobb lett volna novemberben egy 8900GTX. -
he7edik.
addikt
Azért az Ultra coolere nagyon bejövős
-
Igen, a nyers lóerő összehasonlítható, kérdés, hogyan veszi ennek hasznát a vezérlés. Agyaltam a dolgon, igazából azért piszkálja a csőrömet ennyire ez a 64 transzcendens egység, mert nem látom, mi szükség van rájuk
Jawohl, csak shaderről beszélünk, részemről azért, mert az R600 memóriavezérlője annyival fejlettebb, mint a G80-é, hogy eszembe sem jutott, hogy azon a fertályon lehet szűk keresztmetszet. Azt mondod, az ATI alulkalkulálta a ROP-okat? Azzal megnyernék a 2007-es év balekja díjatMondjuk egy ilyen bakit akár egy 2950-esben tudnak korrigálni.
Itt a teszt, ill. egy prezentáció, amiben tesztadatok is vannak: [link]
És akkor már csak egy kérdés: ha az R600 nemtranszcendens MAD-jai egyenértékűek G80 stream processzoraival, akkor hogy lehet a <10% különbség a két chip tranzisztorszáma között?
gbors -
Vistaboy
veterán
A GeForce 8800 Ultra várható ára 190K. [link]
Hát ez nem az Én pénztárcámhoz illő ár... -
he7edik.
addikt
Ha az XT 85K-ért 15-20%-al lasabb a 125K-s GTX-nél akkor bőven best-buy
[Szerkesztve] -
Vistaboy
veterán
Szerintem is az a helyzet hogy az előzetes tesztek alapján látták hogy a Radeon HD 2900XT nem teljesít olyan jól, mint az elvárható lenne. De nem szeretnék azt sem hogy lemaradjanak véletlenül 1-2 FPS-t a 8800GTX-el. Így kiadták az Ultra-t, ezzel már biztosan megverik az XT-t. Hacsak az XTX nem veri meg a szokásos 1-2 FPS-el...
-
dezz
nagyúr
Persze, a pontos teljesítmény mindig az adott alkalmazástól fog függeni. De azt akartam mondani, hogy a MAD (valahol MADD-nak írják) egységek száma, és az általuk pl. mp-enként végrehajtható utasítások száma azért összemérhető.
Nem tudom, mennyire gyakorlati v. elméleti az az összehasonlító tábla, szal azért még ne véssük kőbe ezt a 8-way SIMD dologot G80-nál.
Az R600-zal kapcsolatban 4+1 egységről beszélni félrevezető lehet, mert a korábbi genek voltak 4+1-esek (vec4+1 scalar), most meg 5 scalar egység van (+1 külön branch), amik fp MAD-ot, és int műveleteket tudnak, és egy tud transcendentalt is, de emiatt nem szokás külön venni.
Itt a shader teljesítményről van szó, hogy összességében hogy teljesítenek, az ugye függ egyéb dolgoktól is, mint pl. a ROP egységek száma. R600-ban állítólag ebből nincs túl sok, talán ezért volt ő is ''csak'' 2x gyorsabb, mint az X1950XTX. Meg tudnád egyébként osztani azt a tesztet? -
Hmmm, köszönöm a részletes magyarázatot, némileg szakszerűbb volt, mint az egyszerű meg a bonyolult unit
Viszont a magyarázatod megerősített abban, hogy a két architektúra általánosan csak nehézkesen összehasonlítható:
Bár elsőre kissé elhűltem a nyolcutas SIMD-ek láttán, igazából ennek óriási jelentősége nincsen - a feldolgozandó adatok jellege miatt megfelelő munkaszervezés esetén a 8-way SIMD a gyakorlati esetek túlnyomó részében jól fogja közelíti a 8 önálló egységet (nyilván nem 100%-osan, ellentétben az előző üzenetemben írtakkal). Feltételezem, hogy ezzel a megoldással egy rakás tranzisztort spóroltak.
Az R600 miatt azért vakarom a fejem, mert a 4+1 egység alapú szervezés mögött (ami ráadásul a fentiek alapján MIMD) makacsul valamilyen funkcionális célt sejtek, tipikusan bizonyos műveletsorok ''olcsóbb'' végrehajtását - ezért is beszéltem összetartozó műveletről. Viszont ez a megközelítés egy lényegesen nagyobb tudású feladatvégrehajtót feltételez, aminek a hatékonysága (különösen az életciklusa elején) a bemenő adatok függvényében erősen szórhat.
És igen, a számok alapján valóban 50%-kal gyorsabb kellene legyen az R600 - de nekem sincs jó érzésem. Láttam egy állítólag ATI-tól kiszivárgott tesztet, itt szélsőséges körülmények között 2x gyorsabb volt, mint az X1950XTX - pont ott, ahol már a 8800 Ultra is kb. 2x gyorsabb a volt királynál.
gbors -
RI/OS
addikt
válasz
he7edik. #105 üzenetére
,,Az Ultrának nagyon ''még húzzunk le egy uccsó bőrt a 8800 sorozatról'' amíg ki nem jönnek az új ATI-k szaga van. ( max a tuningos NV legenda életbentartása végett ....,,
pont ezt mondom én is. De ezt csak azért teheti meg mert az R600 nem fog nagyot szólni
,,mert az látható hogy az ATI kártyák nagyon alá lesznek árazva az nvidiáknak ( most térülmeg igazán az R500 amit Bill bácsinak fejlesztettek ),,
szerinted ha jobb lenne nem lenne drágább?
az ati sem a pénze ellensége. Egy jobb kártyáért többet kérne, mint az nv kártyái. Szerintem elég egyértelmü a dolog. -
dezz
nagyúr
Hát nem egészen.
Amit te ''egyszerű''-nek írsz, az a legtöbbet használt, fullos floating point MAD egység, integer supporttal (bitwise ops is). A ''bonyolultabb'' csak abban különbözik, hogy transcendentális (sin, cos, stb.) függvényeket is tud. Mindez úgy csoportosul, mintha 64db 5(+1)-way MIMD egység lenne, amiben az 5 független utasítás superscalarban hajtódik végre, azzal a kitétellel, hogy transcend. op csak egy lehet ebből. (A +1 az ugrás lehet.)
A G80 meg nem 128-way superscalar, hanem 16db 8-way SIMD MAD egység, plusz 16db 2-way SIMD interpolátor és spec. funct. egység (4 clk/op) van van. Azaz egy MAD egység ugyanazt az 1 utasítást hajtja végre 8 adaton. Azonban ha nem tudsz összeszedni 8 adatot 1-1 utasításra, akkor csökken a kihasználtság.
Szóval simán összehasonlítható pl. MAD ops/s szempontból, de más szempontból is.
Nézd csak meg ezt: [link]
Órajeleket is figyelembe véve, kevert MAD, MUL, és ADD utasításokat véve az R600 másfélszer gyorsabb, 100%-os G80 MAD egyéség kihasználtságot feltételezve. Mi van, ha nem jön össze a 100%...?
[Szerkesztve] -
Pedig tényleg nem hasonlítható direktbe össze - többek között azért sem, mert a 320-ból 256 ilyen fajta (egyszerű), 64 meg olyan (bonyolult(abb)). Célszerűbb úgy nézni az R600-at, hogy 64 általános processzora van, amelyek 1 órajel alatt több összetartozó műveletet is el tudnak végezni. Ezzel áll szemben az nVidia iszonyúan megpörgetett 128 stream processzora, 1 művelet / ciklussal. Szerintem csak konkrét esetre nézve lehet összevetni, általánosan elég nehéz.
Btw. míg a 8800 Ultráról feltételezhető, hogy GPU limitált esetben 0 stream processzor lógatja a lábát, az R600-nál a 320 unitot nézve ebben egyáltalán nem vagyok biztos.
gbors -
he7edik.
addikt
Azt elöbb is megtehették volna, minek vártak volna fél évet?
Az Ultrának nagyon ''még húzzunk le egy uccsó bőrt a 8800 sorozatról'' amíg ki nem jönnek az új ATI-k szaga van. ( max a tuningos NV legenda életbentartása végett )
mert az látható hogy az ATI kártyák nagyon alá lesznek árazva az nvidiáknak ( most térülmeg igazán az R500 amit Bill bácsinak fejlesztettek ) -
dezz
nagyúr
''#98: ja tudom az X1950XTX is jobb a gtxnél csak dx6ban kell nézni''
Szókiforgatós hangulatban vagy, vagy ez default?
''a 320stream meg nem hasonlitható össze az nvidia 128ával ezt már sokan elmondták!''
De igen, nagyon is összehasonlítható! Csak az órajel is számít persze, de ezt oda is írtam. Meg azt is, hogy milyen a kihasználtsága, de ezt is odaírtam. Vagy neked így már túl bonyolult volt? -
#64791808
törölt tag
Szerintem meg ha látok PH tesztet, helyi módra a két csúcs kártyáról, akkor alkotok véleményt, hogy melyik jobb.
Addig megint megy a találgatás, senki nem tud semmi, külföldi, isten tudja, mennyire kamu tesztek homályos számadataival megy a dobálózás.
Srácok megint a ''kinek-a-pöcse-hosszabb'' szintű eszmecsere van? -
RI/OS
addikt
válasz
he7edik. #100 üzenetére
minek hozták ki az ultrát?
Azért hogy az fanatikusokról akik azzal villognak hogy nekik van a csucs vgajuk,
megint lehuzzanak egy rakat pénztkörülbelül azért
#98: ja tudom az X1950XTX is jobb a gtxnél csak dx6ban kell nézni
a 320stream meg nem hasonlitható össze az nvidia 128ával ezt már sokan elmondták!
[Szerkesztve]
[Szerkesztve] -
dezz
nagyúr
BIOS/tápfesz témára: biztos, hogy emelték a feszt, mert az Ultra GTX órajeleken is többet fogyaszt. (Bár a stream proc. órajel nem teljesen egyértelmű.)
-
dezz
nagyúr
Gondolkodni?
128 stream proc. vs. 320 stream proc.
1350 MHz (GTX) vs. ~750-800 MHz.
DX10-ben 60-80%-os kihasználtság vs. ~100%-os kihasználtság. (Állítólag.)
Akkor most ezt add össze.
Egyébként, mint írtam, nem komplett DX10 programokról volt szó, hanem egyes featúrékról.
(Belinkelném, de még keresem.)
Ha igazak a hírek, a 2900XT DX9-ben tényleg gyengébb a GTX-nél, az XTX meg valószínű hónapokkal később jelenik meg. DX10 játékból meg ilyen 2-3 lesz idén elvileg. Akkor hova erőlködjenek - gondolhatják. Meg különben is: ha lassú is lesz a G80 DX10-ben, mire ez kiderül, már eladott az Nvidia x ezer Ultrát is, szal max. ők röhöghetnek a markukba...
#96: miért kellene kint lennie? Az X1950TXT elég jól teljesít, hacsak nem 2560-ban játszol, a DX10-es cuccok meg még csak most kezdenek csörgedezni.
[Szerkesztve] -
RI/OS
addikt
válasz
antikomcsi #30 üzenetére
Dupláját hogyne.... mivan veletek....
picit azért nem ártana gondolkodni....
Ha az R600 a duplája lenne gondolod az nvidia kiröhögtetné magát egy ilyen ultrával?
azért hoztak ki egy ilyen orajel tuning ultrát valszeg mert ugy látják hogy az r600 a levesbe sincsen......
[Szerkesztve] -
Prosector
addikt
Ugyan nem kapcsolódik szorosan a témához ,de nem találtam jobb helyet ahová írhatnék,új topikot meg nem akartam nyitni...
Erről mi a véleményetek?
[link]
Megkérném a modikat,ha lenne jobb helye a hsz.-nek,akkor mozgassák át...köszi. -
-
többnyire középkategóriát vesz.
Pontosan.
Ha esetleg X2900XT(X) nem is üt akkorát mint a 8800 Ultra vagy a soron következő nagyágyú (8900?), de középkategóriában olcsobb vagy csak jobb lesz azonos áron a 8xxx-es középnél (ami ha megnézzük azokat a gyér stream mennyiséget ami most pihen benne...) nem lesz olyan nagyon nehéz. AMD-nek virítani. -
Lassan már be sem fognak férni a videokártyák a házba.
-
Vistaboy
veterán
Igen, az remek ha nem kell a drága kártyát megvenni, mert az olcsó is tudja ugyanazt...
De itt még bejön a képbe a program is, ami ha nem támogatja csak a Quadro-szériát, akkor hiába vesz az egyszeri mikrobiológus cége 8800 Ultrát...
Mondjuk, ha a CUDA támogatja, akkor lehet hogy előbb-utóbb a többi is fogja. Kérdés hogy akkor ki vesz majd Quadrót?
[Szerkesztve] -
Tudna valaki egy linket adni az emlegetett ''ati bejelentéses'' hírről? Csak érdeklődésképpen.
-
Hűha. 30%-os overclock? Fesz.emelés kellett hozzá? Ill. teljesítményben is hozza?
Egyébként persze, hogy számít a BIOS, abban is lehet valamennyit emelni a feszültségen - a fent említett két eVGA BIOS között is minden bizonnyal ez a fő különbség.
Btw., miért máshonnan vadászott BIOS-okkal dolgoztok, miért nem pl. NiBiTor?
gbors -
feka007
veterán
Érdekesen/jól néz ki a kari, furcsa, hogy a ventillátor immár nem középen helyezkedik el. De az a 10-15% gyorsulás bőven nincs arányban az árral, jelentéktelen a GPU tuning, 576@612... elég szerény
-
adm
őstag
ez a probléma lényege.. ha egy fx5600 ((x2)) hozza a több utas xeon/opteron konfigok számítási teljesítményét legalább az eddigi quadro partner programokban az remek. ha erre egy mezei 8800 gts/gtx/ultra is képes az még remekebb. már csak azért is, mert mikrobiológiai kutatásokkal és részecske szimulációval feltehetően kevesebb ember foglalkozik (szabadidejében), mint matematika/mérnöki számításokkal, video szerkesztéssel és 3dmodellezéssel
-
John_Doe
senior tag
Eddig is volt hasonló teljesítményű GTX OC pl az MSI-nek vagy az ASUS-nak
Akkor most majd ezek a gyártók csinálhatnak Ultra OC-t -
Hááááát, azért a 8600-as vonallal bizos volt meló
A 65nm-nek tudnék örülni, mert remélhetőleg tovább fogja csökkenteni a fogyasztást. Én már a 8800GTX-ét is sokalltam, de a 2900XT becsült 270W-os fogyasztása kicsapta a biztosítékot. Ez már a havi villanyszámlában észrevehető számot jelent!
RI/OS (#58): ez akkor azt jelenti, hogy az Ultra tuningban is 10-15%-ban lesz jobb (a 648 mondjuk meglepett). Ha az nVidia jól kalkulált, akkor ez pont arra elég, hogy elvegye a 2900XT élét.
gbors -
kovy79
őstag
Én alapjában véve ''piros'' párti vok, de ez az SLI kép nagyon komoly. Mint két műalkotás.
A teljesítménye a régi Ultrákból következtetve várható volt, de az állítólagos tuningpotenciál elég durva. -
RI/OS
addikt
Eddig a maximum amit elbírt a kártyám 648/1566/2160.
Ha többet megy, akkor raktak nitrót az biosba -
#gab_
őstag
''
PS: a 8900-ast legutóbb szeptemberre csiripelték a madarak - szerintem az nVidia azon dolgozik (meg a Vista drivereken ), azért a nagy csend''
jaja!
több mint fél éve nem kell semmit se csinálnia !
GTXet kicsit vmoddolta,rádobott 0.8nses ramokat és kész az ultra....
szvsz a köv nv kártya már 65nmes lesz... -
válasz
venember83 #46 üzenetére
Amit az nVidia ezzel az Ultra-val csinált, az a pofátlanság teteje - ellenben le a kalappal, hogy milyen ügyesen gazdálkodnak meglévő erőforrásokkal, ahelyett, hogy iszonyú pénzeket ölnének minden apró sz** kifejlesztésébe
Ahogy elnézem a teszteket, a 8800 Ultra annak jó, aki 25x16-as felbontásban akar játszani - itt már pár játéknál köhögcsél a GTX, és itt látszik az eredménye a 20%-os memóriatuningnak is - lejjebb inkább csak a core tuning mutatkozik meg.
Miután jól tuningolható a kártya, szerintem az ára ellenére is lesz piaca - különösen, ha egyes szívünknek kedves gyártók előállnak pre-overclockolt verziókkal, ld. Sparkle Calibre.
gbors
PS: a 8900-ast legutóbb szeptemberre csiripelték a madarak - szerintem az nVidia azon dolgozik (meg a Vista drivereken), azért a nagy csend.
-
Hun'reeth
őstag
De jó! van ilyen is. Akinek kell.
Részemről a 50k-s 8800 GTS -re várok. -
Qwarc
csendes tag
hát ennyi erővel vennék egy galaxy 8800 gtxet azt az alapbol ennyin járna kb
... csak legjobb tudomásom szerint a galaxy ebböl nem csinált eddig. aztán kitudja
bár engem nem mozgta még a dx10
megleszek a 7800 gtxemmel
-
#gab_
őstag
nemtudom, hogy írta-e már vki.. de az ultrában hatalmas tuningpotenciál van.
guru3d.comon 690/1728/2500ra huzták fel !
és azért a2500mhzes GDDR3/1728mhzes shader elég durva...
RI/OS: ''Én beleflesseltem az enyémbe az ultra biosát, tökéletesen müködik.''
igen?
akkor ezt majd kiprobálom...
a G80/R600 vitához: szvsz felelötlen olyat állitani, hogy az r600 gyorsabb lesz...
az egy dolog, hogy papíron nagyon erős/elméleti számitások alapján gyorsabb lesz mint a G80..
de gyakorlatban lehet, hogy ezek a találgatások/számítások krvára nem érnek semmit...
ott van pl az x1900..
papiron sokkal fejletebb mint a 7900GTX..
de pl a shader intenziv Fearban az nv gyorsabb...
nem a benchre gondolok!
az in-game teljesitményre...
[Szerkesztve] -
venember83
nagyúr
Nem akarok semmilyen nV-ATi harcot. De ha lenne ATinak is csucs vagy csucskozeli kartyaja akkor nV is lejjebb menne az arakkal. Ennyit akartam mondani.
Kulonben ha 85szor masolom le ugyanazt a hamis tesztet az hitelesebbe teszi?
#43: egyetertek, de ez ATi lomhasaganak is koszonheto, mivel ha o nem jon ki jobbal, akkor nV sincs miert siessen, ezt mar tobbszor leirta mas is.
rosszindulat on: tetszik ismerni a MOD gombot?
[Szerkesztve] -
radírfej
senior tag
-
RI/OS
addikt
válasz
venember83 #42 üzenetére
Ne nyissunk ati vs nvidia harcot itt is, de mikor már a 85. Teszt is azt hozza ki, hogy az R600 sehol nincs a gtxhez képest, az már nem hiszem, hogy fake
[Szerkesztve] -
RI/OS
addikt
válasz
venember83 #42 üzenetére
Igen amig ki nem jön az új. De én pl decemberben wettem gtxet, most május wan, az ultra biosa is rámegy, szóval nem wolt rossz wétel, mert éw wégéig szvsz nem lesz ami lenyomja!
-
venember83
nagyúr
-
hardzsi2
aktív tag
nVidia most picit ejtőzik és kiélvezik a sikerüket és az ezzel járó extra bevételeket. A lazulás tisztán látszik, nyilván a driver-író csapatukat is a Bahamákról rángatták vissza, amikor feldühödött vásárlók 8800GTX-eket baltaként lóbálva támadtak a cég székházában hátrahagyott portásokra január-február tájékán
[link]
Persze tudjuk, mi lesz a vége, ha kényelmükben nem a következő generáció chipjeit reszelik vadul; az AMD-nek is jól futott a szekér az A64 fénykorában, most meg hol vannak...
A technológiai piacon gyorsan és váratlanul fordul a kocka - remélem ezzel a pillanatnyilag előnyben levő cégek is tisztában vannak... -
Zull
senior tag
pontosan, detto mint az intel... amien hamar ki tudtak hozni a c2d-t ugy mostis lehetne oan iram mint anno... de felesleges, mert ok a leggyorsabbak most, nem kevessel, es az nvidia is ezt csinalja... mar ott csucsul az olukben az uj csucskartya, de felesleges kiadniuk addig ameg nincs rivalis... nem uzlet az nekik
-
RI/OS
addikt
Én beleflesseltem az enyémbe az ultra biosát, tökéletesen müködik. Így ismét enyém a leggyorsabb vga, 0ftos pénzkidobással.
-
#72042496
törölt tag
válasz
venember83 #33 üzenetére
Szerintem az, ami a szerkesztés előtti #32-ben volt.
-
CSorBA
őstag
hagyjuk, kommentek alapján fake volt... (marmint amit eloszor beírtam)
[Szerkesztve] -
rudi
nagyúr
válasz
antikomcsi #26 üzenetére
Szerintem a dupla majd valami extra végződést kap, a GDDR4-es meg 50-est, de lehet, hogy az év végére várható cucc (talán addigra GDDR4-gyel) már 8900-as széria lesz. Aztán az is lehet, hogy a 8800-as szériát csak jövő tavasszal frissítik fel, majd kiderül a maga idejében, egyelőre lássunk tisztán R600 ügyben.
-
rudi
nagyúr
Mindig is nagy kérdés volt, hogy mennyi a különbség a Quadro és a normál széria között. Igazán pro alkalmazásoknál szerintem továbbra is az lesz, hogy csak a Quadrokat fogják támogatni, de a CUDA minden gond nélkül működik az átlagos 8000-es szériával is. Mondjuk, a CUDA-s dolgok azért nagyon spécik lesznek nem is annyira iparágiak, inkább tudományos számolásosak. Videoban most éppen a kis 8500/8600-as széria áll nagyon jól, olyan új áramkörük van, ami nagyot dob a H.264 dekódolás sebességén. Nemrég volt erról cikk az Anandon [link].
-
antikomcsi
veterán
Én nem érzem igazán létjogosultságát ennek a kártyának, jobban örülnék egy 8800GS-nek 256mega 256bit 64stremproci.(<-- saját fantázia
) Annak a teljesítményére kíváncsi lennék.
De ez szerintem semmire nem jó, a mi szemszögünkből. -
nap
addikt
Aszittem má, hogy rögtön dupla a kártya, oszt nem, de ménem csinálták duplára?
-
-
-
Retekegér
MODERÁTOR
válasz
venember83 #19 üzenetére
Ez olyan, mint belépőszinten a GDDR3, ld. Galaxy...
-
Retekegér
MODERÁTOR
válasz
venember83 #13 üzenetére
Pedig a GDDR4 már debütált az X1950XTX-el, igaz nem azon az órajelen, amivel a júzereket riogatták. Egy kicsit felpiszkálják a GDDR3-at, és már jöhet az új megnevezés: jól megszokott stratégia az nVidiánál...
-
venember83
nagyúr
válasz
Komplikato #15 üzenetére
Kozepkategoriaban GDDR4? Ez nekem uj, de hajra, en orulni fogok ha igy lesz, legyen igazad
Kulonben ugy ertettem, h semmi ertelme most az nV-nek GDDR4-el kidobni barmilyen kartyat, hisz ugyis ove a leggyorsabb. -
max-pain
senior tag
A hivatalos ara jelen pillanatban 829 dollar (hogy miert nem 799 azt nem ertem), de allitolag nagyon hamarosan 699 dollar lesz.
-
Komplikato
veterán
válasz
venember83 #13 üzenetére
Ez csak azért fura, mert ugye X1950XTX az GDDR4-el készül, sőt raktársöprés okán egyik gyártó csinál GDDR4-es X1950pro-t is. Másrészt az X2600XT-n nem GDDR4 lesz?
-
-
#72042496
törölt tag
A GTX-be nem lehet belesütni az Ultra BIOS-át? Ezzel a kis beavatkozással ugyanott lenne az ember (- garancia
).
-
Retekegér
MODERÁTOR
No, GDDR4-nek se híre, se hamva...
-
rudi
nagyúr
Két oka lehet egy ilyen VGA-nak, és egyiknek sincs túl sok köze a vásárlókhoz:
1. kiderült, hogy az R600-as csúcscucc nagyon üt, és tüzet kell oltani legalább ezzel a nagyvassal, hogy ne legyen túl nagy a lemaradás
2. kiderült, hogy az R600-as csúcscucc nem üt túl nagyot, és egy ilyen tuningolt GTX elég ahhoz, hogy ismét az NVIDIA birtokolhassa a ''leggyorsabb VGA'' címet. A tuningbuzik úgyis a leg-leget veszik, a többiek meg úgysem a széria legtetejéről válogatnak hanem 8800 GTS szintről.
Aztán ott vannak az olyan apróságok, hogy a hírlevélben úgy hírdetik, hogy az nForce 600-as chipkészlettel és Intel Core 2 Duo Quad processzorral ez a világ leggyorsabb PC platformja, szóval ATI és AMD sehol sincs hozzájuk képest. No meg azt is meg kellett mutatni hogy nem csak az AMD/ATI tud batárnagy VGA-t csinálni -
venember83
nagyúr
Azert az nV is nagyon kitett magaert... Latszik, h nagyon izgatja a konkurencia
Ezek szerint igaz a anandteches (asszem) szimulalt 8800ultra teszt, amiben nagyon messze jarnak a +10/15%-tol gtx-hez kepest.
-
Most nem azért de GTXről nem fogok váltani Ultrára...
Még a 15%ot sem érzi meg az ember.... max az akinek az élete a framrate...
Üdv,
Vikthor -
Vistaboy
veterán
Hát az biztos hogy brutálisan néz ki a két kártya együtt...
-
craine12
tag
Nem mintha érintene a dolog, de kivételesen nem 999€ lett a 999$-os ár alapján az ajánlott ár? Csoda történt.
-
Egyvalaminek biztosan örölük: végre visszajött az ''Ultra'' jelölés, ami a 6800 sorozat óta nekem személy szerint hiányzott.
Másrészt nem vagyok biztos abban, hogy kellett ez a fehasználóknak, azaz a GTX-nél ''néhány'' megahertzzel magasabb frekvencián járó, mondhatni gyárilag tuningolt kártya. -
oettinger01
őstag
ha 10-15% sebességbeni külömbség akkor az árcédulán is ennyivel többet kellene írni a gtx-hez képest....
-
masterful87
senior tag
Hát ez beszar@s...
AMD-ATI megettette ezzel a május 2-vel, akkor azt mondták, hogy nana, akkor mi is felvonolunk... ATI jön 14-én (vagy nem...) és az Ultra is csak 15-én.
Szerintem nVidia nyugodtan kihozhatta volna, már 2-án, az ATI jelenlegi teljesítményét elnézve -
wwenigma
Jómunkásember
Na, ez kellett, sufnituninggal is ott lehetett az ember eddigis....
Új hozzászólás Aktív témák
Hirdetés
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Hardcore café
- Xbox Series X|S
- Arena Breakout: Infinite
- Eldurvul a Nova Lake-kel az Intel-féle hibrid dizájn
- Azonnali navigációs kérdések órája
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- LEGO klub
- Hálózati / IP kamera
- Revolut
- További aktív témák...
- Bomba ár! HP Elitebook 8570W - i7-QM I 16GB I 750GB I 15,6" HD+/FHD I Nvidia I W10 I Garancia
- AKCIÓ! ASROCK H310CM i5 9600K 32GB DDR4 500GB SSD RTX 3050 8GB DeepCool Tesseract SW 500W
- Így lesz a Logitech MX Keys magyar billentyűzetes
- BANKMENTES részletfizetés Noblechairs HERO Fekete/Platinafehér Gamer Szék
- Dell latitude, precision, xps, magyar világítós billentyűzetek eladóak
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest