- Huawei P20 Pro - profit csinál minden fotósból
- Egyesíti a Google az Android és a ChromeOS rendszereket
- Bemutatkozott a Poco X7 és X7 Pro
- Samsung Galaxy Watch6 Classic - tekerd!
- Android alkalmazások - szoftver kibeszélő topik
- iOS alkalmazások
- Vékonyabb lett, jobb kamerát kapott, de az akku maradt a régi: itt a Fold7
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Sony WF-C710N - átlátok rajta
- Samsung Galaxy A54 - türelemjáték
Aktív témák
-
válasz
horvathkrisz #4885 üzenetére
hmmm, most csudálkozom...
nekem TFT-m van (kb. 3 éves, 12ms-es), és tökéletes a kép, 60Hz-en még jobb is, mint a 7300GT-vel (azzal az volt homályos egy kicsit).
VaniliásRönk: ez elvileg igaz (bár nem tetszőleges mértékű homályra), de akkor magyarázd meg a fentit a 7300GT-vel
[Szerkesztve] -
válasz
horvathkrisz #4875 üzenetére
az majdnem biztos, hogy az átalakító dongle rossz, bár nem értem, miért csak CRT-knél jelentkezik...
-
csak pár gondolat a mai ''terméshez'' ömlesztve:
A 2600XT ilyen tudatos kártya, valószínűleg főleg az lesz elégedett, aki pontosan tudja, mire veszi. Minden régi játék normálisan megy vele, de ilyen 40-50 fps-es meglepetések beugorhatnak. Részemről WTFC, de ha valakit ez zavar, akkor ilyen bejöhet ennél a kártyánál.
Az x1950Pro-nál sokkal soha nem lesz jobb DX9-ben, de kicsit előzhet a jobb latency hiding miatt.
Az 1950GT-t nem értem, akkor már miért nem Pro? Mellesleg a 600Mhz-en hajtott 7900GS-nél a Pro sem lesz számottevően gyorsabb...
P4 2.8 nagyon kevés hozzá, a legmázlistább Prescott magosakat sem lehet eléggé meghúzni, kellene vagy 4.5-5Ghz.
A Sapphire kártya szerintem sem túl hangos. -
válasz
VaniliásRönk #4695 üzenetére
ATT tényleg jó cucc, csak éppen a 2600-as kártyákkal nem szeretik egymást (nekem pl. helyből resetelt...) - kell várni egy újabb verziót belőle. Az AMDGPUClockTool meg pont erre az egy dologra jó - 2600-ast overclockolni.
longley: 256-os DDR3-as kártyát vegyél sztem, ha ultra-érzékeny vagy a hangra, akkor a HIS IceQ-t javaslom, ha nem, akkor jó a Sapphire is. Esetleg vegyél egy Sapphire-t és cserélj rajta hűtőt. -
AA-t felejtsd el, és akkor tudsz vele játszani az említett felbontásban nagyjából max. beállításokkal - legalábbis ha a játék készítői odafigyeltek arra, hogy abban a felbontásban is rendesen menjen.
Persze kérdés, milyen fps-t vársz. 30-40-et még a legújabb játékokban is produkál. -
válasz
sebestyen #4483 üzenetére
Az ICE-Q hűtésnek elég jó az ázsiója, azzal biztos nem jársz rosszul. 512-esben nincs? Lehet, hogy azzal járnál a legjobban.
Amúgy szerintem is felesleges az 512M, de ha Te kételkedsz, akkor inkább érdemes rászánni azt a 3-4e FT-ot, és akkor nyugodtan alszolIll. amikor eladod, részben vissza is jön.
-
grunge:
ha 2-3 ezernél nem többel drágább az x1950Pro, akkor érdemes azt venni. vagy egy x1950xt-t, ha nem zavar a fogyasztása
MC Pite:
google ''amd gpu clock tool''
Mayday:
sajna nincs további tippem -
#4049 horvathkrisz
annyi, hogy amint megjelenik vmelyik játék, lehet letölteni.
#4047 m4rc!
sztem ha vsyncet kikapcsolom, már kellemesen játszható lesz. vagy kicsit a detailből lejjebb lehet venni - azt majd a végleges játékkal, mert ez a demo nem túl tesztbarát... -
válasz
horvathkrisz #4040 üzenetére
Ha ez megnyugtat, én már regisztráltam is a játékokat
Egyéb: megtámogattam kis + memóriával a gépet, és csináltam pár Bioshock tesztet (FRAPS). 10x7-ben láthatóan CPU / memória sávszél limites a téma, 12x10-ben viszont már átveszi a GPU a szűk keresztmetszet szerepét. Mivel nincsenek benne a kezdeti magas FPS-es részek, a számok sokkal kisebbek, mint a weben látott tesztekben. 12x10-ben épphogy játszható a game, viszont meglepően sokkal szebb, mint 10x7-ben.
Test 1: Bathysphere megáll - Splicer leugrik
10x 7: Frames, Time (ms), Min, Max, Avg
1514, 49915, 19, 33, 30.332
12x10: Frames, Time (ms), Min, Max, Avg
1174, 51599, 18, 25, 22.752
Test 2: Bathysphere ajtaja kinyílik - Adam injekció
10x 7: Frames, Time (ms), Min, Max, Avg
2893, 78829, 21, 59, 36.700
12x10: Frames, Time (ms), Min, Max, Avg
2294, 76527, 15, 54, 29.976
Test 3: Magunkhoz tértünk az injekció után - felértünk a lifttel
10x 7: Frames, Time (ms), Min, Max, Avg
4239, 147721, 17, 47, 28.696
12x10: Frames, Time (ms), Min, Max, Avg
3415, 140107, 11, 35, 24.374 -
-
válasz
kill_bill1 #3828 üzenetére
kill_bill1, Olasza: és ugyanazt a renderert használjátok? (ie. DX9 v. DX10)
-
válasz
VaniliásRönk #3779 üzenetére
Nem szoktam olvasni, de most ránéztem. Jól szórakoztam a két friss related cikken - művészi alapossággal kerülnek minden műszaki részletet. Csak annyi látszik, hogy a multiplatform licencelésre szánt engine-nel az Epic nagyobb fába vágta a fejszét, mint gondolták - a partnereik meg persze nem ilyen lovat akartak. Egyrészt jogosan mérgesek, másrészt nekik is lehetett volna több realitás-érzékük.
Hogy műszakilag mekkora a gond, ki tudja, de gondolom, ez platformtól függően akár erősen más-más lehet. A ''rossz a technológia'' típusú kemény magon pedig jót derültem azután, hogy tegnap esett le az állam a Bioshock-tól.
Ui: CCC-vel akkor leszek hajlandó kezdeni, ha minimum:
a) fixálnak egy .NET verziót, és nem kúsznak felfelé
b) a 200 millió file-t egy archive-ban tartják, nem x helyen a HDD-n -
-
válasz
Eagle16 #3755 üzenetére
Akadni nemigen fog (btw. DX10-ben nézted?), mert jól össze van rakva a játék, és kicsi az fps-ingadozás (vszleg ez nem csak az engine érdeme, hanem a level designerek előrelátását is dícséri) - ezért viszonylag alacsony átlag-fps-sel is jól játszható lesz. Ha minden játék ilyen lenne, de jó is lenne...
-
válasz
Komplikato #3754 üzenetére
Hát, ha a shader teljesítményt nézem, akkor 16x12-ben 24-25fps várható, 12x10-ben pedig 35 körül (vagy kicsit kevesebb a vsync miatt). Ez eléggé összecseng Kicsimax ''feelingjével''
-
válasz
GuMipOkE #3736 üzenetére
Megható, hogy így szíveteken viselitek a lelki nyugalmamat - tájékoztatásul, hajnali 4-kor egészen nyugodtan aludtam, köszönöm
Azt egyébként én is látom, hogy ez egy komplett Catalyst csomag, az aggodalom annak szólt, hogy valamilyen perverz okból nem-e kell-e esetleg-e feltenni-e a CCC-t is, mert akkor inkább a harakiri...
Ha már Bioshock, megnéztem a DX10 számokat az AMDZone-os cikkben, 16x12-ben majdnem %-ra pontosan a shader kapacitást tükrözik az fps-ek (vszleg 12x10-ben is úgy lenne, csak ott a GTX-et limitálja a vsync). Ha ebbe a HD2000-esek is így fognak betagozódni, akkor lesz nagy meglepetés... -
-
válasz
VaniliásRönk #3660 üzenetére
ha a textúrák mérete nő, az különösebben nem fog fájni a 2600XT-knek - ha a mennyiségük nő, az lövi hasba a 8 TMU-t.
-
FireGL:
Azt egyébként tudod, mit takar a TWIMTBP? Nem arra gondolok, hogy minek a rövidítése, hanem arra, hogy mitől kerül egy ilyen logo a játékra.
luci: a Sapphire egy kellemesen szürke márka, nem jellemzőek a kiugrások sem felfelé, sem lefelé. Gondom eddig nem volt vele. Mondjuk az áresésre várással nem biztos, hogy jó lóra teszel, elég alacsony áron indultak a 2600XT-k. -
CPT.Pirk, itt a filozófiás rész a #1-es hsz-hez (a felépítés szekció tükrében szükség esetén módosítok rajta):
Az ATI a HD2000-es szériában ismét a jövőbiztosságot tűzte a zászlóra. Jelen esetben ez két fő gondolat köré szerveződik:
- A minél hűebb DX10 kompatibilitás (nem csak követelmények, hanem filozófia terén is)
- A midrange és low end kártyák esetében a HD video-formátumok minél erősebb támogatása.
Az utóbbiról itt talán elég annyit, hogy a 2600-as és a 2400-as kártyák a két legelterjedtebb HD codec-et (a VC-1-et és a H.264-et) maximálisan támogatják, egy manapság már gyengének számító egymagos processzort is olyan mértékben tehermentesítenek, hogy a processzor-igény nem megy 30% fölé - egy modern processzoron pedig bőven 10% alatt van.
A DX10 kompatibilitás a következő fő pillérekre épül:
Nagy számú shading thread párhuzamos kezelése és magasfokú latency hiding
A hatalmas regisztertömbnek, az ügyesen elhelyezett cache-nek és az X1900-széria továbbfejlesztett ütemezőjének (dispatch processzor) köszönhetően a HD2000-es kártyák több ezer shading szál (thread) ''észbentartására'' képesek. Ezzel egyrészt egyszerűvé válik a különféle, pl. memória-hozzáférésből adódó késleltetések kiküszöbölése (latency hiding), másrészt a DX10 geometry shaderének várhatóan sok párhuzamos szálra lesz szüksége, így ennek kiszolgálása sem okoz majd problémát. A dispatch processzor órajel-veszteség nélkül képes a szálak között váltani.
A fentiek igazak a HD2000-széria minden tagjára - az első igazi DX10-es játékok megjelenéséig viszont még várnunk kell arra, hogy a fenti stratégia igazolást nyerjen.
A hardware MSAA megszűnése
Mivel a DX10 megköveteli az egyéni algoritmusú antialiasing kezelését (custom resolve AA), az ATI úgy döntött, hogy a hardware-es MSAA-t megszünteti a kártyáiban, és az MSAA algoritmust bármilyen egyébb AA-hoz hasonlóan egyéni shader-kóddal valósítja meg. Úgy tűnik, ez öngól volt - míg a HD2900-as kártyákon ez a megoldás ''csak'' érezhetően fáj, a HD2600-asokon a 4 ROP-pal kombinálva egy 4xAA bekapcsolásával drasztikusan esik a teljesítmény. Amíg a hagyományos MSAA marad a domináns AA forma, addig a HW-rel megtámogatott nVidia kártyák ezen a területen vezetni fognak. Megoldást jelenthet a feltörekvőben lévő edge detect AA (megjegyzés: erről írna valaki pár szót?) - meglátjuk, mit hoz a jövő.
Magas ALU:TEX arány
Az ATI már régóta hisz a számítási műveletek (ALU) és a textúra-műveletek (TEX) arányának rohamos növekedésében - erre épített már az X1900XT 16 textúrázó egységéhez társított 48 pixel shaderrel is. A változás egyelőre korántsem olyan mértékű, mint az ATI várta, ezért a HD2000-es kártyák teljesítményét sok esetben jelenleg is a textúrázók teljesítménye limitálja (összehasonlításképpen: a HD2600XT ALU teljesítmény duplája a 8600GT-nek, míg a TEX kapacitás terén csak 75% az ATI kártyája). A DX10-ben érkező Shader Model 4.0 biztosan fog hozni ugrást ezen a téren - már csak az a kérdés, hogy a játékgyártók milyen gyorsan fogják az SM4.0-t adaptálni.
Szuperskalár shader egységek
Míg az nVidia a 8000-es szériában egyszerű skalár (egy forrásadat(csomag)on egy műveletet végrehajtó) végrehajtó egységekre épített (ezek a stream processorok), és a különféle adattípusok kezelését a schedulerrel igyekezett megoldani, az ATI általános shader egységeket készített, amelyek (elvi síkon) tetszőleges adatformátummal képesek megbirkózni. A HD2600-as kártyákban 24 ilyen szuperskalár (több forrásadaton több műveletet végrehajtó) egység van, amelynek mindegyike 4 ''egyszerű'' MADD ALU-t, valamint egy komplexebb, MADD és speciális műveletek elvégzésére egyaránt képes ALU-t tartalmaz. Mivel a komplexebb ALU pl. a trigonometriai műveleteket (sin, cos és társai) is egy órajel-ciklus alatt végzi el, ez a felépítés különösen kedvez a geometriai műveleteknek (vertex shader és geometry shader). A tipikusan kétdimenziós pixel shader műveleteknek már kevésbé - itt a shader compiler ''ügyességére'' van ahhoz szükség, hogy az 5-dimenziós egységnek ne csak a 40%-át, hanem a 80%-át kihasználja a pixel shader kód.
Bár a fenti megoldás műszakilag nagyon szép, a jelenleg jellemző shader-kódok egy részével sajnos nagyon megszenved. Változni fog a kép akkor, ha a shader-programozók áttérnek a párhuzamosítható shader-kódokra - ekkor szinte bármilyen shader-kód maximálisan ki fogja tudni használni a HD2000-esek ALU teljesítményét. Már csak az a kérdés, hogy ez mikor következik be...
A fentiekből látszik, hogy az ATI a HD2000-es családban a jelenkor játékai tekintetében több áldozatot is hozott, annak érdekében, hogy a jövőben megjelenő játékok várható felépítéséhez jobban igazodjon. Emiatt minden egyes nap fáj az ATI-nak, amivel a nagy dérrel-dúrral beharangozott új játékgeneráció késik - úgy tűnik, Karácsony lesz, mire a HD2000 széria igazán meg tudja mutatni, mire képes. Kíváncsian várjuk! -
Semmilyen jövőkép nem mentség a 2600XT 4 ROP-jára
Ill. a nagy textúrák csak azt oldanák meg, hogy nem kell AF, alacsony ALU:TEX arányú játékok esetén viszont AF nélkül is szívás a kevés TMU.
Mit kellene szerinted módosítani a dispatch processzoron? (szerintem az az R600-as széria legerősebb része, kíváncsi vagyok) -
válasz
CPT.Pirk #3481 üzenetére
A 2GB-ba beleszámít az alkalmazás által felhasznált videomemória, de nem az egész (legalábbis XP alatt). A /3GB switch-ről lebeszélnék mindenkit, mert hajlamos destabilizálni a rendszert - a MS nem a korrekt szoftvereiről híres, úgyhogy simán el tudom képzelni, hogy helyenként ott sunnyog egy-egy beégetett 2147483648-es szám
-
Hmmm, mi volt itt, flame war? Én már csak a hiányzó HSZ-ek helyét látom
#3327 Speed(R):
Sztem 22 fps-nél még 12x10-ben is többet tudna.
A HDR+AA kérdés meg azért érdekel, mert szeretem tudni, mi van a ''tünetek'' mögött.
Bloom / HDR kérdésben nem tudok vitatkozni, engem egyik sem érdekel
#3330 AMD Power
Kis VGA? Majdnem annyi tranzisztor van benne, mint egy X1950XTX-ben
#3373 Sigismund
XT-t vegyél. Hűtés Sapphire-nál nem rossz, de nem is különösebben jó.
#3444 Racecam
Hmmmm, ennyire durva lett volna a hajnali egysoros kommentem?
#3447 CPT.Pirk
Teccik! A shader orientált felépítésről sztem elég annyi, ami anno a tesztben volt itt a pH!-n (esetleg szűkíve. Ha ez megvan, szívesen hozzáteszek pár gondolatot a filozófiáról (felépítés fókusza, súlyozás, gondolom ezekre gondoltál).
[Szerkesztve] -
Oblivion és HDR téma:
Milyen vicces, én is az első szabadtéri scene-en szoktam az FPS-eket nézni
Egyébként ott (is) elég CPU-limitált a játék, nálam a 640x480 és 1280x1024 között egy deka különbség nincs (HDR, Bloom és AA nélkül). Majd megnézem szűrőkkel is.
HDR + AA azért volt gázos, mert a HDR-hez más pixel formátum kell, mint amit a kártyák alapból tudtak (ez most kissé pongyola, valaki pontosítson pls), és az nVidia lassabban lépett, mint az ATI.
Esetleg Bloom + AA kombináció, mint kompromisszum? -
válasz
horvathkrisz #3292 üzenetére
why? jézuska hoz párat, nem?
-
Aki mostanában tervez 2600XT-t venni, javaslom ezt a cikket: [link]. A tesztek nem igazán relevánsak (Hilbert kizárólag AA-val tesztel), de a többi alapján szimpatikus a kártya.
-
válasz
horvathkrisz #3288 üzenetére
Hasonlóan gondolom én is, mint CPT.Pirk, az ATI által már vagy 1.5 éve zászlóra tűzött magas ALU:TEX arány a DX10-zel biztosan úgy lesz, de a DX9 is lassan abba az irányba megy. Szegény 8600GT ezt nemigen fogja bírni shaderrel - a Rainbow Six: Vegas kitűnő példa erre, egész komoly különbség van a két kártya között.
Megjegyezném, hogy a fenti elmélet a 2900 VS 8800 vonalon nem igaz -
válasz
VaniliásRönk #3241 üzenetére
ez azért így elég szélsőséges
egyrészt az órajelek közel sem ugyanazok, másrészt ha az R630-nál 120 skalár ALU-val számolsz, akkor lehet mondani, hogy a G84 ALU-i 3Flops-osak a kettő helyett.
a baj mindössze annyi, hogy az összes korrekció után a 2600XT nyers számítási teljesítménye még mindig duplája a 8600GT-nek, és szerintem a 2600XT-é is határeset lesz DX10-ben.
eagle16: DX9-ben igen - a 8 ROP (khm) és a hardware MSAA megteszi a hatását. DX10-ben viszont kötelező tudni a custom resolve-ot AA-ban, amit megintcsak a shader core-t terheli... mondjam tovább? -
válasz
radírfej #3219 üzenetére
Radírfej:
aha így már értem. megnézel nekem még két esetet?
- vsync off, soft shadows on
- vsync off, soft shadows off
Elég az avg fps.
D3D10
Szerintem a játékgyártók kezében van a kérdés - ha kellően visszafogottak lesznek, akkor a 2600XT-vel lehet majd játszani némi kompromisszummal. A 8600GT vszleg tényleg halott ügy.
Olasza
Oblivion DX9-es, nem tudom DX10-es változatról.
diegho
Ez az 575/725-ös órajelű kártya? Valamennyit nyersz a 2600XT-vel, de nem lesz drasztikus. 7k-t szerintem megér, de készülj fel, hogy az nVidia és az ATI kártyák szoftveres támogatottsága merőben más (nem jobb vagy rosszabb, csak nagyon más - engem sokkolt a dolog). -
válasz
radírfej #3175 üzenetére
#3175 radírfej
Hmmm, nekem is hasonlóak a számok, az avg ugyanennyi, a min. 9 (az akadás miatt, gondolom), a max. pedig 100 körül. Viszont a processzorom meg a RAM-om lényegesen kevesebb. Érdekes. Beállítások Nálad micsodák? Főlef a soft shadows, a volumetric lights és az AA érdekes.
#3176 Olasza
El sem hiszem, hogy valaki talált egy működő tuningprogramot
Én azért ránézek majd egy memóriatuningra, szerintem a 700->800 hozni fog 4-5%-ot. -
válasz
CPT.Pirk #3170 üzenetére
#3168, #3170 Tomoty és CPT.Pirk:
Szerintem sem lesz teljesítmény-esés, nálam a w2k-ból upgrade-elt XP-n 120SP-t mutat, a szűz XP-n meg 80-at
#3171 Olasza
Nézd meg kézzel, mennyire meleg a hűtőborda - én előbb tippelnék a szenzorra, mint a GPU-ra füst fronton. Persze ettől még a garancia nem rossz ötlet.
#3169 FBI
Ez a 450MHz-es, 20 pipeline-os kártya? Határeset, szerintem sokat aligha nyernél vele.
#3158 Tuco Ramirez:
DX10 kapcsán a PR elegánsan összemossa az architektúrális váltást meg az új feature-öket. Az első jó dolog, 0-ról újraírták az egészet modernebb alapokon, ettől biztosan sokat javult a hatékonysága - az más kérdés, hogy ez fps-re lefordul-e, mert a CPU oldali javulás a játékok nagy részénél már nem jelent sokat, a videokártyák meg saját maguk olyan jól optimalizálnak, hogy nagyon magas a kihasználtságuk (legalábbis a szűk keresztmetszetnél). Az új feature-ök teljesen más tészta - a geometry shader a fentiek miatt nagyon erőforrás-killer, ami azt intenzíven használja, ahhoz bizony a 8800GTX és a 2900XT is kevés lesz. Gyanítom, hogy az új játékokban is igen mérsékelten fogják használni, így viszont kicsit visszavett detail-lel, alacsonyabb felbontáson talán a 2600XT-ken is menni fognak.
#3161 m4rc!
gDDR3-ast javaslok, a 4-es alig pár %-kal gyorsabb.
[Szerkesztve] -
Nekem a Sapphire alap órajelen néha felmegy 75 és 80 fok közé (mondjuk a házam szellőzése nincs éppen a spiccen), szerintem ne aggódj miatta, ezek a hőmérsékletek egy GPU-nál nem vészesek. Ráadásul a hőszenzor sem tűnik valami acélosnak ezeken a kártyákon.
Tuningot a 7.8-as Catalyst overdrive miafenével próbáltad már? -
válasz
Tuco Ramirez #3150 üzenetére
Ha GS izzasztásról beszélünk, akkor nyugodtan nézzétek meg az eddigi 3 DX10-es drótozványt, azok is megteszik ezt. OK, várjunk meg egy rendesen összerakott engine-t (pl. a Rage-et - ja bocs, azt nem
), de ne számítsatok nagy csodákra - a GS ugyanabból a shader core-ból zabál kapacitást, mint a pixel shader-ek, + még generál további objektumokat, amire szintén kell pixel shader kapacitás. Emellett mi 2600XT tulajdonosok imádkozzunk együtt szorgalmasan, hogy elsősorban nem olyan új objektumokat fognak a játékok GS-sel generálni, amiket még textúrázni is kell, mert akkor aztán szépen fogunk kinézni...
Arra meg nagy összegű fogadást mernék kötni, hogy egy DX10-es játékban a 2600XT meg sem fogja közelíteni a 8800GTS-t. -
-
Ránéztem a Catalyst 7.8-ra a két játékkal, ami fent van (7.7-hez képest):
- Doom3: 12x10-ben -2% (asszem itt van valami egyéb gebasz is)
- F.E.A.R.: 10x7-ben +7%, 12x10-ben +10% (és már alig akadozik)
[Szerkesztve] -
-
válasz
Komplikato #3107 üzenetére
Nekem nem telepítési problémának tűnt, valami osztályokat hiányolt a nyomorult...
-
Welllllllll... Azért ez nem egy bolt, ez egyfajta community, szolgáltatást nem nyújt, max. önkéntesen segít. Ráadásul ez egy olyan community, ahol a tagok többsége nem kifejezetten 3DMark barát, ezért nem várható el, hogy ontsák az emberek a score-okat - tőlünk ez telik
Egyébként elvi síkon egyetértek a ''segítsünk'' kérdésben, ezért is írtam én is egy középhosszú novellát. -
válasz
Komplikato #3100 üzenetére
Catalyst: lehet, hogy a .NET 2.0 környékén van gond - a kártyához kapott cuccban volt nekem .NET 2.0 installer, azzal a 7.5-ös Catalyst ment is, viszont a 7.7-es nem.
ATT, ATITool - ahogy elnézem, ezek nem 100%-osak a 2600-as kártyákkal. -
Jók ezek a 3DMarkos villongások
Engem az nem zavar, hogy csalnak a gyártók (egyenlőek az esélyek), viszont a 3DMark ugyanúgy egy db teszt, mintha csak pl. az Obliviont nézném, és az alapján vennék kártyát. Sőt... Az Oblivionnel legalább fogok játszani.
Gyugyu007, a 7600GS-t mindenképpen cseréld le, ha ennyire nem tudsz dönteni a 2600XT és a 8600GT között, akkor dobj fel egy pénztJelenleg nagyon közel van a két kártya, az az egy-két százpontnyi különbség, ami egy 3DM06-on lehet közöttük, nem segít jó döntést hozni (ráadásul a 3DM06-ot erősen befolyásolja a CPU is, ami a modern játékokra sokkal kevésbé jellemző).
Alternatíva 1: szedd össze, hogy mikkel akarsz játszani, és nézd meg tesztekben, ezekben melyik kártya jobb (a pH!-n kívül pl. a computerbase.de-t tudom ajánlani, náluk rengeteg különféle teszteset van, és sok játék).
Alternatíva 2: ásd bele egy kicsit magad a két kártya lelkivilágába, döntsd el, melyik szimpatikusabb, melyiket látod jövőállóbbnak, és vedd meg azt.
szerk. a 6320-as C2D mindkettőt ki fogja hajtani.
[Szerkesztve] -
válasz
VaniliásRönk #3062 üzenetére
Hát, lehet ezt sokféleképpen nézni. Nem vagyok éppen nVidia fan, de azt meg kell adni nekik, zseniálisan pozícionálnak, és pontosan tudják, hová mekkora effortot kell tenni. És végső soron ők nem azért vannak itt, hogy mi örüljünk, hanem azért, hogy pénzt termeljenek. Csúf kapitalizmus
... igen, az FX sztorit ismerem. Szerintem állati jót tett az nVidiának, visszakeveredtek a talajra a fellegekből, és megúszták közepes veszteséggel. Azóta észen vannak. Mondjuk a 8600-as kártyákból kinézek egy kisebb-nagyobb buktát DX10-ben, ott azért kissé elvetették a sulykot.
AMD Power:
Sorry, néha nem bírok magammal, és kitör belőlem a technokrata -
ftc, #3050
Miért kell R/W cache?
VaniliásRönk, #3048
Megpróbálom röviden - erősen teória, de attól még lehet köze a valósághoz
Szóval, az közismert, hogy a G80-ban van egy kis architektúrális optimalizáció a float2 PS-hez - egy tömb 16 SP-je 2x8-ként 8 pixelt dolgoz fel egy órajel-ciklus alatt. Viszont sehol nem találtam arra utalást, hogy a jellemzően float4 vertex-eket hogyan dolgozza fel. Nemrégiben hallottam egy olyat (by Abu85), hogy a G80-ban a 128 SP mellett nem 128, hanem csak 32 SF ALU van, azaz 4 SP-re jut egy SF (azaz ugyanaz a felállás, mint az R600-ban - nocsak!). Bár nem vagyok shader-programozó, az ATI vect5D megoldásából arra következtetek, hogy a VS kódokban jellegzetes lehet egy SF művelet (minden bizonnyal főleg trigonometria) a float4 feldolgozáshoz kapcsolódóan. Első feltevés: a G80 ciklusonként 32 vertex kódsort kezd el feldolgozni, minden SIMD tömb 4-et, és ilyenkor 4-way SIMD-ként működnek. Ezt alátámasztani látszik, hogy a VS tesztekben a G80 azonos darabszámot csinál float1 és float4 MADD-okból / sec, holott az utóbbi ugye 4x-es kapacitást igényel. Ez azt jelenti, hogy egy float1 VS kód helyből az elvártnál 4x lassabban fut.
Miután az SF művelet 4 ciklusig tart, ezért a következő 3 ciklusban csak a 32 SF dolgozna, a 128 SP csak vakarózna. Második feltevés: erre a 3 ciklusra PS kódot tesz be a scheduler, és akkor megy tovább a VS kód következő műveletére, amikor végzett az SF. Ez ugye azt jelenti, hogy pure VS kód esetén ismét el lehet osztani néggyel a teljesítményt.
Már csak az a kérdés, hogy közkézen forgó VS tesztekben, ahol egy darab szerencsétlen MADD-ot szeretnének minél több példányban áttolni a shader core-on, miért ilyen gyenge a G80. Harmadik feltevés: a fenti 1 VS + 3 PS ütemezés be van drótozva a schedulerbe, nem pedig az adott vertex kód függvényében kerül bevetésre. Ez elsőre überparaszt dolognak tűnik, viszont sokkal egyszerűbb megcsinálni (és letesztelni...), mint az ATI varázsgömbbel vetekedő schedulerjét -> kevesebb tranzisztor és korábbi piacra dobás. És ami a legjobb benne, hogy ha áll az a feltételezés, hogy PS:VS > 3:1 (márpedig ez egy játéknál szinte mindig áll), akkor akkor sem jelent veszteséget, ha a float4 vertex művelethez nem kapcsolódik trigonometria.
GS-nél nem tudom mi a szitu, de valami igen hasonlót tudok elképzelni, esetleg más számokkal. Ill. itt fontos a feltételezésként használt PS:GS arány, mert a gyakorlati tapasztalat hiánya miatt ezzel éppen lehet nagy bakot lőni.
[Szerkesztve] -
válasz
VaniliásRönk #3043 üzenetére
#3043 VaniliásRönk:
Pure GS és pure VS. Azt kellene látni, hogy egy real-world PS/VS mixben mit csinálnak a kártyák. Erős a gyanúm, hogy a G80-ban vannak olyan bedrótozott scheduling logikák, amik miatt egy pure VS eset nem használja 100%-ban a kártyát (hanem pl. 25%-ban)
#3045 FireKeeper:
Ettől nem kell félni szerintem, el akarják adni a játékokat azoknak is, akiknek 8800GTX-ük, meg 2900XT-jük van
[Szerkesztve] -
válasz
Komplikato #3005 üzenetére
Akkor eszerint nem (csak) én vagyok a béna
-
#2989 c41r0^
''128 bites memóriabusz és a GPU a szűk keresztmetszet ennél a kártyánál''
Pontosítsunk egy kicsit: a 2600-as kártyákban 2 nagyon szűk keresztmetszet van, az egyik a 8 textúraszűrő, a másik a 4 ROP (összehasonlításként, egy 8600GT-ben 16 textúraszűrő és 8 ROP van, ami az órajeleket is figyelembe véve 35%-kal nagyobb kapacitást jelent). A shaderek összkapacitása viszont elég komoly (reálisan nézve 153.6GFlops a 8600GT 76.8GFlops-ával szemben, vagy parasztvakítósan nézve 192 VS 115.2).
Ha a 128 bites busz lenne a nagy gond, akkor a gDDR4-es változatok +50%-os memória-sávszélje pont ütős lenne.
#2998 Windy Joe, #2999 valentinho
A Sapphire kártyákon 1.2ns-es RAM van.
Eszerint a CCC-vel lehet rendesen húzni a kártyát? Mit jelent, hogy ettől nem megy a 3DMark? Csak az nem megy? És alapon megy?
Ill. ha valaki tudja, a RivaTunert hogy lehet ráidomítani a 2600XT-re, pls árulja el!
Thx! -
2892 tata21:
Szerintem 3-as - a 4-es 5-10%-kal gyorsabb, és jóval drágább.
2888 Laci888:
Mennyi időre szánod a kártyát, ill. mit fogsz használni rajta? Ha a jelenlegi / jövőbeli játékok érdekelnek főleg, akkor valószínűleg jobban jársz a 2600XT-vel, bár van azért egy kevés kockázata, hogy a 2008 közepi-végi termés egyik kártyán sem fog rendesen menni még DX9-ben sem, és akkor hiába lesz gyorsabb a 2600XT.
Szerintem olyan közel van egymáshoz a két kártya, hogy egyiket sem érdemes a másikra cserélni, nem éri meg a macerát - de én a kevés szabadidős sarokból beszélek. -
#2870 Laci888:
Azt hittem, játszani akarsz veleA magam részéről nem sokat adok a 3DMark-ra.
#2873 GuMipOkE:
Nem személyes tapasztalat a Far Cry. Bocs
#2874 AMD Power:
Érdekes teszt, mindenhol az 1950Pro jobb. Nincs most sajna időm előásni az eddig látott teszteket, de abban biztos vagyok, hogy az Oblivionban és a Supreme Commanderben AA nélkül a 2600XT-t láttam elöl. Ill. R6V nincs a tesztben, abban is.
#2876 Olasza:
Ha a két gyáró között nincs preferenciabeli különbség, akkor én az 1ns-os RAM-okra szavaznék!
#2878 tata21:
A kártyád 12 pipeline-nal megy, vagy moddolva van 16-ra? Előbbi esetben egyértelműen érdemes, utóbbiban átlagosan 15-20% +-ra számíts - viszont elég nagy szórással. -
válasz
radírfej #2868 üzenetére
ez ugye függ a tesztelt játékoktól és az AA-tól:
- AA on esetében x:0 az 1950Pro javára.
- AA off és régebbi játékok esetében is többnyire az 1950Pro nyer
- AA off és újabb játékok esetén már inkább a 2600XT felé billen a mérleg, még függő a játszma
- A DX10-et most hagyjuk
Ja, és azért az 1950Pro nem veri a 7950GT-t -
válasz
Laci888 #2861 üzenetére
AA nélkül általában a 2600XT jobb, de van 1-2 kiugró gyengesége (én a Far Cry-ról és a F.E.A.R.-ról tudok, bár az utóbbi nálam nagyon szépen játszható, ha nem is csinál 150fps-t).
AA-val a 8600GT erősebb, de privát véleményem szerint mindkét kártya csapnivaló ezen a téren. -
Próbálta már valaki a 2600XT-t overclockolni? Én a memóriát szeretném felhúzni 800-825 környékére, mert biztosan visszafogja a kártyát, de ahogy megmozdítok bármit akár ATITool-lal, akár ATI Tray Tools-szal, azonnal rebootol a gép - ha lefelé mozdítom, akkor is. Mi a nagy trükk?
Thx -
válasz
Komplikato #2820 üzenetére
Elég nehézkes elindítani mindkettőt HD2000 kártyával
Komoly? Akkor még szerencse, hogy kaptam egy 3DM06-ot a 2600XT-hezEddig még nem próbálkoztam vele, eszerint nem is nagyon fogok...
-
válasz
Komplikato #2810 üzenetére
800/1400 helyett... Szerintem kb. 1600-1700-ig hoz extrát a RAM órajel emelés, utána már csak az AA-nak tenne jót - ha lenne elég ROP.
-
válasz
Komplikato #2795 üzenetére
Miért, nem elég gyors a F.E.A.R.? Nekem nagyon szépen megy max. detailen AA nélkül
-
Pár szó a tuningolt kártyákról meg egyebekről:
#2730 Olasza
Szerintem megéri a HIS kártya, a teljesítménye szerintem csontra annyi vagy picit több, mint a gDDR4-es XT-nek, és a hűtésről jókat olvastam.
A ''nincs itt a boltokban'' alatt mire gondolsz? Többünknek van már itt Sapphire 2600XT-je...
#2733, #2736 AMDPower
1.2ns RAMok vannak a 2600XT-ken, tehát elvileg mindegyiknek bírnia kellene a 800/800-at.
Sapphire OC: 700/700.
#2729 sylas
AA-val sokkal gyorsabb az 1950 Pro (bár a 7.8-as catalystról csodákat zengenek, lehet, hogy a 2600XT is fel fog jönni, bár inkább a 8600GT-re lesz veszélyes, mint bármelyik 256bites kártyára). AA nélkül a régebbi játékokban az 1950 Pro jobb, újabbakban kezdi a 2600XT átvenni a vezetést. -
válasz
GuMipOkE #2628 üzenetére
GuMipOkE: szerintem c) opció, szar a szenzor. ATITool is össze-vissza mutat mindent.
AMDPower: A sima Pro aligha bírja az XT órajeleit, legalábbis én még nem láttam DDR2-es RAM-ot 700MHz-enA gDDR3-as már eleve 100MHz-cel emelt GPU órajellel jön, ott jó esély van rá, hogy menjen 800-at is - ha valakinek van kísérletező kedve.
m4rc!: ha az x1950 Pro-t nem zárja ki semmi (melegebb, a legtöbb gyártó esetében hangosabb a hűtő, és többet fogyaszt, kicsivel drágább - ezek szólnak ellene), akkor szerintem azt vedd meg. -
AA nélkül szépen fog menni minden (ill. HDR-t nem tudom, én nem foglalkozom vele, arról nyilatkozzon valaki), AA-val kissé nyögvenyelősen.
Szerintem egy jó ár/érték arányú kártya, ha az AA nem érdekes, akkor számottevően jobb teljesítményhez már egy 8800GTS kell.
GuMipOkE: hány fokos szobában mérted az 54-55 fokot? Ill. emlékszel, hogy a gyári hűtővel mennyi volt? -
válasz
AMD Power #2601 üzenetére
Nyitott háznál passzívan nekem 55 fokos a kártya, becsukott házban 60. Terhelés alatt nyitva 65-70, csukva 70-75, pillanatokra ugrik csak feljebb. Mondjuk ahogy elnézem, a hőszenzor nincs éppen a spiccen.
Kicsit morc is vagyok miatta, mert a tesztekben a referenciahűtés ennél klasszisokkal jobban muzsikált, másrészt viszont ebben a nyári melegben (nekem itt 30 fok van a szobában) csodát nem lehet várni.
A 95 fok azért még így is elég sok - BenceShearer, én a helyedben írnék egy kedves E-mailt az MSI supportnak, hátha mondanak okosat. -
válasz
VaniliásRönk #2579 üzenetére
Asrock P4VM890, a southbridge száma most nincs előttem, de méregettem kicsit (OGLBench), nagyjából hozza a 16x-et. Btw. még az 1GB/sec 4x mellett sem illene 1 másodperces hatásszüneteket tartani, amikor a kártyán összesen 256M RAM van
Vásárlás: igen, igen, csak én akkor már 5000+-t vennék meg 2G memóriát. Alaplap stimmel. + táp + HDD
És a nap vicce: felhúztam egy szűz XP-t, és láss csodát - alig szaggat. Mégsem stutter bug. A perf teszt pedig majdnem a dupláját hozza a 7300GT-nek. Fog ez menni, csak mindig ezek a fogzási bajok. Ha nem ennyire kevés időm lenne rá, még szórakoztatna is... -
VR, Olasza:
Hát, fene tudja, lehet, hogy igazatok van. Bár, én ezt a 2600XT-t is hosszabb fejtörés után vettem meg, nem a pénz miatt, hanem mert nem voltam benne biztos, hogy tényleg kell-e nekem - de aztán az Oblivion meg a R6:V meggyőzött, hogy kell. Viszont idén év végén / jövő év elején annyi változás várható (DX10 játékok, új nVidia GPU, R600 ráncfelvarrás, Phenom, C2D-k új sockettel, DD3 RAM-ok, whatever), hogy addig nem akarok semmi komolyabbat venni, amíg nem látom, hogy van vagy fél tucat játék, ami után csorog a nyálam, és a 2600XT-n diavetítés jelleggel megy. Sajnos a 45, amit Olasza írt, az inkább 100 (alaplap+processzor+memória+HDD+táp+kitudjamivelleszgebasz) - ez már nem ugyanaz, mint hogy vettem 10k-ért egy alaplapot.
PS: akár az Intelhez, akár az AMD-hez ragaszkodás távol áll tőlem - de ugyanígy pártsemleges vagyok GPU fronton is... -
válasz
VaniliásRönk #2522 üzenetére
Csak normális vasat kell szegény VGA alá tolni (nem drágát), van egy határ amin túl már nem érdemes spórolni...
Aha, merthogy olyan nagy választék van s478-as alaplapokbólÉn konkrétan egyet találtam.
Egyébként úgy tűnik, a hírhedt Half-Life 2 stutter bugba sikerült beleszaladnom. Jó eséllyel nem (csak) a VIA chipset a hibás, hanem a chipset + kártya kombináció. Így jártam. Nem baj, ez a F.E.A.R. annyira jó, hogy így is végigjátszom. Amúgy, ha ritkábban töltök vissza, akkor idővel egész sima lesz -
VaniliásRönk: Hmmm, ez a VIA-s megjegyzés érzékenyen érintett
Hát még ha kiderül, hogy ez a fő gond, és nem lehet megoldani - asszem az lesz az a pillanat, amikor veszek egy konzolt...
Alvin_ti4200: gyengébbek, gyengébbek, de minél? A 7300GT-nél azért nem kellene... És az FPS-ek sokkal magasabbak is (8x6-ban soft shadows-zal 36 VS 54), csak ez a rohadt szaggatás ne lenne.
[Szerkesztve] -
2600 Pro és XT
Nincsen probléma, én is XT-t vettem, csak arra akartam rámutatni, hogy a kicsi árkülönbségnek az az oka, hogy a két kártya egyáltalán nincs messze egymástól. Fizikailag lényegében tök egyformák, egyedül az a különbség, hogy a Sapphire-nál az XT kapja a legjobban sikerült GPU-kat, a gyárilag húzott Pro a következő csomagot, és a sima Pro a ''legsilányabbakat''.
F.E.A.R.
rocket:
Igen, a memória elsőre tényleg soványnak tűnik, de ennek ellentmondani tűnik az, hogy 400MB-nál több fizikai memóriát eddig még nem használt nálam (sőt, a virtual address space sem haladta meg a 600MB-ot). És egyébként a 7300GT-n alig volt észrevehető a szaggatás, a két config között csak 3 különbség van:
- Az alaplap (i865 helyett VIA 890-es chipset, és persze AGP (sőt, AGI...) helyett PCIe)
- A videokártya
- A windows (qrva ATI, semmi kedvem nem volt a w2k-t XP-re upgrade-elni)
GuMipOkE:
Egy kicsit megnyugodtam, kezdtem azt hinni, hogy valami banális hülyeség van a kártyával kapcsolatban. Milyen verziójú Catalyst-et / drivert használsz?
Általában: a szaggatás jól köthető ahhoz, amikor új területre lépek egy pályán (azaz ha körbe szaladgálok, akkor teljesen sima), vagyis minden bizonnyal az tart a vártnál sokkal több ideig, amikor új textúrákat tölt fel a videokártyára. Így sem ismerős senkinek? -
-
#2454 - AMDPower:
Persze, ez a framerate már teljesen jó játékélményt ad.
#2455, #2456, #2191-#2194 - AtHos és VaniliásRönk:
A Doom3-at biztosan visszafogja a processzor, de attól még illene legalább annyival mennie, mint a 7300GT-nek.
A Quake4 tesztek vszleg nagyon hasonló képet mutatnak, úgyhogy viszonyítási alapnak jók. A shader-intenzívebb Prey-ben már más lesz a helyzet - hétvégén visszapakolom egy-két próba erejéig.
#2459 - rumkola:
Ha kell AA, akkor 1950Pro vagy 7900GS - az előbbi gyorsabb, az utóbbi kevesebbet eszik és kevésbé melegszik. Mondjuk pont az általad említett Galaxy SUPER-re ez nem igaz.
Ha nem kell AA, akkor eléggé hitkérdés dönteni a 8600GT és a 2600XT között - előbbi mellett szól a (nem minden kockázattól mentes) tuningpotenciál, utóbbi mellett a lényegesen nagyobb shader kapacitás alapórajelen. Nekem nincs időm normális tuningra (bár, hogy őszinte legyek, kedvem se nagyon), ezért biztos befutó volt a 2600XT. Na meg a hűtése is nagyon szimpatikus volt.
DX10 szerintem nem igazán szempont.
#2469 - radírfej:
Galaxy 8600GT (pre-overclocked) Demo Studionál 29.520, azaz 2.500-zal drágább, mint a Sapphire 2600XT.
#2471, #2475:
Úgy látom, nem csak én érzem úgy, hogy a 90-es évekbeli nagy nevet az Asus nagyon csúnyán váltotta aprópénzre
#2477 AMDPower
A Sapphire 2600Pro gDDR3 majdnem XT, 700MHz a core clock és ugyanennyi a memória is. -
Nekem az első élményem az idegroham volt a CCC miatt... De azóta beszereztem egy ATI Tray Tools-t - ezzel össz. annyi a bajom, hogy nem hagyja a ventillátor sebességét piszkálni.
Ma volt időm egy kicsit kísérletezni - itt van pár FPS érték (bele kell számolni, hogy a processzor itt-ott visszafogja):
- Doom3 timedemo1 (10x7, High, AA off): 54
- Doom3 timedemo1 (12x10, High, AA off): 51
- F.E.A.R. perf test (10x7, FSAA off, 4xAF, soft shadows off, minden más max.): 52
- F.E.A.R. perf test (10x7, FSAA off, 4xAF, minden más max.): 43
A Doom3 eredmények gyalázatosak (a 7300GT 61-et tudott 10x7-ben), de erre mondjuk számítottam.
A F.E.A.R. viszont egészen jó. -
válasz
VaniliásRönk #2437 üzenetére
Nem, mert semmit nem tudok a CoD2-ről
Naszóval, értem amit mondasz, nagyjából egyet is értek vele, ez most a ''ló nincs, jó a szamár is'' elven megy. Miután a CoH engine-je normális minőségű (szemben a másik két versenyzővel), valamennyire hajlok alapul venni, de mérget nyilván nem vennék rá. Ezért citáltam a R6V-t - ott egész közeli realitását látom egy DX10 verziónak, ami nem is drótozott lesz. -
válasz
VaniliásRönk #2428 üzenetére
csokorban:
Vaniliásrönk, #2428: mire gondolsz bedrótozás alatt?
Igen, fekszik nekik a Vegas, és mivel az új UT engine van alatta, egy olyan tesztről már elhinném, hogy reprezentálja, mire számítsunk.
Yooha, #2430: konkrétan Portal, HL2 Ep2, TF2
Olasza, #2431: viszont mennyivel olcsóbb upgrade-elni róla -
válasz
VaniliásRönk #2425 üzenetére
Az a baj, hogy amíg a Call of Juarez meg a Lost Planet körül ment a ramazuri, addig én is csak legyintettem, de a Company of Heroes már inkább elgondolkodtat. 1024x768-ban a 8800GTX meg a 2900XT csinált 40fps-t benne.
Nem lesz esetleg a Rainbow Six-hez DX10 patch? -
sziasztok!
egy kérdés: lehetséges, hogy a 2600xt windows 2000 alatt nem supported? csak mer' az összes driver windows xp-ről meg vistáról beszél...
köszi!
Aktív témák
Hirdetés
- Filmvilág
- Hardcore café
- Huawei P20 Pro - profit csinál minden fotósból
- Építő/felújító topik
- One otthoni szolgáltatások (TV, internet, telefon)
- Témázgatunk, témázgatunk!? ... avagy mutasd az Android homescreened!
- Haditechnika, harcászat
- exHWSW - Értünk mindenhez IS
- Egyesíti a Google az Android és a ChromeOS rendszereket
- TCL LCD és LED TV-k
- További aktív témák...
- Honor Magic5 Lite 128GB, Kártyafüggetlen, 1 Év Garanciával
- MacBook, Apple M1 / M2 kompatibilis dokkolók, DisplayLink 4K, USB-C, Type-C
- Új! Számla + 1-3ÉV Gari! Áfás! Gamer PC - Számítógép! I5 14400F / RTX 3080 / 32GB DDR5 / 1TB SSD M.2
- LG 27UL550-W - 27" IPS / 3840x2160 4K / 60Hz 5ms / HDR10 / AMD FreeSync
- Samsung Galaxy A53 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest