- Android alkalmazások - szoftver kibeszélő topik
- Motorola Edge 30 Ultra - a 200 megapixeles kérdés
- Egy óra, két rendszer
- Honor Magic5 Pro - kamerák bűvöletében
- Poco F5 - pokolian jó ajánlat
- Honor Magic V2 - origami
- Samsung Galaxy S24 FE - később
- Xiaomi 15 - kicsi telefon nagy energiával
- Ford SYNC 3 infotainment rendszer teszt
- Google Pixel topik
Új hozzászólás Aktív témák
-
janos666
nagyúr
válasz
Tommee #27502 üzenetére
Ilyenek ezek.
Tegnap néztem COD-MW3 alatt (felraktam és meguntam úgy 5 perc után, úgyhogy másra kezdtem használni lövöldözés helyett), hogy a 4.2Ghz-en járó 2500K-ból egy magon teker amit tud (a többi ~0, csak a háttérben futó kis vackok piszkálnak), a GPU kihasználtság pedig 40-50% között változik.
Ezen kívül a Skyrim-et néztem még a CPU csere óta. Az 99%-on túráztatta a GPU-t és közben ~50%-os CPU használatot okozott (piszkált minden magot). -
janos666
nagyúr
válasz
Spirit #27499 üzenetére
GPU-Z ír ki három szenzorról is hasonlóan magas értéket.
És ha tapogatom a NYÁK hátát furmak közben, akkor a GPU fölött hűvös, a FET-ek felé elég meleg (bár még fogható, nem tűz forró).Mondjuk azt hozzáteszem hogy csak furmark alatt. Azért is mertem így hagyni 1Ghz-en megfeszelve, mert olyan játék alatt sem melegszik igazán a VRM, ami a GPU-Z szerint konstans 99% GPU kihasználtságot okoz.
Annak idején vagy kétszer-háromszor levettem a blokkot és visszatettem. Először csak megigazgattam a gap padokat, majd kicseréltem az EK félét a gyári hűtőére, végül még egy kis szilikonpasztát is szétlocsoltam ott a FET-ek közt és a blokk vájatába, ami ki is préselődött, de valami nem az igazi. (Lehet hogy csak a lassú vizemet nem szereti a blokk, mert míg a GPU felett meg van csatornázva, addig a FET-ek felé teljesen sík.)
Bár van egy olyan érzésem, hogy ha nitrogénnel öntözném már akkor sem menne stabilan sokkal magasabbra 1Ghz-től, így meg legalább nincs szétfeszelve, de azért meg van húzva...
-
janos666
nagyúr
válasz
#42052608 #27497 üzenetére
Nekem sima referencia (Sapphire) 5850 most 1000/1200-on jár.
De ehhez emelni kellett egy kicsit a GPU feszen.
Nálam a VRM-ek hőmérsékletével van gáz, mert furmark alatt már így is felforrósodnak (pedig EK féle full-cover blokk, a GPU így is olyan 40 fokos terhelve, de valahogy a fesszabályzó mégsem szeret annyira lehűlni mint illene). -
janos666
nagyúr
válasz
Dtomka #27453 üzenetére
Nézegettem, de a TV max 1080p30-at fogadott, ami kevés, vagy 720p60-at, ami rosszul nézett ki.
De azt leszámítva hogy játszhatatlan volt 30fps-el, a Mass Effect 2 pl. gyönyörűen festett a 3D plazmán. Sajnálom is hogy a 2012-es TV-ken sincs még megoldva az 1080p60 3D.
(Az ACII-BH pont nem, ott mintha full fake-3D lett volna, de ez a software és driver verziótól függ, és régen volt.) -
janos666
nagyúr
válasz
fenergie84 #27443 üzenetére
Én egyszer annak reményében frissítettem a VGA BIOS-t, hogy hátha jobban tudom húzni utána (volt már rá példa a történelemben), de nem. Már az OC-s kártya BIOS gyári OC órajeleit sem bírta hibázás nélkül a magasabb verzióval. Visszatettem egy régebbit, és megint hasít (most 1Ghz @ 1.174V és 1.2Ghz mem feszelés nélkül).
-
janos666
nagyúr
válasz
Gaboman #27440 üzenetére
Régen CRT-kkel, ma PDP-kkel!
Emlékszem régen a CRT-s korszakban is keményen kellett nekem az fps, szerettem ha minél több. (Akkor nem volt ennyire lefixálva a 60Hz, sőt, általában magasabban, akár 120Hz-en járattuk a CRT-ket, amit ki is tudtak rajzolni, ha kaptak annyit...)
Aztán mikor a CRT-k kiégtek, akkor évekig PVA és IPS LCD-kkel toltam. Azokkal a beépített motion blur miatt nekem is bőven jó volt ha 30 és 60 közt ugrált (mondjuk Counter-Strike-hoz azért kellett a stabil 60, de úgy általában simán játszogazni bőven jó volt a fluktuáló de átlag 45).
De egy éve már plazmaTV-t használok PC monitornak, és ezen rögtön látom mikor a V-sync visszapakol 60-ról a következő lépcsőre (attól függően hogy bufferel ; ha nincs V-sync, akkor pedig iszonyat égető a sreen tiering, mint régen CRT-nél). Azonnal érezni, hogy máris másképp követi a kamera az egér mozgását, mint ha valaki megsimítaná a forgó bakelit lemezt, és ha gyors a mozgás, akkor elkezdenek duplázódni a mozgó élek a szememben.
Mióta PDP-n játszom, azóta úgy állítom be a játékokat, hogy az esetek 90%-ban meglegyen a stabil 60fps. Sőt, ha a végtelenül lusta TV gyártók szánnának rá egy kis keretet, hogy etethessem többel, mint 1080p60, akkor szerintem ezeken a mai PDP-ken még 60 és 100fps közt is lehetne látni némi különbséget bizonyos szituációkban.
(Manapság nem is olyan ritka hogy valaki azért viszi vissza az új plazmáját a boltba, mert nem is tudja, hogy az a játék hibája, de idegesítőek rajta a 30fps-re fixált konzol játékokat.)
(A játékmotorok blur effektjeit élből kilövöm. Az LCD-n úgy is ott a blur, a PDP-ben pedig az éles mozgókép a poén, ami sokkal jobb játékélményt ad, mint a csóvázás.)
-
janos666
nagyúr
válasz
Remus389 #27433 üzenetére
Volt már egyszer 4870x2-m, nem kérek belőle többet, főleg hogy azóta csak még komplikáltabb (ahogy már írták: tesszelálás, stb).
Amúgy 5850-em van, nem 70.
A Skyrim pl. épp csak hogy elmegy Ultra-n akadozgatás nélkül (és szépnek még így sem mondanám, ezért van Ultra-n, nem csak High-on). Alaposan megéreztem mikor felráncigáltam a kártyát alap 7xx-ről 1Ghz-re, így már csak ritkán esik 60 alá az fps, de még megteszi itt-ott.
Amit előtte toltam, az az AC2
volt. Általában szépen futott, de volt, mikor itt-ott belassult (viewpoint-okon szétnézve egyenesen akadt). - Itt megjegyzem, hogy ehhez a játékhoz a deferrend rendering miatt SSAA kell, amiből csak 2x-et bírt el, pedig 4x lenne az igazi.
A következő a Mass Effect 3 lesz, és nem próbáltam még ki, de azt tudom, hogy ebben az UE3 motorban is csak az SSAA működik rendesen, de 4x már az előző részben sem bírt el az 5850, csak 2x-et, és itt-ott azzal is belassult. És gondolom a 3. rész nem lesz kisebb GPU igényű, mint az elődei.
De pl. még korábban a Dragon Age 2-ben le kellett mondanom a legmagasabb minőségi fokozatról, pedig úgy sokkal szebb volt az árnyalás (csak épp 30 fps is alig volt meg úgy).
Ja, és persze a Crysis 2-t sem fullon toltam...Nem mondom hogy nem lehet vele élvezetesen játszani, de már tavaly is volt olyan játék, aminél alább kellett kicsit adni a beállításokból és amikkel mostanában játszom azokban sem garantált a 60 fps, csak úgy egész szépen futnak (általában 60-al). És nem is rohanok még a boltba a HD7-ért, csak már tervben van véve, hogy lassan kéne egy új VGA.
-
janos666
nagyúr
válasz
janos666 #27431 üzenetére
Izé... Két és félnek is jó lesz az a másfél.
Kicsit mint ha meg lett volna állva az idő és most lenne igazán "válság", mire elvileg cseng lefelé.
Egy darabig élveztem ezt, hogy nem kellett minden évben gépet cserélni (még VGA-t se, procit meg aztán bőven ráért...), de most már kezd hiányozni mellőle a fejlődés érzete, hogy évről évre egyre gyorsabbak lennének a vasak (már úgy látványosan)...
Illetve mikorra már ideértem, hogy kéne a gyorsabb, addigra meg túl drága...
-
janos666
nagyúr
válasz
ricshard444 #27429 üzenetére
Én meg 60k-ért vettem szeptemberben. De az is jónak számított, úgy alkudtam a bazáros árból is. És akkor most itt vagyok másfél év múlva úgy hogy kéne valami gyorsabb VGA, de HD6-ra nincs értelme váltani, a HD7 pedig nagyon drága...
-
janos666
nagyúr
Oh, semmi, buta voltam.
-
janos666
nagyúr
válasz
Satan_Claus #27391 üzenetére
Ha már úgy is lejárt a garanciája (gondolom azért nem ott próbálkozol), és nem akarsz rá sokat költeni (én se szeretnék, tekintve hogy elég régi már), inkább a külső venti feloperálását választanám. Bár azzal meg eladni lesz nehezebb, de ha megtartod még pár évig már úgysem ér majd sokat, vagy akkor még olcsóbb lesz rá egy használt hűtő a bedöglött kártyákról. (Azok után most is nézelődhetsz.)
-
janos666
nagyúr
Bocs, rossz helyre írtam, törölhető.
-
janos666
nagyúr
válasz
amper zoli #13286 üzenetére
File patcheléssel, vagy olyan driverrel, ami nem véd ellene.
Szerintem ma még minden Physx címmel kompatibilis az a legelső 200-as sorozatú beta akárhanyas, amiből kifelejtették. Nem hiszem, hogy túl sokat gyorsítana a rági játékokon, ha frissült is a CUDA, de amíg nincs se kompatibilitási sem teljesítményproblémád, addig kár a legfrisebb driveren görcsölni egy ilyen másodlagos kártyához, ha nem akar menni...
-
janos666
nagyúr
Vagy új "védelem" van az új driverben...
-
janos666
nagyúr
Na jó, lehet hogy rosszul emlékszem az 1100 Mhz-re (főleg, hogy sokan elkeveredtek a mondatban, és az 1200Mhz-re hitték az alapfeszt), ha ekkora felháborodást kelt, ha hazaértem és nem lesz jobb dolgom, majd megnézem. De legalább is annyit tuti megy alapfeszen, amennyit a linkelt képen a (gyárilag, de) megfeszelt kártya. És ez lett volna a lényegi mondanivalóm...
-
janos666
nagyúr
válasz
Gerisz #13246 üzenetére
Szóval, ref órajelen és feszültségen is 60 körül mászkál terhelve, mint gyári hűtővel is. Ha feltolom alapfeszen 1100 köré (már nem tudom pontosan meddig megy, nem sokat kínoztam, és nem tegnap), már akkor is 80 köré mászik a hőfok, és ha finoman emelem a feszt (még nem is 1,21-ig), hogy 1200, 1300 köré menjek, akkor Furmark alatt már 100 fok fölött méri a VRM-et, és játék alatt is foghatatlanul forró a nyák a VRM-ek vonalában. (A GPU háta mögött nem, afelett rendesen folyik a víz, és jól dolgozik az MX2 paszta...) Addig nem erőltettem, de ha hűlne, és odakenném neki a feszt, ez is könnyen elmehetne még 1300 fölé. (Ha beállítnék neki egy aktív radit egy nagy pumpával, de annyit nem ér).
-
janos666
nagyúr
válasz
Daffni2 #13241 üzenetére
Most nem az E-f@szunkat akarom összemérni, de az nem sok. Az én sima referencia (Sapphire) 5850-em 1200 Mhz felett is menne (alapfeszen úgy 1100 környékéig), ha le tudnám hűteni a VRM-et is.
Direkt rá való, EK féle fullcover blokk, és mindent kipróbáltam vele új korában (többféle vastagságú hővezető lapocska, és paszta+lap együttes alkalmazása...), de forró marad a nyák és 60 C fölött mér a GPUZ mindhárom fesszabályzóra. A GPU fixen 40 fok alatt van, a VRM viszont 100 fölé szalad, ha megkenem neki az 1250 Mhz-et egy kis plusz feszültséggel, úgyhogy alapon jár. (Lehet, hogy csak gyorsabb áramlasi sebesség mellett mozdulna meg a víz a VRM feletti kis vájatban is, illetve hidegebb vízre van tervezve, de azért most nem veszek ~25k-ért egy nagyobb pumpát, és adom fel a passzív radiátort, ha alapórajelen működik, a CPU-t pedig szarrá tudom feszelni, ha akarom...) És a rézblokk oldala is elég meleg a chipek felett, úgyhogy szerintem nem én raktam fel szarul, hanem hülyén tervezték, hogy a szélén leszűkül a vájat, és lassú víznél szerintem kialakul ott egy kis víztömeg, ami nem mozdul (egyszer mikor szerelgettem megállt ott egy boborék is, és nem mozgott, mint ha nem is folyna a víz, de a GPU és CPU az hűlt rendesen...) -
janos666
nagyúr
Egy 1Gb-os 5850-et a gyakorlatban (friss játékokban) mennyivel terhel meg jobban egy 2560x1440-es felbontás, mint az 1920x1200-as, illetve van erről valakinek szubjektív élménye, hogy dob-e még ez mai játékoknál az élményen, ha ennyivel fentebb mászik az ember a létrán? Elméletben ~1,6-szer annyi a képpont, de ha kifut a VRAM-ból, akkor lehet drasztikus a teljesítményesés, illetve itt ez az EyeFinity, hogy köss össze három monitor is, ami viszont arra utalna, hogy nagy felbontásokat is optimálisan kéne viselnie (vagyis, hogy épp úgy lehetne optimálisan kihasználni...).
Illetve ez a kártya ki tud küldeni DP-n 2560x1440@60Hz jelet, színenként 10 bittel, vagy ez csak HDMI-n megy ki? (Találtam egy táblázatot, ami szerint bőségesen, csak ott nem részletezik, hogy melyik verzióra vonatkozik, vagy ez nem változott 1.0 és 1.2 közt? Illetve az a DP szabvány, csak mintha még a kártya megjelenésének idejéről az rémlene, hogy ezen limitált a DP port áteresztőképessége, de lehet, hogy azt ábrázolta, ha két DVI kimenetre bomlik a vezérlőben a jel, szóval zavaros a fejemben...)
-
janos666
nagyúr
válasz
maflame #5208 üzenetére
A gyári speckó szerint 85-öt is tud, akkor 72-től (vagy 75-től) sem lehetne baja.
De a bluray lejátszást kipróbálhatod 48Hz-en, az is a 24 többszöröse (és a monitorod speckója szerint a támogatott érték alja), és DVI-n is el lehet érni (nálam a 60 körül +/- 1 Hz-en túl kiakad), de a 72-t 24/7-re is hagyhatnád neki (48-al talán nem lenne olyan sima játék közben, ha a VGA bírna akár 60+ FPS-t is...) -
janos666
nagyúr
válasz
janos666 #5205 üzenetére
Hopsz, megvan hol ásták el a kutyát:
A Dual-link DVI valóban képes lenne 120Hz-ig is elmenni 1920-ban, viszont az 2560 alatti monitorokra csak single link DVI bemenetet tesznek, ami tényleg épp 60Hz-ig limites 1920x1200-ban. A HDMI 1.2a pedig szintúgy 60Hz-en áll meg FullHD-nél, tehát legalább 1.3-as szabványú HDMI bemenet kéne a monitorra. A DP viszont elfut 120-ig is, mint a dual link DVI.Kipróbálod nekem, hogy be bírod-e lőni DP-n át (mondjuk powerstrip-el vagy rivatunerrel) 72Hz-re (nem 75-re), és ilyenkor gyakorlatilag is kisimul-e a bluray (lehet 720p-s re-encoded x264 is mkv-ból, a lényeg hogy bluray forrású 23,976 FPS-el fusson) videó akadozása?
Bár való igaz, a monitorod adatlapján szerepel ez is: függőleges frekvencia: 48-85 Hz
Szóval hivatalosan is hajtható akár 48Hz-en is, míg a legtöbb monitorra fix 60 Hz-et adnak meg. Kár, hogy ez a monitor kicsit drága lenne nekem. -
janos666
nagyúr
válasz
maflame #5204 üzenetére
Pedig elég nagy különbség lehetne, ha a DP-ról hajtva 75Hz-ig is elmegy, mert akkor lőhetsz neki 72-t, amibe kereken belefér a 24 FPS, amivel a blu-ray filmek peregnek, és megszűnik az akadozás. (Ez az egyetlen ok, amiért monitort cserélnék.)
Bár ebben valahogy nem hiszek, hogy a bemeneti forrástól függene, hogy hány Hz-en tud járni a panel.
Én valamiért szívesebben használnám a HDMI-t, mint a DP-ot, ha már lehetne válogatni. -
janos666
nagyúr
válasz
janos666 #4446 üzenetére
Összeraktam műanyag bakok nélkül. Hát, deformálódik a NYÁK egy isteneset a RAM-ok után, amíg a VRM fölé ér, ott pedig ismét párhuzamos marad a blokkal az utolsó két csavar közt. Ellenben most 70 alatt van az alap órajel/fesz, és 100 alatt az 1000Mhz-es üzem. Most nagyobb a szórás is, mert 90-97-92 fokosak a furmark alatti VDDC eredmények, eddig mindig csak 1-2 fok eltérés volt köztük.
Akkor viszont mégiscsak szarul fekszik fel. Most bakok nélkül el tudott úgy deformálódni a nyáklemez, hogy koppanásig ment a VRM felett, és végre tűrhetően hűt ott is. Hát, egyelőre hagyom így, de a Ghz-es tuningot inkább még így is hanyagolom, amíg nem lesz szükség rá, hogy kínozzam. -
janos666
nagyúr
válasz
->Raizen<- #4444 üzenetére
Most megtapogattam az alsó rézlap peremét a FEK-ek körül (annyira a peremen vannak, hogy látni is a gappadok szélét, de látni a korábbi képen is, hogy állnak...), és épp csak langyos, ugyan olyan, mint mindenfelé (jól szétoszlik a hő a rézben), de úgy cak-pakk sokkal hidegebb most a nyák háta is (a GPU és a FET-ek felett is), mint gyári hűtővel volt, alig melegebb, mint a blokk tetején a plexi, amit csak a víz langyosít.
Lehet, hogy mégis elszámoltak valamit az EK-nál, és 1-2 tizeddel fentebb kellett volna hozni a FEK-ek feletti sík magasságát? (Bár ott volt a lenyomatuk a padokon, és most még pasztával is rásegítettem egy kicsit) Vagy szarok ezek a thermal padok, amiket mellé csomagoltak, és nem vezetik elég jól a hőt?
Esetleg a távtartó bakokat tudom kivenni a csavaroknál, de inkább nem tenném, annak könnyen nyákrepesztés lenne a vége, vagy valahol máshol feküdne fel szarul, ha elkezdene deformálódni a nyák, és olyasmi nem hűlne, amiben nincs hőmérő... -
janos666
nagyúr
válasz
->Raizen<- #4436 üzenetére
Egy EK blokkal van hűtve a kártya.
Az imént szétszedtem, és gyönyörűen látható volt, ahogy minden thermalpad, amit a nyákon helyeztem el felszerelés előtt, most a blokkra volt ragadva, és ott volt rajtuk a chipek tetejének a lenyomata, a RAM-koén még a Samsung felirat tükörképét is el tudtam olvasni, de a FET-ek élei is határozottak voltak, egy sem volt elfordulva/félrecsúszva hozzájuk képest. A GPU alól is szépen kinyomódott a felesleg, épp csak "füstrétegnyi" maradt. [link]
Minden esetre, ha már ott voltam, összekapartam a GPU mellől kinyomódott MX2 pasztát, és szétkenegettem a FET-ekre. Újra rájuk igazgattam a blokk aljáról leszedett hővezető padokat, és ismét felcsavaroztam, aztán beküldtem a gépbe.Most tök ugyan az a helyzet. Idleben 38 körüli a három VDDC hőmérséklet, viszont Furmark alatt terhelve már 70 fokig is felmegy. Pusztán feszemelés hatására még nem nő drasztikusan (70-ről 80-ra), de ha az órajelet is megemelem (725-ről 1000-re), akkor hirtelen felfut 100 fok fölé, akár 115-120-ig.
Pedig ettől nem tudom jobban hűteni, most míg szerelgettem lehűlt a víz/radiátor kb szobahőre (ami pillanatnyilag kb. 33 fok, mert apám mindig túlzásba viszi a fűtést hétvégén), de ez szerintem nem is számít neki sokat. Mondjuk a FET-ek a blokk legvége alatt ülnek, ami felett a víz már nem is folyik közvetlenül, csak centikkel arrébb, de hát a gyári hűtő sem viszi azért túlzásba az alsó lemezen keresztüli hűtést, ez meg szép kis réztömb ahhoz képest. De van már MX2 paszta is a gappad alatt, ami bizonyosan hozzáér a blokk aljához. Egyszerűen ennyit bír, vagy félremér (ami nem valószínű).
Azért érdekes, hogy még a tuningtól is nagyobb mértékben ugrik meg a hőmérséklete (de az is, hogy idleben ilyen gyorsan visszahűlik, miközben valami mégsem frankó neki). -
-
janos666
nagyúr
válasz
janos666 #4430 üzenetére
Ránéztem GPU-Z-ben a VDDC Phase értékekre, és ilyen masszív 115-120 fokokat ír ki Furmark közben, és ha leállítom, akkor idleben másodpercek alatt visszahűl 50 köré, és további fél perc múlva már 40-en ejtőzik.
Szóval ja, igencsak itt a VRM vége, mert a gyors visszahűlés igazolja, hogy megfelelő a hőátadás. Ha túl vékony lenne, és nem érintkeznének, vagy valahogy kinyomódott volna a thermal pad a blokk alól, akkor nem igen hűlne vissza ilyen hirtelen, és idleben sem maradna 38-40 fok körül, mint a GPU -> de a GPU terhelve is hűvös marad, szóval ezen nincs mit javítani, megfullad a VRM és kész...)Vagy nektek mennyi a VRM hőmérséklet Furmark-al? Lehet meg kéne pasztázni is a gappadok alatt a feteket?
-
janos666
nagyúr
válasz
->Raizen<- #4423 üzenetére
Nem tudom, csak 50-esem van, de 1.200V felett instabil a kártya még így vízzel hűtve is, ha odakenek neki ilyen 1.300V-ot, akkor még 1000Mhz-en is rögtön kifagy, pedig 1,187V-al stabil ez a freki.
1.2V-ig olyan 1010Mhz csikarható ki belőle, de ami afelett történik, esetleg látszólag stabil, aztán hamar bedöglik, és mire 1.3 köré érek a feszel, már Mhz-től függetlenül kiakad.
Pedig biztos jól passzol a blokk is minden tápköri elemre, hisz az 1000/1300Mhz-el elviseli a Furmarkot anélkül, hogy egyszer is visszacsapná magát 2D-be, mint tette azt gyári hűtővel már alapórajeleken is (de még nem a maghő miatt, mert az ment fentebb a tuninggal), és persze meg sem fagy.Ja, nekem is érdekes falnak tűnik, talán változik még ez frissebb software-BIOS-driver párosokkal.
-
janos666
nagyúr
válasz
janos666 #4413 üzenetére
Hihihi, asszem sikerült felállítanom egy rekordot.
Visszatettem a korábban elmentett profilra, amint 10 percet furmarkoltam, és kb 20 percet játszottam is gond nélkül, és már ezen is másodpercek alatt befagy, ha elindítom az ATItool vagy a furmark képernyőjét. Szóval sikerült 5 percen belül degradálódásig szétfeszelnem egy VGA-t víz alatt is. Kapok egy Ph!-bögrét?Bár remélem, csak túlmelegedett a nyákon valami olyasmi, ami nem érintkezik közvetlenül a blokkal, és nem is lenne gond, ha nem akartam volna ennyit kínozni (mert gyári léggel rég visszacsapta volna 2D órajelre furmark miatt, de így maradt...). Majd holnap kiderül.
UPDATE: Na nem vágom mi van, de most újra stabil a korábbi 1Ghz.
-
janos666
nagyúr
Á, nem is tuningos a kártya, csak épp belehibáztam a legvégébe.
1.187V-on kb 1005-ig hibátlan, 1010 körül már néha-néha beszemetel 1-2 pixelt, 1015-ön lefagy. 1.200V-on még épp stabil 1015-ig, de az 1020-hoz már 1.212 kell, de 1.2 felett úgy érzem nincs köszönet, mert fagyott agyba szájba.
Szóval küldtem inkább neki 1.250-et, és emelgettem 5-össével a Mhz-et, de már 1045-nél fagyott, odakentem neki 1.300-t, de így sem lett stabil, sőt, még 1,350-ön sem.
Szóval valahol 1040 körül vége van a dalnak, hiába van megkínálva vízzel és fesszel, így igencsak a kerek GigaHz lesz a 24/7 (már nem mint ha ez olyan rossz teljesítmény lenne...)Még azt nem tudom, a RAM-al mi legyen. Úgy tűnik, az 1300-at bírja, de a hibajavítás miatt ebben sem lehetek biztos, illetve nem tudom hogy érdemes-e még nyomozni mehetne-e tovább.
-
janos666
nagyúr
Jaja, már ideje volt, a Gainwar féle 8800GTS-320-GS óta nem volt olyan VGA-m, amin 20Mhz-től többet lehetett húzni (na jó, kivéve ezt a 8800GTS512-t, ami Physx-re van, ez is hasít, csak minek...?
).
Léggel is jókat ment ahhoz képest, amit korábban beirkáltak páran, de nekem most az tűnt fel az imént, hogy ugyan azon a feszen még ~40Mhz-et lehetett tolni rajta annak köszönhetően, hogy 90-ről 50-re hűlt vissza a mag. (Illetve még az a szembeötlő, hogy rendes hűtéssel nem veszi vissza az órajeleket FurMark alatt sem. Szóval tulajdonképp képtelenek voltak olyan refhűtést összehozni, ami a GPU-t és a VRM-et is be tudja hűteni hallássérülés okozása nélkül, és inkább bejött ez az órajeljáték...)
Nem akarom addig szétfeszelni, míg nincs rá szükség, egyelőre kár lenne. Bár azt azért lehet megnézem még, hogy mennyit megy a 70-es alapfeszén.
-
janos666
nagyúr
Kezd tetszeni a kártya (úgy látszik szereti a visszafogott maghőt): 1/1.3GHz
-
janos666
nagyúr
Érdekes. Most, hogy feltettem az EK blokkját az 5850-re, már nem kapdossa vissza az órajelet Furmark alatt (pillanatnyilag 945/1200-on megy 1.174V-al, a GPU 50 fokos gondolom akkor a FET-eket is ekörül tartja).
Ezek szerint mégis inkább a VRM hőfok alapján lassul meg, nem pedig a felevett W-okat monitorozza (legalább is ezt is, és esetleg a Watt limitet még nem léptem át). Most 72,3A-t kajál a GPU-Z szerint, de erre még nem jöttem rá milyen feszültségértékkel szorozva adná ki a felvett teljesítményt. Vagy félremér, vagy nem azt méri, aminek hiszem. -
janos666
nagyúr
válasz
HoReSz1975 #4350 üzenetére
Az utolsó 3 képen megismétlődik az, ami az első 6-on.
Te most tudatosan használsz SSAA-edge detect párost, vagy mindent oda toltál, ahol a csúszka/dropbox vége van?
Működik egyáltalán együtt ez a kettő? SSAA-nál mi értelme az éldetektálásnak? z újraszámolja az egészet jobbról-balról/fentről-lentről, ha kell, ha nem, tudtommal ez a lényege.
Mindkettő zabagép, legyen vagy adaptive MSAA + edge detect, vagy SSAA box filteren, de új játékoknál 1920-ban inkább MSAA, ha működik, SSAA-t akkor használj, ha a játék nem támogatja, de akkor az AA szintet is itt lődd be driverben 2-4x-re.
Mondjuk application controlleden van, tehát ha a játék menüjében nem lőttél AA-t, akkor ez most irreleváns, hogy itt milyen AA-t kérsz (ha nem dolgozik semmilyen AA). A többi oké. -
janos666
nagyúr
Kb. valahol a 4870 körül van a hangja (inkább valamivel hangosabb), amivel most össze tudom vetni élőben, hogy egy 8800GTS-től bizonyosan zajosabb. Idleben elég halk (de gyorsabban pörgeti a ventit, mint kéne a fogyasztáshoz képest, de ezen lehet hangolni), viszont pár perc játékpróbálgatás után nem gondolkodtam sokáig, hogy cseréljek-e rajta hűtőt.
Szerintem 3,6Ghz körül nem lesz már vele gond, főleg 1920-ban, maxra tolt grafikával még annyi sem kell. -
janos666
nagyúr
Szerintem ha hétvégén rádobom az EK blokkot, akkor nem fogom tudni megállni, hogy legalább egy rövid teszt erejéig ne toljam el a skála legvégéig a csúszkát AfterBurner-ben.
Úgy igencsak 1 Ghz fölé megy majd, legalább is eddig egész tuningos példánynak tüntette fel magát, alig kellett feszt adni 950Mhz-hez.
Vannak már valami tapasztalatok, hogy kb. meddig biztonságos tolni a feszt, és honnan kezd élet-halál közt lebegni a kártya? (Persze úgy, hogy rendesen be lesz hűtve vízzel...)
Illetve hogy lehet körbejárni a hibaellenőrző kódot a RAM-nál, hogy kiderüljön, meddig lehet tolni? (bár szerintem az 1300 még tuti gond nélkül megy neki, amit a program tolni enged...) -
janos666
nagyúr
Én néztem már 1080p-s x264-et 5850-el, és 9.11-beta4-v2 becenevű driver párossal, igaz csak DVI-s monitoron, nem HDMI-n 24p-s átvitellel, azzal állítólag szoktak próblémák adódni.
Nekem attól szokott bedögleni a filmlejátszás, ha CCC-ben be van kapcsolva az erőltetett (már amennyire ténylegesen erőltet is az bármit játékokban) AA/AF. Egyszer szoptam már ezzel, a lejátszót, splittert, és a kodeket is cserélgettem oda-vissza újabb-régebbi verziók közt, már a windows reinstallon gondolkoztam, mikor bepróbáltam egy előzetes pucolás utáni drivercserét, és jó lett. Akkor szűkült a kör az AA/AF-re, mikor a driver inicializálás után ismét beállítottam ezeket erőltetettre.
-
janos666
nagyúr
Ezt a képfilet: ASUS 5850 G flasheltem ezzel a utility-vel: ATIFlash 3.57. Ezt FreeDOS alól követtem el, amihez a saját összetákolt kis progimmal csináltam bootolható pendrive-ot: FreeDOS for Pendrive.
Ha kész a FreeDOS, az atiflash-t, és letöltött képfilet másold a pendrivera, utóbbit nevezd át valami egyszerűre, és .rom végződésűre, tehát pl: new.rom
Bootolsz a pendiveodról, aztán bepötyögöd:
atiflash -p -f 0 new.rom
Ahol a 0 az adapter number, ha csak 1 kártyád van, akkor 0, ha kettő, akkor 0 és 1, így tobább, az -i kapcsoló listázza őket. A p a Program, az f a Force.
Illetve, ha előtte szeretnél backupot a régi BIOS-ról, akkor [bocs, de fejből nem ugrik be a parancs, ha üresen beírod, hogy atiflash, listázza a kapcsolót, ami lementi a ROM tartalmát, ezt csináld meg inkább GPU-Z-vel Windows-ból, és tedd rá a pendrivera azt is pl: old.rom néven, és ezt vakon végigpötyögve is vissza tudod flashelni] -
janos666
nagyúr
(#4162) Voyage - Nekem most egy Sapphire kártyám van, de beszerelés után első dolgom volt, hogy flasheltem egy unlockos BIOS-al (nem is MSI-vel), és enged állítani mindent, Vcore, CPU és RAM órajel (bár a RAM csak 1300-ig tolható, holott az overdrive engedné 1400-ig is), ventilátorszabályzás.
(#4160) gbors - Hát, őőő, valami olyasmi.
Van ugye az 5870-es, ami 256-bites, 1200Mhz-es GDDR5, és 5850, ami 256-bites 1000Mhz-es. Ha az időzítésekbe nem bonyolodunk bele (nem tudom azonosak-e, de nem okozhatnak túl nagy eltérést, sőt, később úgy is felfelé kerekítünk).
Aztán ott a Cypress GPU, ami az 5870-esen 850, az 5850-esen 725 Mhz-en jár, továbbá az 70-es 320, az 50-esen 288 blokkot engedélyeztek. A blokkokkal arányos számban alakulnak a TMU-k is. Mivel a TMU-k is órajel függvényében dolgoznak, így ezek száma is kompenzálódik a Mhz-ekkel, nem?
A ROP-ok száma azonos, így ezzel rá is húzunk a dologra, de mivel nem tudjuk mikor milyen hatása lenne a ROP-ok számbeli eltéréseének, ezzel inkább ne osszuk vissza arányosan a GPU órajelet (mert durva sacc lenne felvenni neki vaktában egy súlyozást).
Akkor 725 x (850 / 725) x (320 / 288) = 944,4˙ ~ 945 Mhz-es magórajel kell ahhoz (az 1200Mhz-es RAM órajel mellé), hogy teljes értékű 5870-nek megfelelő teljesítményre lukadjunk ki (illetve picit többre, ha a ROP teljesítmény volt a limitáló tényező).Na persze szigorúan elméletben, még nem mértem ki, de ha van valakinek az enyémhez hasonló gépe 5870-el, akkor összevethetjük.
-
janos666
nagyúr
Egy ilyet tervezek rátenni jövőhéten: [link]
Amúgy még az a kiábrándító a tesszelálás kapcsán, hogy talán kevesebb anomáliát mutat, mert kevésbé szögfüggő, viszont ugyan olyan durván távolságfüggő LOD-os, mint az SSAO (pl. a Crysis-ban). Tehát ha free camera módban távolodok, akkor ugyan úgy leveszi a sárkány tüskéit, és a háztetőkön/kavicsokon/köveken is látszik, ahogy rétegesen eltűnnek, avagy kinőnek a cserepek, és ahogy a tető eleve ferde szögben áll, így nem homogén a cserepezés, ami a szög miatt távolabb esik, az még lapos, ami középen, az már kezd kinőni, és hullámzik végig az egész, ahogy halad a nézőpont. És az FPS-eket elnézve ezen nincs is mit finomítani, még így sem tudja simán futtatni a kártya a tesztet, ha kintebb tolnák a távolságot annyira, hogy ezt ne lehessen észrevenni, akkor egy 5970 sem lenne elég hozzá.
-
janos666
nagyúr
Igaz, még csak a gyári léghűtő van rajta, amitől 99%-os terhelés mellett mindjárt kifolyik a fülzsír a számon, de azért nekiálltam nézegetni mit tud a kártya.
Alapfeszen 870Mhz-re volt hajlandó, az 5870 elméleti teljesítményéhez számolt 945Mhz-hez pedig 1,174 V-ot kellett neki adnom az MSI Afterburnerben. Alapfeszes tuninginál úgy 45, feszemelten pedig 55% körül tekeri nekem a ventit ahhoz, hogy 90 fokon tartsa a GPU-t (futtatok egy furmarkot és az ATI-tool artifact scant, így együtt nem tekerik vissza az órajelet, de melegen tartja a GPU-t, és látom, ha szemetelni kezd).A RAM látszólag bevette az 1200Mhz-et (vagyis az 1300-at is, ami már a csúszka vége), de nem tudom, hogy lehet ezt kitesztelni a hibajavító kód miatt, hogy tényleg bírja-e rendesen.
Az viszont elég lesújtó, hogy ha az Unigine baenchamrkban ki-be kapcsolgatom a tesszelációt, úgy váltogat a sima futás, és a diavetítés közt (a sárkánynál, és a nagykavicsos úton). Bár az AMD féle demók legalább szépen futnak.
-
janos666
nagyúr
Ezek nagyon kirívó esetek, hogy még lassabb is a 2 GPU, mint 1, ezt rendszerint orvosolni szokták a soron következő driver(ek)ben, és végül csak kicsikarnak azért ~50%-os hatásfokot (tehát 1,5x-es teljesítményt) az alapvetően nem multigpu barát programokból is.
Na persze ki tudja, már a DX10 sem volt AFR barát, akkor mi lesz itt DX11-el, és AFR-el.(#4009) - Besaccolta neked, hány Mhz kell, hogy legyőzd az SP-k számában elveszett hátrányt.
-
janos666
nagyúr
Szerintem az órajelszintjére gondolt.
Én remélem, hogy ha kerítek rá vizesblokkot, és megküldöm fesszel, akkor a teljesítményszintje is meglesz.Ma beraktam a szobatársam gépébe az 5850-emet (holnap majd otthonra talál az én gépemben is), valami kis 2Gb-en ketyegő Athlon64 x2 mellé 1.0-ás PCI slotba, és hát így azért eléggé szaggatott rajta az unigine benchmark, ahol sok volt a tesszelált felület. Ugyan azokkal a beállításokkal az ő 4870 1Gb-ja szép simán végigfutott (épp csak a tesszelált felületek maradtak le, ami látványos).
Tudom hogy ez csak ilyen legelső techdemó (és megnézem én még ezt 3,8-as c2q-val 2.0-ás lapban is), de azért nem túl biztató, ha 2db 5850 kell majd, ha a tesszelációt is be akarom kapcsolni a DX11-es játékokban, mert anélkül tök lapos lesz minden (pedig a kettő közt lehetne, ha tesszeláció helyett hagyományos technológiával trükközik ki a térbeli hatást). Szóval ez a demó egyelőre nem mutat semmi f@szát erről a tesszelálásról. -
janos666
nagyúr
válasz
bigdigit #3249 üzenetére
Bocs, de hány éves vagy, vagy kolostorban éltél az utóbbi 40 évben?
Miért tennének rá olyan matricát, ami megolvad üzemhőmérsékleten? Miért nem olvadna meg akkor az alatta lévő fedlap is...? Vannak olyan hőálló műanyagok is, amik a sokszorosát is kibírnák annak a hőfoknak, ami előállhat a PC-dben. Sőt, ez a teteje, amit inkább csak az alatta áramló levegő fűt, nem is közvetlenül a GPU.
Szóval nem, nem kell lehúzni. Véletlenül sem, csak ha zavar a rajta lévő ábra, és nem zavar a garanciavesztés esélye sem. -
janos666
nagyúr
válasz
BullKoxa #3125 üzenetére
Oké, visszavonom, amit korábban írtam, ez az ember tényleg egy fasz. Lehet nem is tudja értelmes módon intézni a garit a forgalmazónál, ilyen-olyan okból, és ezért nem akar foglalkozni veled. (Bár azt még fenntartom, hogy nagyon kicsi az esélye, hogy tudatosan direkt rosszat adott el neked, esetleg annyi, hogy volt pár ilyen szar azok közt, amit elhozott -akár mind, amit aznap átvett- és azokat adogatja körbe-körbe, mert nem akarja/tudja cseréltetni, és reméli, hogy valakire rá tudja sózni, aki belemegy, hogy inkább hűtőt cserél rajta). Persze ha teljes bruttó kiskeráron vetted, nem értékcsökkentett baráti nettóban, akkor ez még szopatás.
-
janos666
nagyúr
válasz
eszakas #3109 üzenetére
Szerintem nem ő tehet róla, hanem a gyártó.
Ha bontatlanok a dobozok, tuti nincs hozzá köze, de ha bontottak, akkor is hihetetlen lenne, hogy a nagykernél/forgalmazónál kibontogatják mindet, megkeresik a hibásakat, és ahelyett, hogy visszaküldenék a gyártónak, hogy cseréljék ki hibátlanra, inkább eladják valakinek olcsóbban, csak hogy ő teljes áron adja tovább, átbaszva az embereket.
Szerintem az eladó 99,5%-ig ártatlan, és valószínűleg a forgalmazó/nagyker is, egyszerűen kifogott az eladó egy hibás szériát, ami így jött le sorba a gyártósorról, és mondjuk mind a 10, amit akkor elhozott az eladó, hibás.
Nem kell amögött is összeesküvést látni, ahol nem látható a tiszta haszon. (még csak nem is szívódott fel az eladó, hanem cserélte, ez így akkor végképp nem poén neki). -
janos666
nagyúr
válasz
RockHaRD #3059 üzenetére
Akkor hajtsd ki azzal, hogy 1920-ra állítod a felbontást (mondjuk ez alap), és a lehető legmagasabbra a detail beállításokat, aztán 16x AF, és annyi AA, amennyit elbír, illetve ha lehet, akkor ini/cfg fileba irkálható parancsokkal is tweakeld meg még szebbre.
Ha minden kötél szakad, vegyél 2560-as monitort, de hidd el, nem lesz rá szükség.Szerintem fél év, és rátalál a széria az új Crysis-ra, még fél és már alapkövetelmény lesz a kártya, hogy maxon tolt az új játékokat.
Gondolom nem két hétre kell a kártya, hanem az életciklusára vásárlod meg, ezalatt kezdetben alulterhelt lesz, egyszer eléri az optimális kihasználtságot, és jó eséllyel pár szélsőséges esetben még túl is lépik majd a követelmények az erőforrásait, mire a következő váltáshoz érkezel.
Ahhoz, hogy a stabil 60FPS meglegyen, nem kell ettől komolyabb CPU (esetleg pörkölj még neki oda egy kis feszt, és ránts rajta pár100 Mhz-et), majd ha olcsóbb lesz az i7, akkor alá lehet tenni, gondolva a következő VGA-ra is... -
janos666
nagyúr
válasz
RockHaRD #3057 üzenetére
Elvileg még idén, de az már csak 2 hónap, úgyhogy ha minden jó megy, nem kell sokat várnod.
Viszont az az alaplap, a maga 1.1-es PCI-E foglalatával nem biztos hogy a legideálisabb otthon az X2-esek számára, addig talán boltold el egy X38/48 deszkára. (A többi elég lesz neki, bár nem ismerem a tápod, de valószínűleg elbírja, ha a mostani gépet elviszi.) -
janos666
nagyúr
És nesze neked, még mindig nincs meg a stabil 60 FPS Crysisban, van ahol 40-ig is visszaesik, és nem csak kilengés, mert másodpercekig számolt annyit, máshol pedig 50-et. Ennyit a HD5, és Crytek fórumtás kapcsolatáról.
Ezt nem konkrétan neked címeztem, mikor azt mondtam "nesze neked".
És amúgy is tudom, hogy hülyeség is, de nem hagyhattam ki. -
janos666
nagyúr
válasz
banderasz77 #3042 üzenetére
De, sokkal, majdnem 40%-al drágább, de eddigi tesztek alapján átlagosan alig 20%-al gyorsabb, főleg ha mindkettőt tuningolod.
De valószínűleg olyanok vettek első körben bármilyen HD5800-ast, akik minél gyorsabb kártyát akartak a gépükben tudni.
Nekem 50-esem lesz jövőhéten, és szénnéhúzom víz alatt. -
janos666
nagyúr
Tedd fel inkább ezt: [link]
Ha végképp nem, akkor gyűrd oda neki ezt is, itt a leírásnál láthatod, hogy ebben tuti benne kell legyen a DX11: [link]
Ha még ezután sem megy, akkor keresd meg a system32 mappában a kérdéses filet, és másold be a program mappájába. (Az exe mellé, és ha van Bin, Binaries mappa, akkor oda is.) -
janos666
nagyúr
Olló nem nagyon viszi, és veszélyes lehet fogóval törni, mert még rossz felé, és nagy hosszon reped, aztán megszakad egy rézcsatlakozó is. Okosabb éles, vagy inkább finoman fogazott pengéjű késsel levágni.
(#2991) KTTech - Én még csak videón tudtam nézni, de már erről is sejtettem, hogy ehhez nem lesz elég 1 ilyen GPU, akár DX11-re termett, akár nem. Nem mérte már valaki, milyen hatásfokkal dolgozik a CrossFire ezalatt az engine alatt?
-
janos666
nagyúr
Hát, ne rohanj még gariztatni, míg nem próbáltál más játékokat!
Nekem nagyon ismerős ez a jelenség Crysis-ból, mikor a talaj elkezd úgy megnyúlni, mint ha valami világot elnyelni készülő, dimenzióhasadék, féregjárat, vagy hasonló tértorzulásszerű förmedvény képződne a szemem előtt, vagy inkább a tudatomban, és még követ is, és reagál a kameramozgásra. Vagy a fenti becézések ehelyett régen, az SP-ből kipakolt GPU-k előtti időkben azt mondták volna erre, hogy bizonyára beszart egy vertex futószalag a kártyán...
A pöttyözés is örök visszatérő jelenség Radeonokon. Mikor kinél, de van hogy előjön itt-ott, de ez is főképp Crysis alatt gyakori.Szóval próbálgass még pár játékot, és ha nincs máshol komolyabb gond, akkor legalább várd meg a legelső rendes, havi ütemezésű WHQL drivert, és utána se küld vissza gariba csak Crysis miatt. Futtass Vantage-t, Furmarkot, ilyesmit...
Ja, és fejléc másolás helyett használd egészséggel a fejlécből a Válasz gombot.
-
janos666
nagyúr
külföldi tesztekben tényleg remekül szerepelnek, de a valóságban ....
Nincs ebből félreértés. Tesztben azért szerepel jól, mert:
1: FPS adatokat közölnek, és azokat %-osan veted össze lineáris skálán (vagy eleve leosztják neked, vagy te saccolod be, kb. hányszor több, illetve mennyivel magasabb a diagramm oszlopa...)
Az, ha 200%-al gyorsabb XY kártyától, az még nem jelenti azt, hogy adott játékban
A.) ez bármire is elég, de főleg hogy kimaxolt grafikához elég-e bármelyik.
B.) érezhetően jobban futna ezen, vagy még az XY fele is elég lenne hozzá.
2: Igyekeznek olyan tesztkörnyezetet teremteni, ahol legjobb eséllyel lehet kimérni az eltéréseket
A.) Ha nem hozza a várt többletet, magasabb AA-t tolnak rá akkor is, ha
I. már nem is látszik a képen, hogy picit is szebb lenne, mint fele annyival
II. már egyik kártyán sem fut így elég simán ahhoz, hogy élvezetes legyen vele a játék (főleg annak tudatában, hogy AA nélkül simán futhatna).Te otthon pedig egyszerűen belövöd magadnak aszerint, hogy mindenképp szép folyamatosan fusson, és azon belül a lehető legszebb legyen.
És a szubjektív élmény más skálán mozog, mint a grafikonok. Azokon lineárisan nőnek az FPS-ek, és a %-ok is, nálad viszont 2x annyi FPS még nem lesz 2x gyorsabb, mert 20 alatt így is úgy is nézhetetlen, 30 táján elfogadható, 40-50 felett pedig többnyire már tökmindegy, de 60-tól már teljes mértékben lényegtelen (sőt, ez is játékmotor függő), de a 25-35 közti vékony sávban sem lineáris az FPS-élmény skála, inkább logaritmikus az FPS dimenzió (ahogy felfelé haladsz, egyre több FPS kell az azonos mértékű élmény javuláshoz).
Tehát a tesztkörülmények jobban kihozzák az eltérést, mint a gyakorlati felhasználás, a kapott számok sem túl egzakt módon vonatkoztathatóak az élményre, mert nem tudod pontosan, melyik játék alatt neked épp hány átlag FPS felett tűnik szép simának a futás (főleg, hogy ezek átlagok), és mások a viszonyítási skálák is, ha nincs játék közben FPS mérés.
És persze tipikusan bennmaradnak azok is, mikor egy játék jól futott maxon 4x AA-val, akkor az új kártya ott sem tud többet mutatni, de ha a Crysis 10 FPS-el ment nálad 8x AA-val, most sem fog 50-el folyni, mert nem 5x gyorsabb kártyát vettél még a számok alapján sem.
Persze ettől a gyorsabb kártyával jobbak az esélyek, és a végeredmény is, nem azt mondom, hogy értelmetlenek a tesztek, és nem ez alapján kell dönteni, hogy melyik kártyát kell megvenni.
-
janos666
nagyúr
válasz
dangerzone #2698 üzenetére
Én is moddoltam a DVR-216D-met L-re, hogy legyen labelflash.
És a DVD-nek semmi baja sem lesz, ha fordítva teszed be, kár volt resetelni.
Amúgy is, az 5850 azért nem csúcskategória, elvileg még az 5870 sem az, csak pillanatnyilag ezt a szerepet tölti be a gyakorlatban, mert nincs még ellenfele házon belül(i kétmagos) személyében sem. És meg is tudja szorongatni, ha mondjuk Crysis-ezni támadna kedve, jól jön minden plusz FPS.Nekem villódzott a 4870-es memória órajel váltáskor. De ez csak akkor történt, ha én váltottam, mert épp ezért nem is volt a gyári BIOS-ban csak egyetlen órajele, ezért is volt magas az idle fogyasztás(, és zajszint).
-
janos666
nagyúr
válasz
cowboy_bebop #2643 üzenetére
Annyira azért ne kell eltemetni azt a Furmarkot attól, hogy nem lehet már vele rezsóvá avanzsálni a VGA-t és tükörtojást sütni a hátán.
Attól még, hogy a hardware húz egy határt, még midig a Furmark fűti fel legjobban a kártyát, méghozzá pont a leszabályzási határig. Ezt a limitet igencsak úgy lőtték be, hogy játékok a gyakorlatban sohase fussanak rá, csak az ilyen programok üssék meg. Szóval nem annyira "intelligens" a kártya, hogy felismeri a Furmarkot, és leszabályoz, hanem hogy van egy áramfelvételi limit, amit ha valami miatt elér, akkor leszabályoz, de így ez lesz a maximális áramfelvétele, és gyakorlatban csak így érhető el, hogy stabilan ezen limit mentén pörögjön.
Persze az a másik dolog, hogy nekem HD4-el sem jött jól a Furmark tuning ellenőrzéshez, csak a stabilitásvesztést mutatta ki túllőtt órajeleken, a határ mentén (játékok alatt is) be-be csúszó apró képhibákat nem. De előfűteni jó, és a hűtés tesztelésére is...(#2647) luw2win - Nálam is 60k a határ, amit már 2 hete bármikor kiperkálnék érte. Most már talán elmennék 65-ig, de 73-at nem adok érte, akkor várok használtra.
-
janos666
nagyúr
válasz
cowboy_bebop #2514 üzenetére
Ezeket nézted? AMD GPU Clock Tool v0.9.26.0 - 5800-at és 5700-at is kezel.
MSI AfterBurner 1.20 - Ehhez talán elég a BIOS-ban átszerkeszteni a vendor-t MSI-re, illetve egyszerűbb egy MSI BIOS-t ráflasheni, és még a feszeket is állíthatod, nem csak az órajeleket.
Illetve Radeon BIOS editorral nem a csúszkatologatós, hanem a hash módszer, ha majd lesz unlocked BIOS valahol. (de ha átállítod az ID-t 5870-re, akkor most is működhet, és szerintem nem lesz gond a driverrel, csak 70-esnek írja és kész...) -
janos666
nagyúr
válasz
cowboy_bebop #2509 üzenetére
Használd az AMD féle tuningprogramot, vagy ha támogatja már, akkor a RivaTuner-t, vagy ATT-t. Vagy ha már lehet, akkor próbáld meg a Radeon BIOS Editorral szerkeszteni a kártyád BIOS-ában a limiteket (ez a legtutibb, bár leg rizikósabb is, de max vissza kell flashelni a backupot).
-
janos666
nagyúr
Háhá-Háhá... Szerintem ha a driveren múlik, az nem szándékosság, hanem mulasztás, pl hanyagul van még összetákolva a kettévágott shadertömb automatikus munkamegosztása, vagy amíg ezzel szarakodtak, addig a tesztelők által kedvelt játékokhoz sem volt idő hozzáigazítani az alkalmazásspecifikus optimalizációkat az új chiphez. Az esetleg lehet, hogy direkt nem is siettették ezeket túlzottan, de hogy már kész lenne egy jól működő driver, csak visszatartják, hááát, most melyik kezüket harapják...? Mert megjelenéskor készül a tesztek túlnyomó többsége, még januárban is az októberi grafikonokat fogják átfésülni a vásárlók.
Még az R600 kudarcnál érthető volt a csodadriver várás, de most mikor nincs bukta, egyszerűen csak "a világmegváltás ma elmarad, térjetek haza békével (de 5870-el a hónotok alatt)" hibaüzenet, akkor miért kell egy drivertől várni a csodát?
(#2504) Kwisatz - És tetszik a látványvilága? Mármint szerinted reális arányban áll a gépigény a képminőséggel? (és itt inkább a komplex esztétikai élményre gondolok, nem a részletekre, hogy elmosódik-e az árnyékok széle, hanem ha egészében nézed a képkockák folyamát, más játékokhoz képest, vagy önmagában.)
-
janos666
nagyúr
válasz
flurider #2319 üzenetére
Wolfenstein, COD5, COH.
Ezt jól összeszedted, már csak a StormRise hiányzik.
Az első kettő "ősrégi" motorokra épül, egy 8800GTS-el is gyönyörűen elfutnak, de talán még a 9600GT-t sem akasztják meg. A COH pedig hírhedten Radeon Techdemo kategória, ami az FPS mérős teszteredményeit illeti, és az is a kártya előtt jelent meg.
Crysis, GTA IV, de akár még néhány UT3 motoros játék, pl nekem a MassEffect is gyorsabbnak tűnt 1Gb-al, Cryostasis, STALKER, jajj, nem is sorolom tovább, szóval van azért pár, ahol necces, nem csak 1-2, hanem 4-5 is bőven. -
janos666
nagyúr
válasz
katt777 #2283 üzenetére
JColee elmondta (#2285)-ben helyettem tömören amit akartam, 4870-nél is nyugtatott engem maga a helyi nagymester is, hogy bőven jó lesz az 512Mb 1920-hoz is DX10 alatt is, aztán hamar kezdtek gyűlni a polcon a játékok, amiket félretettem egy későbbi konfighoz, mert nem futottak elég jól, és legtöbbnél többek közt a VRAM is limitáló tényező volt.
Akkor sem bukott még ki az aktuális tesztekből, hogy negyed év múlva már szállingóznak programok, amiknek kevés lesz az 512Mb, már 1920-tól kezdve is, nem csak 2560-nnál (mert az még mindig horror minden téren, pedig akár jól jöhetne, mikor néha itthon CAD-ezek, meg hasonlók).
Most is csak feltevésként dobtam, hogy talán lesz 1-nél több olyan, amúgy játékélmény szempontjából is érdekes program, amiben már akár 1920-as felbontásban is elkophat az 1Gb. (És nem is feltétlenül tölti meg a 2Gb-ot, mint a GTA IV maxon, csak mondjuk ~1200Mb kéne neki, így a folytonos cserélgetéssel emészti a memória és főleg PCI-E sávszéleket, ahol utóbbi nagyon nem tesz jót egy Crossfire rendszernek -> lásd Ph teszt 512Mb-os kártyákkal 2560-ban).Crossfire kapcsán pedig a saját méréseimre alapozok: [link]
UT3-ban, amire sok játék épül, 80 körül járt, pedig nem tettem meg mindent a CPU limit ellen, 3,6-os quadal. Átlagosan szarul idomuló játékok alatt is 60% felett járt a CF hatásfoka. A Storise féle techdemókban a 100-ot sem lehetetlen megközelíteni, de masszív CPU mellett is inkább ~25% gyorsulás volt jellemző, mintsem problémák, egyedül a GTA IV mutatott mérési anomáliákat, de gyakorlati szempontból erősen megérzi, ha duplázod a VRAM-ot (nem tűnnek el a textúrák, és látsz át a falakon..), és játszhatatlanból játszhatóba megy át, ha duplázod az RV770 GPU-kat a rendszerben.
Azok a játékok meg hova izgassanak, ahova egy 9600GT is elég lett volna, a lényeg, hogy mennek azok is, de az erőforrás igényesebbek is. Legrosszabb esetben letilthattam volna az egyik GPU-t, de egyszerűbb driverfrissítésig pihentetni egy játékot a polcon, mint egy majdani hardwarecseréig, utóbbi azért ritkábban esik meg (legalább is nálam). -
janos666
nagyúr
De megint nem nagyon engedik az embernek.
50-esből nincs 2Gb-os, a 70-es pedig túlontúl drága az 50-eshez, nem is mondva, hogy a 2Gb-os 70-es már abszolút értelemben is túl drága (nekem).
Szóval ha már 1Gb, akkor egyértelműen 50-es, de 2Gb-os 70-est méregdrágán. Áá, inkább cserélem fél év múlva... (mert nem akarok egy negyedévet várni, a puszta reményért, mert semmi sem garantálja, hogy februárban már olcsóbbak lesznek, a Fermitől is függ, de még azon túl is több mindentől) -
janos666
nagyúr
válasz
katt777 #2257 üzenetére
hiszen ahová a sok RAM kéne, ott úgyis kevés lesz a GPU
Igen, és előre be is kalkuláltam ezt, mint ahogy én is sejtem, hogy ha elfogy valami, az épp úgy lehet a GPU nyers ereje is. Viszont! Ha ez esetben CF-et rakok össze, akkor a GPU ereje ~80%-ra nő, de a RAM még marad, és nem 0% az esélye, hogy elfogy a RAM.
Azért mégsem 1280-as monitorra kötött 2Gb-os 9600GT-kről beszélünk, hanem 1920-ról, és akár CF-ről, 1 éves távlatban, DX11-es játékokkal, ahol megint nőtt az elméleti maximális textúrafelbontás...
vegyél egy 1GB-os 5870-et
Mivel most a hűtővel sem spóroltak sokkal többet a kistesón, és mert amúgy is vizesblokkot tervezek rátenni, amivel feszelni is lehet bátrabban, nem biztos, hogy 15%-nál magasabb teljesítményen állna meg egy tuningolt 5870, viszont az árkülönbözet tuti ettől nagyobb lesz köztük, még ha januárban esik is mindkét kártya ára. Tehát most, hogy nincs nagy különbség sem a hűtés minősége, sem drasztikus teljesítményhátrány a kettő között (főleg tuningban, akkor már inkább csak a levágott SP-k húzzák vissza, de ekkora számnál nem akkora érvágás), így igencsak az 50-esek az ajánlhatóak (hát még a mai árak mellett!).
512MB-os 4870-em
Ne is mond, épp emiatt a kártya miatt akarom most túlméretezni magam VRAM-al, mert ez a kártya sem bírta sokáig 1920-ban, és drága lett volna már utólag váltani 1Gb-osra, ez kergetett bele az X2-be...
Januárig tuti nem akarok várni, és félek, karácsony előtt inkább felfelé mehetnek csak a kiskerárak, na meg ha ugyan annyiba kerül is, megéri inkább most elhozni 60-ért, mint 1 hónap múlva ugyan annyiért, annyival többet használom, mielőtt túl kell majd adnom rajta.
Azért kösz, az hogy mindenre válaszolok nem jelenti, hogy nem tartottam hasznosnak. -
janos666
nagyúr
Tavaly is hiába kérdeztem, de azért elvégzem a közvélemény felmérést a jövőről, "több varázsgömb többet mond, és hülye, aki csak a saját üres tenyérből jósol" alapon:
Szerintetek az életciklusa végéig elég lesz az 1Gb-os VGA 1920x1200-ban, lehetőleg kimaxolva (kivéve AA-t csak ésszel persze) játszani?
(Úgy, hogy most vennék 1db 5850 1Gb-ot, és ha később kevés lesz, de már olcsóbb [akár használtan], akkor dobnék mellé még egyet, de ugye egy erős RAM limit mellett nem lesz túl hatékony a CF, még ha úgy-ahogy elég is lesz az FPS).
Várható max 1 hónapon belül 2Gb-os 5850-es, értelmes áron? Vagy önmagában is szorosra vannak fűzve a keretek, és amúgy is túl drága lenne, és még nagyobb pénzkidobás lenne, mint később lecserélni a most vásárolt 1Gb-osat valami másra...?
Illetve itthon bruttó 60k-tól alacsonyabb árat nem igen lehet már várni, tehát akár most rögtön hozzam el, ha tervezem a közeljövőre? -
janos666
nagyúr
válasz
Petya2900XT #1954 üzenetére
Igen, mert a Vantage 25 ponttal, a L4D pedig 1,5 FPS-el kevesebbet produkál 191.xx-el, mint 182.xx-el.
De én még így se hiszek neki, akkor már inkább 185.xx, de nekem a 191-essel sincs gondom. És legalább van választék.
És amúgy nincs azzal gond, ha a régi driverrel jól megy, akkor van gáz, ha várod az újabb és újabb drivereket, mert a régi is szar, és az újabb se jobb, de ha jó ami van, akkor nem kötelező hétről hétre frissíteni. -
janos666
nagyúr
Hogy lehet ilyen szar grafikonokat gyártani?
Két színnel oldanak meg 6 eredményt, miközben nem is olyan egyértelmű, hogy a P55 mindenhol kötelezően lassabb, mint az x58, és váltakozik a kiosztás grafikonról grafikonra, még mák, hogy oldalt sorba rakták, különben semmit nem érne.Mondjuk ettől még vicces a mérés is, 3 GPU néha több, mint 4, de a 3. se sokszor csinál már érdemi munkát az első kettő mellé. (És ez persze lehet valós, nem csak mérési hiba, sőt...).
Mondjuk ezt jó látni, hogy nem nagyon érdekli a rendszert, hogy P55-ben megy 2x8, vagy x58-ban 2x16 sávval. A Ph-s tesztben tuti az baszott be, hogy elfogyott a VRAM, mert 2560-akat toltak 512-es kártyákkal.
-
janos666
nagyúr
válasz
katt777 #1712 üzenetére
8nemesis8: Sok értelme nincs, amíg a monitorok peremei szétvagdalják a képet. Rács mögött játsszak? Milyen élmény az?
Ezt én úgy tudom elképzelni, hogy veszel középre egy fasza monitor (vagy ez ugye már van is), oldalra pedig melléteszel két olcsó TN panelest, mert úgysem fordítod oda a fejed soha, végig középre nézel, úgyhogy a perifériát bővíti, de mindegy, hogy milyen minőségben látod.
És néha még másra is jól jöhetnek a plusz monitorok játékon kívül. Csak hát ér-e annyit, még ha a legolcsóbb, leggagyibb monitorból veszel is kettőt, mert méretben és felbontásban azért nem árt, ha egyezik a középsővel...DX11 viszonylatban mi várható Crossfire terén? A DX10.0+ eljárásokkal nem lesz gond, főleg AFR-ben? Vagy mi erre a terv, hogy még mindig egyszerre tolják az AFR és a hihetetlenül előremutató, újabbnál-újabb DirectX-ek szekerét?
-
janos666
nagyúr
És a Steam egyébként is jobb, míg be nem üt valami katasztrófa, hogy behal, és nem íródnak át az accountok sehova, addig nem tud megkarcolódni a DVD, elveszni a CD kulcs, és valószínűleg tovább lesz Steam (vagy jogutódja), mint amíg a DVD tönkremenne, vagy valakinek eszébe jutna még a mai játékokkal játszani. (És ezt gyakorlatilag mindenhova magaddal viszed, mert bárhol leránthatod a játékot, ahol be tudsz jelentkezni, és tolhatod, nem kell DVD-t hurcolászni.)
-
janos666
nagyúr
válasz
kriszbon #1063 üzenetére
Szerintem ez most nem driver, hanem GT200 szindróma. Hiába, hogy dupláztak mindent, gyakorlatban nincs meg tisztán a dupla teljesítmény (azonos tesztben, azonos, mindkét chip által kiteljesedő renderpatchel...)
Szóval ezután ha gyorsul egy DX10-es program, ilyen 5-10%-okat, akkor ott valószínűleg R600-tól fölfelé mindenen gyorsul (esetleg HD5-ön 10-et, 3850-en 5-öt, stb).Vagy ha driver, akkor még nagyobb bajok is lehetnek, ha új megjelenéskor várni kell a driverre, mert majdnem olyan érzékeny lesz a kettévágott sharderblokk miatt, mint ha CF lenne, és hónapok óta megírták a drivert a régi programokhoz, de a jövőben néha várni kell majd.
-
janos666
nagyúr
válasz
subaruwrc #878 üzenetére
Nem, nem mondtam. És nem most jöttem át, még 2008 koranyári HD4 várós korszakban átköltöztem ide, mert Abu megjelenése után (mikor az amdfanok már itták a szavait, mint ha a messiás szált volna közéjük, aztán rádupláztak a mennyei ígéretekre, és azt hirdették tovább) annyi volt az ellenzék a felkapottabb találgatós topicokban, mint a bontatlan vodkásüveg falán a zöldalga, és mindig szerettem halálra ítéltnek tűnő ügyek mellett érvelni.
Sőt, akkora fanboy vagyok mostanában, hogy volt már 4870-em, x2-m, és most lesz 5850/70-em októberben.
De attól még a HD5 drága lett (az AMD palettáján önmagához képest, úgy, hogy nem is vesszük figyelembe, hogy létezik az nv), és nem mutat annyit, amit az ára miatt kéne. Szóval nem kéne ide a sok amd fanboy, akik, mint korábban kiveséztem, hozzák a máltati szeretetszolgálat becsületérmet, és tűzik a HD5 fedlapjára, aztán lehülyézik, aki azt mondja, kisebb a lángja, mint a hájpja..... -
janos666
nagyúr
válasz
Alister71 #862 üzenetére
Igen, néha fáj a "lelkem" mások hülyeségétől is. Valami betegség lehet.
(Olvasd el újra, mert hozzászerkesztettem.)Na, hanem hogy az addig rendben van, ha egy cég szemtelenül le akarja rólad húzni a pénzed, de ne álljanak itt sorba nekem a fanboyok, hogy még meg is magyarázzák, hogy most is micsoda emberközpontú szeretetszolgálat még mindig az AMD, mikor a pillanatnyi helyzetban csak egy drága új szériája van, ami alig megy jobban, mint a régi teteje. Vagy olcsó legyen vagy jó, de ez most inkább egyik se, nem hogy kettőt egyszerre. Aztán még itt a magadfajták hsz-eit olvasni...
-
janos666
nagyúr
válasz
Alister71 #856 üzenetére
Ennek a hozzászólásnak most kib@aszott sok értelme volt.
Most ezé''a két percé, amiért két hónappal előbb jött ki, már mindján', ááá
GuB3Ra - Te mekkora felbontásban játszol? És kapcsolsz még AA-t is 2560-ban, mikor már kezd szaggatni a játék, csak hogy kihajtsd a kártyát?
Ez jó kis link, mert vannak FPS-ek is. Max 33, átlag már 25 alatt, az már nagyon necces, hülye aki így játszik AA-el... -
janos666
nagyúr
-
janos666
nagyúr
A te ártyékod se éles ha háttal állsz este a napnak a fejednél, hanem el van "mosódva"
Nem tudom mit tolsz, de mára már igencsak elég lesz!Abu: Persze a problémák majd ott kezdődnek, hogy az AMD elmegy "kötsögbe", és a tesszellátort nem engedélyezi a régi kártyákon.
Hú, de kurva jót fogok röhögni, ha így lesz. Volt, aki már a HD2900XT-jénél is azt hitte, de jó lesz az egyszer. Ezt évekig emlegetni fogom, ha így lesz.
-
janos666
nagyúr
válasz
cowboy_bebop #427 üzenetére
Hááát... pont ez a kártya lebegett lelki szemeim előtt, mikor saccolgattam mekkora lesz az az x2.
-
janos666
nagyúr
Hát ja, rohadt nagydög. De nem is baj, több lamella fér alá (bár tudom, nem sokat stresszeltek rajta, hogy optimálisan kihasználják a helyet, de nagyobb térbe csak nagyobbat kanyarintanak csuklóból...).
Azért az X2 durva lesz, megszületik az eddigi legnagyobb játékra szánt VGA. (Tán' még az utolsó 3dfx-et is lepipálja, bár nem rémlik centiben mekkora, csak hogy relatíve baszottnagy volt.) -
janos666
nagyúr
Most futólag betekintettem a T+2 év jövőbe, és szerintem akkor sem stimmel.
Szerintem csak túl zöldre fűszerezte a nutellát, amit a Bundáskenyérre ken. (nyami)
5850-essel találkozott már valaki magyar kisker (vagyis nem annyira bolt, de viszonteladói - pl. ph bazáros) árlistán?
-
janos666
nagyúr
válasz
VinoRosso #398 üzenetére
Az 50-es sem fogyaszt lényegesen kevesebbet, szóval azt is úgy lehetne szerintem, ha még az 1 GPU-s refkártyához képest is kicsit alacsonyabb feszen tudnák hozni a ~700Mhz-et. És a refhűtőik nagyon életveszélyesek lennének. Szóval én is csak akkor várok x2-t, ha valami csoda folytán szükségesé teszi a létet az nvidia. (Illetve ha jövőre csinálnak valami új szilikonrevíziót, akkor abból a szintén leválogatott, alacsonyabban feszelt chipekből, és nem kimaxolt órajeles kártyát...)
De ez meg azért necces, mert lehet csinálni tri és quda CF-et, ezesetben 4 db 5870 leverné a 2x 5850x2-t, tehát Vantage rekorderek szempontjából sincs sok értelme, hacsak nem lesz HexaCF, OktoCF, vagy valami hasonló elvetemül hülyeség, és akkor több GPU-t lehet felhalmozni X2-esek sorbabiggyesztgetésével... -
janos666
nagyúr
Nem úgy értetted, hogy 14-18%?
(vagyis fele?
)
Amúgy gyönyörűen látszik a grafikonon, amit korábban felvázoltam: DX9/10.(1)-ben fej-fej, vagy esetleg kicsit lentebb az 5870, mint a 4870x2, és a DX11 sebességtöbblete épp annyit hoz a konyhára, hogy az 5870 stabilan és egyértelműen beelőzze a 4870x2-t, de ez is olyan 10-15% a felpatchelt motorban, ez úgy max 20% lesz akkor ha eleve erre írják, és max 25% szélső helyzetben, ahol még a driver is toppon van hozzá.
Szóval megéri 80-90 % felárért beújítani. -
janos666
nagyúr
Elég régóta nem engedi már 3D órajelbe a kártyát a Catalyst. Talán 9.2 környékén még elég volt letiltani az AI-t, de nekem már úgy sem váltott fel, ha átneveztem az exet, átállítottam a GI verziót, IA off, stb...
Úgy látszik, magyar ember már csak a szürke importban bízhat.
-
janos666
nagyúr
Segítek: A másik CUDA alapú.
Az addig rendben van, hogy a szabvány nem csúcsértékekre, hanem statisztikailag normált határokat szab meg, ennek így van értelme. De egyébként elméletben sem állhatnak fent olyan csúcsértékek játék alatt, amik pl. Furmark alatt? (ha nem is órákon át, de hosszas másodpercekig 1-2 perces gyakorisággal, hogy a tápnak legyen esélye rinyálni, ha már kellően felmelegedett a megelőző órá(k)ban?)
-
janos666
nagyúr
Ismerem a PR slideos listát, és erről a patchről is olvastam lentebb, de te is tudod, hogy ez így egyelőre nem sok.
Bundás: olyan max ~50$-t kellett volna rádobni, és rögtön kihozni az OC-ket is még +40$-ért, majd mehetett volna tavasszal az 5890 370-ért, illetve egy esetleges 5870X2 600-ért.
Picco - Csak azt mondom, miért van okunk panaszkodni, mert nekünk most joggal jön le érzésre és logikára is az, hogy drága a HD5 (mert ez relatív, de a hd4 után most az).
(#252) Zsubi - Győz a CF, míg a HD5 DX11 alatt egyenlít, vagy valamivel fölé is kúszik.
-
janos666
nagyúr
válasz
ProEvoFan #244 üzenetére
De a 8800GTX csúnyábban lekörözte az előző generáció kétgpu-s szörnyét, mint jelen esetben, ahol épp fej-fej mellett mozog a 4870x2, és az 5870 DX9/10(.1) tesztekben is, tehát DX11 alatt is csak olyan 30% fölény várható, de az ma még sehol.
Az nvidia előtte sem játszott máltai szeretetszolgálatot, mint amit az ATI/MD próbált, és végül sikerre is vitt a HD4-nél. Most bennmaradtak még a piacon az utolsó HD4-ek, de ami fontosabb, a potenciális vevők jó része HD4-ről akar újítani, és nem akar tetemesebb összeget fizetni azért, hogy megkapja DX10 alatt ugyanazt, és mellé beígért +30%-ot a majdani DX11 játékok alatt.
Nem, nem drága egyik HD5800-as se, a HD4800-asok voltak túl olcsók, de ezt a szart magának kavarta az AMD, most illene nekik benyelni, és finomabban emelni az árakat. Ha 4870-et kaptál 55k körül, akkor most legyen mondjuk 75-80k az 5870. Így emelték az árat, de még kisebb marad a hézag, és nem hökkennek meg az emberek, mint most. Aztán majd a későbbi esetleges 5890-et fel lehetne tolni 100-ig, az OC-ket még affölé is, illetve a 6870 indulhatna megint 100k-n.
De most csak azt látod, hogy nem éri meg HD4-ről HD5-re cserélni (hacsak nem vagy vantageor, hanem tényleg kapni akarsz annyit a pénzedért, amit szerinted ér...). -
janos666
nagyúr
(#153) luw2win - Ez ugyan úgy a te képedbe is bele lehetne dörgölni. Gyere át hozzám a kártyáddal, ami tökéletesen kiszolgál, kösd rá az 1920x1200-as monitoromra, és mutasd meg, hogy miként teljesít. De min 8x AF-et mindenképp, és legalább 2x AA-t is kérek rá, szarul mutatnak a recék. És persze nem lebutítva akarom csodálni a friss játékokat, hanem teljes pompában. Vagy otthon maradhatsz, és gyertyát gyújthatsz az AMD logó alatt az oltárnál, amiért ilyen tökéletes kártyád van.
Miről beszélsz? Ki merte szidni az nv-t? Mit, mit, mit akarsz te?(#154) peetmaster - Inkább a rullett asztalt javaslom, haver mindig odajárt, mikor ajándékot akart venni a csajának. (én adtam neki kölcsön hozzá
) Néha bejön.
Új hozzászólás Aktív témák
Hirdetés
- VR topik
- Medence topik
- Android alkalmazások - szoftver kibeszélő topik
- NASsoljunk: ZyXEL NSA-310 és az FFP
- PR-Telecom
- Asztalos klub
- Nyíregyháza és környéke adok-veszek-beszélgetek
- One otthoni szolgáltatások (TV, internet, telefon)
- Motorola Edge 30 Ultra - a 200 megapixeles kérdés
- Építő/felújító topik
- További aktív témák...
- Apple Watch SE 2 44mm, Újszerű, 1 Év Garanciával
- Bomba ár! Fujitsu LifeBook U757 - i3-7GEN I 16GB I 256SSD I 15,6" FHD I HDMI I Cam I W11 I Garancia!
- Steam, EA, Ubisoft és GoG játékkulcsok, illetve Game Pass kedvező áron, egyenesen a kiadóktól!
- ÁRGARANCIA!Épített KomPhone i5 14600KF 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- Samsung Galaxy Z Fold5 , 12/256 GB , Kártyafüggetlen
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest