Keresés

Aktív témák

  • janos666

    nagyúr

    válasz schwartz #3902 üzenetére

    Tudod hogy van az. A CUDA már most halott, a jobbak már megkapták priviben a meghívót a halotti torra, ami az NVISION'09-nek helyet adó épület egyik föld alatti szintjén lesz, éjfél előtt 3 perccel kezdődően (hopsz, most beperelnek információszivárogtatásért :)) ), dehát ha úgy kérdezzük meg, miért nem engedett zöld utat az AMD a Physx-nek CUDA-stól, akkor még mindig egy vérengző fenevad, ami seperc alatt betrítené a világot, és, és, és, jajjj...
    Szóval ez a kérdésed tökéletesen körbeírja a szituációt. :DD
    Na mindegy, ez már így van, ahogy van.

    (#3904) - 4870 512Mb-al GTA IV ott felejtős, hogy berakd-e a DVD-t a gépbe. Far Cry 2 szűrők nélkül se megy maxon, csak akadozva. Cyrsis necces, csak DX9, de a Warhead se úgy fut végig, mint kés a vajban (AA nélkül persze, de úgy is necces).
    Sőt, részemről még a Mass Effect is futhatott volna picit simábban, pedig ott eleve nem is volt esély AA-ra DX9-es UT3 motor miatt.

    Nem, 8x nem kell, de a 2 erre is rákívánkozik, és meg lehet mondani, hogy 2x vagy 4x van rajta, csak a 8x felesleges (de a 2x is elég nekem).

  • janos666

    nagyúr

    válasz rocket #3899 üzenetére

    Az nekem oké, hogy itt mindenki átbasz engem, ahol tud. Mondjuk én eleve belekalkuklálom és ez a normál világ. Ha panaszkodok, azt kimondott átbaszásnak érzem még ehhez képest is. :))
    De így engem azóta is csak idegesít, mikor valaki kiváló ár/értékes VGA-nak hozza, mert jól van, jónak jó, de nem annyira, mint amilyennek ki lett kiáltva, hisz részben ugye átbaszás.
    Tudom, az se véletlen, hogy a 4890-ből nem jött 512Mb-os, így el lehetett adni 512Mb-os 4870 tulajnak is.

  • janos666

    nagyúr

    válasz schwartz #3890 üzenetére

    Ja, persze, és ha túlharapódzna a helyzet némi videókonverteren, meg physx-en, akkor nem lehet elvágni a fonalat, mert csudamód bekebelezi az egész világot és bezöldíti mindenki agyát, aki a monitorra néz. :))
    Eleve csak addig látnám életképesnek, amíg polcokra kerül a Larrabee, de addig jó lett volna.

  • janos666

    nagyúr

    válasz schwartz #3885 üzenetére

    Attól még, hogy az AMD támogatja a CUDA-t, miért romlik a CF hatásfoka, aminek semmi köze a CUDA-hoz? (Az SLI-t befolyásolja a CUDA? És a nem-physx-es játékokat? Nem... Késedelmes CUDA frissítés nem jobb mint a semmi?)

    Én végig szem előtt tartottam, hogy az AMD-nek nem lett volna belőle kimondott haszna, esetleg kára (de pillanatnyi reklámértéke és átmeneti haszna lehetett volna a Physx miatt a felhasználóknak is). Csak azt mondom (és nem csak zöld szemüvegen át), hogy ha meghal a CUDA, az pénzkidobás, és a mi pénzünk úszik el. Ha támogatja az AMD, most pillanatnyilag nyertek volna vele a Radeon tulajok is. Hosszútávon pedig a Larabbe-től is függ, hogy megtűrt rossz, vagy kimondottan káros dolog lett volna az AMD-nek a CUDA (ha azt is beleveszük, hogy a programozók szeretik a CUDA-t nekik is jobb lett volna a széles körben támogatott CUDA-zás OpenCL helyett)

    (#3887) - Ha 1-2 hónap múlva jönne (nem 2010-11) jó lenne az. Főleg ha elfér 2 ilyen mag 1 nyákon, 2 slotos hűtővel, de ha csak 1, még akkor is. Mikorra várható legújabban?

  • janos666

    nagyúr

    válasz HSM #3874 üzenetére

    Én most meg nem keresem neked (illetve kerestem, de csak a 2009 márciusban kiadott új 392 oldalas PDF-et találtam, ha meglesz linkelem), de voltak ilyen szép kis diák, amikből egyiken szerepelt, hogy a 4870-es az már Full-HD barát VGA, lehet vele 1920-ban játszani. Azokra gondolok, amiket az AMD adott ki a megjelenés napja körül, amikből a viszonteladóknak saját reklámanyagot kellett fabrikálni.
    De egyébiránt: A GDDR5 sávszélére is azt mondták nagy felbontásban jó, így megint bűn 1920-hoz kevés memóriával kiadni a GDDR5-ös kártyát. Tudom, hogy RAM hiány volt, és már fel voltak heccelve a kedélyek, miután a 4850 már hivatalosan is megjelent a nemhivatalos árusítás után, de na... Azt semmiképp se mondjuk hogy felhasználóbarát döntés volt 512Mb-os referencia 4870-et csinálni, főképp Full-HD barátnak beharangozni a szériát.
    A memory leakról elhiszem, hogy téves feltevés volt, de akkoriban még sokan osztották ezt a vélekedést, és végeredményben nem az számít bug-e vagy normál működés, hanem, hogy elég-e a RAM vagy sem.

  • janos666

    nagyúr

    válasz lsc #3871 üzenetére

    Hát nem? Csúnya, gonosz AMD megkárosít mindenkit önérdekből. :))
    Az nvidia a vásárlók pénzén időt és energiát ölt a CUDA megalkotásába, népszerűsétésébe. Jelenleg a szuperszámítógépeknél (ha szabad így nevezni manapság egy párszáz GPU-ból és CPU-kból álló szervert) örömteli a dolog, elégedett aki belefeccölt. Nekünk is itt lennének a videókódóló programok (vagy amibe csak bele lehetne még írni a támogatást, ha lenne értelme, mert elegen használhatnák, hogy megtérüljön a munka), a Physx, stb...
    Az nvidia nem zárkózik el attól, hogy a Radeon kártyákon is működjön a komplett CUDA platform (physx-estől, mindenestől...), de az AMD ez megtagadja, mivel távlati céljaiban más kilátások felé kacsintgat.
    Szóval az AMD sajátos érdekeit figyelem előtt tartva, de úgy dönt vesszen a CUDA. Ezzel pillanatnyilag megfosztja a Radeon tulajokat a már ma elérhető programok élvezetétől (pl. Physx), és kárbavész az a pénz, amit eddig beleölt az nvidia a CUDA-ba (ami a VGA vásárlók pénze, akár azoké is akiknek pillanatnyilag Radeonjuk van).
    Pedig ha megint software renderelés lesz, és a CPU-k nem esnek át évente legalább olyan fejlődésen, mint a Core 2->i7, vagy nem futja ki magát a Larabbe sepercek alatt, akkor bajban lesznek a PC-s játékosok a nextgen konzolokról portolással (jobban, mint ma). Ellenben a CUDA még időben elterjedhetne, ha az AMD is támogatná, akkor az intelnek már fejet illene hajtania, legalább arra az időre, míg csak befelé szivárog a piacra, aztán meg már nagyon messze járunk.
    Akkor ki tehet erről, hacsak nem az AMD? (Az Intel még nem játékos pillanatnyilag, de mire az lesz már igencsak el is dől a dolog, ezért nem venném bele)
    ///Ez most csak egy kis eszmefuttatás, nem kell teljesen komolyan venni, de akár lehet is.

  • janos666

    nagyúr

    válasz Psych0 #3869 üzenetére

    Háááát, ahogy vesszük! Az nv "nagy kegyesen" felajánlotta a CUDA-t az AMD-nek is, az már az ő döntésük volt, hogy (persze érthető okokból, de attől függetlenül) nem támogatják.

  • janos666

    nagyúr

    válasz ashot #3858 üzenetére

    Azt is 2010-re saccolták, az sem annyira "hamarabb, mint gondolnád".
    Nekem van még 1 tippem: A Stormrise is kap DX 11-es patchet amint megjelent a kártya. Ja nem! Azt blokád alá vonták patch ügyileg és a fejlesztők mossák kezeiket. :))
    Akkor majd a Cryengine. Jahogy DX 10 is alig van benne? :DD Nanembaj, tuti lesz legalább valami értelmes DX 10.1-es cucc akkorra, mikorra a DX 11-et beharangozzák, az is valami. ;]

    (#3863) - Még jobban vissza lehet nyúlni: Ha valaki a Xenos-tesselátor miatt vett HD2xxx óta akármit (illetve ezt is szem előtt tartotta). Vagy akár bedőlt annak, hogy lesznek DX 10.0 játékok, amik sokkal jobban muzsikálnak szintúgy HD 2xxx óta akármin mint G80-as vagy attól újabb Geforceon (amit vehetett volna helyette, és ez döntött a kérdésben).
    Sőt, beetették, mint engem, hogy itt nincs memory leak mint geforceokon, elég lesz 512Mb VRAM is a 4870-re FullHD-be is, aztán nagyon nem.
    Najó, nem sorolom tovább, kicsit hülyén veszi ki magát, hogy csak szidni tudom őket, miközben 4870x2 van a gépemben.

  • janos666

    nagyúr

    válasz Gonosz15 #3737 üzenetére

    Faud és a többiek együtt mehettek nyaralni, mert nincsenek csámcsognivaló kamuhírek. :DDD

  • janos666

    nagyúr

    válasz Gyusz #3731 üzenetére

    Sokszor taglalásra került már, de a Physx-et lehet software-only módban is használni, vagyis csak a CPU-t használja, akármilyen GPU/PPU van a gépedben, és lehet úgy, hogy megcsinálják ezt a szoftveres szintet, és mellé még beépítenek hardveres effekteket is, amiket akkor engedélyezhetsz a menüben, ha van a gépedben megfelelő GPU/PPU. (illetvi mióta az nv átvette, tesztcélokból már a hardveres részletesség is futtatható CPU-n, csak úgy egy Core i7@4,5Ghz-en se feltétlen kell játszható FPS-eket várni, de látod "miről maradsz le", és kimérhető mennyivel jobb a GPU-t használni....)

  • janos666

    nagyúr

    válasz gyiku #3727 üzenetére

    Köszi, mindig is szerettem volna egy eredeti VR-zone-os MySQL connection errort. ;]

  • janos666

    nagyúr

    válasz Abu85 #3725 üzenetére

    Igaz, egyedül a Terminátor az, ami megér egy telepítést, én veszek is hozzá egy 8800GS-t Physx kártyának. (Aztán ahogy végeztem vele, meg esetleg belenézek mit hagytam ki a Mirros Edge-el, adom is el amennyiért megvettem, mert való igaz hogy semmi más csemege nincs a physx étlapon :( )

  • janos666

    nagyúr

    válasz Dare2Live #3723 üzenetére

    Én így látatlanban is mernék fogadni, hogy a Dreamfall-hoz sincs, mikor tavaj nyáron végigtoltam valahogy nem jöttek ki jól a radeonnal, még AF se működött, és csíkozódott ha engedélyezve volt a Catalyst AI. :))

  • janos666

    nagyúr

    Amúgy a Stormrise bámulatos menetelése után (az utolsó pályán nem vágom mi van, de szerintem scripthiba, mert nem történik semmi, de hogy előről nem kezdem azt a pályát az 100 :DDD ) mi lesz még terítéken mostanság AMD-nél? Lesz a nyáron valami DX 10/10.1 cím amibe érdemes belepislantani, és ami miatt érdemes lehet nagyobbra cserélni egy 512Mb-os 4870-est?

  • janos666

    nagyúr

    válasz Dare2Live #3662 üzenetére

    Jó kérdés, mert engem most meggyőztek hogy október végéig nem lesz semmi, de ha 2-3 hét múlva váltok 4870x2-re, és rá pár hétre meg jönnek az új hírek, hogy Május legvégén, június elején itt az RV870 pipa leszek. :))

  • janos666

    nagyúr

    válasz Abu85 #3646 üzenetére

    Ha már ennyire odavan azzal, hogy nem volt még kinyomva egy GT300 se, akkor miért nem irkál arról is, hogy mikor volt az RV870 tapeout, és hogy szerepelt? Mert én pl. eddig még arról sem láttam pletykahírt, akkor meg miért kétségbevonhatatlan számára hogy az ideér októberre?

    (#3655) - Most nem a stílusa érdekel. Csak tényként kezeli, hogy "nincs még GT300 tapeout -> 2010 lesz belőle", de azt nem mondja, hogy szerinte mikor volt az RV870 tapeout. Szerintem még senki se mondta hírértékkel, hogy túlvannak már rajta. Akkor ezzel a logikával az RV870 is 2009 decemberében jön leghamarabb.
    Persze felőlem akár a gyártásra kész RV870 is készlehet, de legalább hazudja oda hogy szerinte már túlvannak az rv870 tapeouton, hogy önmagában megálja a helyét a dumája. :))

  • janos666

    nagyúr

    válasz gbors #3642 üzenetére

    Hát GTA 4-nél tuti csúnya ha kifogy a VRAM :))
    Patch nélkül még nem is engedte magát 1920x1200-ba rakni, mert kifutott volna a RAM számláló. 1.0.03-as verzió már magától 1920x1200-ban indul, de minden más mediumon, meg alapon van, és a nomemrestrict melletti high-ollás (nem is csutka maxra minden, csak high, vagy csúszka legalább defaultra) továbbra is azt eredményezi, hogy eltűnik a textúrák fele, a többi meg lowres verzióban maszatol a képre a félig átlátszó világban. :W

  • janos666

    nagyúr

    válasz keIdor #3585 üzenetére

    Elhiszem hogy óccsó a x2, de mondtam hogy a gondolatától is felálll tőle a hasamon a szőrcsomó spirálba. :))
    Pedig lehet mégis az lesz a vége. Mindegy, addig marad a 4870 512 míg elviszik az alaplapom, aztán majd meglátom.

    Mert pl a legutolsó játék amit letoltam a Mirrors edge volt, a következő meg a Terminator S lesz, véletlen, nem ezért tetszettek meg, de ezek épp Physx-esek. (illetve mostanában fél-fél órákban toltam a Stormrise-t, de az uccsó küldetésnél meghalt az egész, nem maradt ellenség, nincs cél a térképen, csak áll, már körbejártam a pályát 6x, szóval nem lesz végigtolva)

  • janos666

    nagyúr

    válasz gbors #3582 üzenetére

    Az a baj, hogy 4870x2-t semmi pénzért nem akarok venni. Az alapórajelen is egy forró pokolba zárt "zajos szörnyeteg", írtózom tőle (az nv féle dualnyákosoktól is...). Oké, akkor ugyanannyi pénzből (vagy még olcsóbban) kijön egy 2. 4870 is, az x38 lap jól viszi a CF-et. Nade! A CF-el 2 gond van: 1-nem marad hely a lapban a 8800GTS @ Physx gyorsítónak (ez a kisebb gond, mert egyedül a cryostasis az amihez egyszerre kéne mindhárom GPU, amennyi Physx játék kijön tudnám cserélgetni, majd eldönteném melyik a fontosabb, az AA vagy a Physx), 2-Ez a nagyobb gáz, hogy az csak 2x512Mb-os CF lenne. Akkor még mindíg baszhatnám a GTA4-et, ami 1500Mb-ot is kérne tőlem papíron (szerintem 1Gb-al azért már elmenne, és nem fontos mindent tökig csutkára tolni, de 2x512-vel ugyan ott lennék mint most...), vagyis a 2 GPU javítana az FPS-en, de mégsem lenne optimálisan kihasználva a rendszer, mert mindkét VGA-t visszafogná a RAM mennyisége (még ha látszatra jobb is lenne mint 1 kártya, de még sokkal jobb lenne a 2x több RAM-os kártyapáros), viszont annyi pénzem nincs a gépre hogy 2x4890cf.
    És ha ez nem volt elég: Egy 4870x2 alá mégiscsak bekívánkozna az a Q6600 is, szóval nem az a kérdés procicsere helyett inkább VGA-t cseréljek-e.

    Jó lenne tudni végeredményben mikor is jön az az RV870 :U

    Ilyen dilemmák miatt szoktam néha kihagyni az aktuális gpfejlesztést mikor még emberi áron lehetne foltozgatni a rendszert, aztán a vége az hogy "rámrohad", és fillérekért kell eladnom az egész cuccot, és a semmiből újraépíteni egy gépet hogy megint legyen valami izmos PC-m. Eddig szerintem mindig rosszabbul jártam anyagilag mikor hagytam lerohadni a gépet és előrőlkezdtem, ráadásul azalatt 1 évig még játszani se tudtam vele rendesen...

  • janos666

    nagyúr

    Hmm. Jobban belegondolva lehet jobban járnék a következő 2 évre nézve E8400@5Ghz-el, mint Q6600@3,8Ghz-el? :F

  • janos666

    nagyúr

    válasz gbors #3568 üzenetére

    Mondjuk még ma is könnyen lehet hogy az egyik kezed is elég lesz megszámolni hány játék használja mind a 4 magot, és könnyebb 2 magos perynt 4000 fölé tolni mint egy i7-et.

    Ja, meg ha valakinek ekkora CPU kell játékra, ott eleve gond van (ne sértődjön meg aki azért veszi meg mert van rá pénze, az más...), mert CPU és VGA csere alatt a minitorját is revízionálni kellett volna, és nem 1280x1200-hoz, meg 1440x900-hoz kellett volna venni olyan VGA-t, amit aztán ezen a felbontáson csak szarráhúzott peryn tud kihajtani, főleg hogy ezesetben mindíg 60 FPS feletti értelemben beszélünk a kihajtásról, ami lényegtelen, mivel azok a képkockák mintha ott sem lellének.

    Szerintem a legfontosabb egy jó monitor.Ennek a felbontását aszerint kell megválasztani mennyi pénzünk marad utána VGA-ra, mert ha kiperkáltunk negyedmillát egy 2560x1600-as monitorért, akkor kénytelenek leszünk alátenni 2 izmos GPU-t is kazalnyi RAM-al, de 1920-ig bezáróan elég 1 GPU, Full-HDhez izmos GPU-val, sok RAM-al, kissebb felbontáshoz akár kicsit butított GPU-val, kevés RAM-al. Ha ez összeált majd rakunk alá valami procit, ami biztosítja, hogy ezen a felbontáson, maximális minőségi beállításokkal, 2 vagy 4x AA-val kifussa magából a kártya amit el lehet tőle várni (60FPS-nél vagy affeletti potenciálnál a stabil 60FPS-t, alatta pedig amit bír a GPU ideális esetben... -> nem az a lényeg hogy ne legyen procilimites az FPS, hanem hogy ne legyen CPU-lag a játékban, simán fusson...). Ez legtöbbször kimerül egy megráncigált kétmagosban.

    Mondjuk fura hogy épp most bizniszelek magamnak egy Q6600-at, miközben arról prédikálok hogy játékra bőven elég bárkinek egy húzott kétmagos. :D De mostanság elkezdhet durvulni a játékok fizikája is, akkor bukhat majd a fenti elmélet. (Meg én szeretnék egy olyan gépet amin megy a GTA4, és ott csak hardverfölénnyel lehet legyűrni a bugokat :DDD )

  • janos666

    nagyúr

    válasz cizoe #3561 üzenetére

    Elég lesz az a 64 rop 1024-bites memóriavezérlőhöz, vagy mi? :F

  • janos666

    nagyúr

    válasz sniper elite #3554 üzenetére

    Hova kell ahhoz i7? Nekem most egy E6420@3,6hz is kihajt egy 4870-et bőséggel, de biztos ami biztos teszek majd alá mostanság egy Q6600@3,6Ghz-t. 1920x1200-hoz, minőség beállítások maxon, 16x AF, meg legalább 2xAA, de inkább 4x, és egy 4870x2 alá is elég egy 3,6 körül járó kétmagos core2-es.

  • janos666

    nagyúr

    válasz Tombi #3504 üzenetére

    Remélem tuningolod az az E8200-at, mert veszélyes 4Ghz is lehet abban, akkor egyenesen hülyeség lenne azt mondani hogy nem elég a VGA alá. :DDD

    Amúgy 1366x768-ra tényleg nem kell nagyobb kártya, meg ez a kihajtás dolog is olyan hogy 60FPS felett ugye tökmindegy...

    Persze néztem ph aprón kívül. Hát nem vágom, ha tényleg elvinnék 40k-ért is a kártyám (esélytelennek látom, de majd kirakom ha elment az alaplapom), akkor lehet bevállalok egy 4890-est, vagy speckó hűtős 4870 1Gb-ot.

  • janos666

    nagyúr

    Amúgy ha tényleg csak 2010-ben jönnek az új VGA-k, akkor szerintetek mit tudok kezdeni azzal, ha keveslem az 512Mb VRAM-omat? (pl szeretnék Full-HDben GTA4-ezni, de nem minimumra tekert csúszkákkal). Alapvetően úgy gondoltam kihúzom az RV870-ig, ha tényleg nyár végén, ősz legelején jön, de így necces.
    Ha beraknék CF-be még egy 512-es 4870-et, az se oldana meg sokmindent, most használtan eladni és 4890-re cserélni 2x-es ráfiztést jelentene (eladnám, mellétenném az árát megint, és úgy hozhatnék el újat ami 20-25%-al ér többet).
    Használt 4890 még az újdonsága, 1Gb-os 4870 meg a ritkasága miatt nincs a használtpiacon, használtról újra meg nagyon nem éri most meg váltani kis plusz többletért.

    Ezt amúgy nagyon szoptam az RV770 kapcsán, hogy már réges rég megvolt a kártyám, mire végre kiadtak 1Gb-os verziót is, nem érte volna meg megvárni, de mostanra meg csak kiütött hogy 1920x1200-hoz mégis kéne 1-2Gb VRAM, FC2-nek, GTA4-nek tuti, még a rendes futáshoz is, de más is van ami örült volna neki (elment így is akadás nélkül, de talán lehetett volna picit stabilabb az FPS).

  • janos666

    nagyúr

    válasz tzsolesz #3485 üzenetére

    Elégedett voltam vele! Egyedül a Far Cry nem ment rajta, a Half-Life 2 is épp tűrhető sebességgel futott 1280-ban (-dx9 kapcsolóval! Tuningoltam is, nem érdekelt hogy alapon is megsütött egy tojást, nekem szalonnás rántotta kellett mire lefőtt a kv :)) )
    Aztán később tűrhető áron adtam el egy másik (kissebb költségkeretű) nv-fannak, és vettem az árából egy 6600GT-t, szénnéfeszeltem és ki is húzta azt a generációt...

    Most is nv párti vagyok, de ezúttal úgy döntöttem túl jó ajánlatott tett az AMD ahoz, hogy kedvességből elnézzem az nv-nek a GTX260 árát, nameg egyre szegényebb is vagyok...

  • janos666

    nagyúr

    válasz Dark KillerX #3471 üzenetére

    Hát voltam, most hogy nincs már rá pénzem, és amúgy is egyre kevesebb időt töltök a előtt olyannal, amihez kell a VGA, így 4870 követte a 8800GTS-t.
    De az is igaz, ha nem rohantam volna hogy az országban elsők közt legyen 4870-em, hanem csak pár hónappal később vettem volna VGA-t, mikor a GTX-260 túlvolt pár árcsökkentésen, és javult a teljesítménye az új driverekkel tesztelve, már azt vettem volna, egyszer majdnem el is cseréltem 1:1-ben.

  • janos666

    nagyúr

    válasz Dark KillerX #3469 üzenetére

    Az, akinek 100k aprópénz, az szerintem igen is megveszi, ha neki az tetszik. És ez a gondolkodású réteg már elég nagy részét teheti ki annak, aki egyáltalán vásárol a 100k fölötti kategóriában.

    Annak idelyén én is megvettem az FX5800-at 9800 helyett, mert leszartam mennyibe kerül (mármint hogy +/- 10-20k, meg +/- 10-20% teljesítmény/ár), kellett egy VGA, és NV-t akartam...

  • janos666

    nagyúr

    válasz rocket #3465 üzenetére

    Jaja, ha kidobnák most rohamlépésben az RV870-et, akkor ha igazak a GT300 késéséről szóló infók akkor addigra teletömhetnék az userek PC-it a DX11-es kártyáikkal, sőt, mire megérkezik a GT300 már a kapuba tarthatnák az RV870 frissítést, mint ami most csináltak a HD4 szériában. Kidobnák a HD5870 után a HD5890-et, ami olcsóbb mint a GT300-as kártya és/vagy gyorsabb.

  • janos666

    nagyúr

    válasz keIdor #3462 üzenetére

    Sokakat elcsábít az, ha látják, hogy egy gyártó mit tud összehozni. Ha van egy kártyájuk, ami akkora mint az egész gépházuk tartalma, és minden tesztben a legjobb helyen áll, akkor attól a cégtől kezdenek el nézelődni a pénztárcájukhoz illő terméket. "Ha képesek voltak összerakni a legjobb kártyát biztos értenek hozzá." alapon már vonzó számukra a cég neve.
    Na persze sántít az elmélet, mert ahhoz hogy tudja, melyik a legjobb high-end kártya nézegetni kell teszteket, akkor hülyeség feltételezni hogy a vásárlásra kiszemelt olcsó VGA-járól 1 grafikon se érdekelné.

    Még régebben volt amúgy valami hír, hogy legközelebb egy elve középkategóriás kártyával jön majd az nv DX 11-be, nem high-endel indít neki a GT200 után.

    De szerintem is illene már előkapniuk valamit a G92 helyett. Most ezt azzal baszták el, hogy a DX 10.1-et ki akarták hagyni, akkor tervezésspórlásból már meg kellett várni a DX 11-et, de ahhoz most a GT300-ból kéne kistesót kihasítani, ami meg nincs...

    Na meg volt ez a tendencia, hogy a középkategóriát nagyon kiherélte az nv (8600GT), a high-end GPU selejtesebb verzióit pedig elérhető áron kínálta, és így inkább összehúzta az ember a száját, és "na jó, nem szántam rá ennyit, de legyen akkor 8800GTS 8600GT helyett ha ennyivel gyorsabb". Ezt eleinte az ATI is követte, még szarabb kártyákat küldött a 8600GT ellen.
    Most fordult a dolog azzal, hogy a 3800-as, de főleg a 4800-as kártyákat baráti áron kapod, és az 50k-s VGA-k olyan szinten vannak, mint korábban az 70-80k- kártyák.
    De megint jó kérdés mi lett volna az nvidia következő lépése ha besül az RV770, vagy drágábban jön. Akkor lehet hogy lenne már a piacon GT-200 alapú középkategóriás chipjük 45nm-en.

  • janos666

    nagyúr

    válasz Skizz #3454 üzenetére

    Ha 3-4 évig tartaná az árát, és azalatt boldogan tudná használni az ember, akkor igen...

  • janos666

    nagyúr

    válasz cowboy_bebop #3418 üzenetére

    Ja, annyira jelentéktelen széria volt, hogy már nem is emlékszik szinte senki hogy 2900, 800, XT Pro vagy GT, nemmindegy? :))

    Amúgy hát nem tudom, de akinek már volt akkorra egy 8800GTS320-a, azt szerintem nem hozta lázba a 3870 (magamból kiindulva :DDD ). Másrészt meg sokáig vergődött az a széria is mire a catalystok összeszedték magukat. Talán 8.5 óta mennek rendesen az RV6+xx kártyák, de 8.2 előtt verte őket a 8800GTS (de a GT tuti), meg volt még akkor egy best-buy 9600GT is a csatasorban mire lett catalyst.

  • janos666

    nagyúr

    válasz zuchy #3408 üzenetére

    Q2 közepén hol van messze a Q3? Nameg ha az a hír is igaz, hogy GT-300 csak 2010Q1-ben lesz, akkor meg ráérnek azzal is hogy megelőzzék az nv-t.
    Bár tény, ha inkább megsürgetnék, akkor letarolhatnák az első DX11 kártya szerepét, mint annak idelyén a 8800GTX/GTS-ek is bekerültek sok gépbe, és akkor kevésbé lenne érdekes a GT-300 megjelenés, ha már tele lenne nem csak a piac, de a felhsználók gépei is a hasonló tudású és teljesítményű RV870 kártyákkal.
    Aztán mire a GT-300 is kellő mennyiségben kerül a boltok polcaira kihozhatnak egy új szilikonrevíziós, emeltórajeles, vagy hűvösebb és olcsóbb RV870-et pl RV890 néven (annak fügvényében hogy viszonyul az RV870 a GT300-hoz), és akkor megint ők lennének fölényben...

  • janos666

    nagyúr

    válasz tzsolesz #3401 üzenetére

    A fő gamer most vagy lecseréli a 4870-esét 4870x2-re, vagy berak mellé mégegyet. Nekik mindegy mire perkálod ki a pénzt, csak eljusson hozzájuk. :DDD

  • janos666

    nagyúr

    válasz tzsolesz #3396 üzenetére

    :)) Szerintem már a mostani kártyák is A/TI/MD-k. :))
    Ha megteszed, akkor én meg lenyúzom majd a physx kártyának beállíított 8800GTS-ről az nvidia logós kis matricát, ami a ventillátorlapáton van, és teliberagasztom vele az 5870-emet!!! :C

  • janos666

    nagyúr

    válasz zuchy #3393 üzenetére

    Nem, pont hogy NEM jön (szerintük ; elírtad :((( )
    Amúgy elég nagy zagyvaság a hír. Mi az hogy passzolták a régi RV870-et, és inkább egy DX 11-es kártyával jönnek ki? Az is DX11-nek lett beharangozva amit eddig korábbra vártak. Meg amit összehadovál a sok Q-val. :Y
    Ha érne valamit a 8200 én se a 9300 árait sasolnám...

  • janos666

    nagyúr

    válasz keIdor #3389 üzenetére

    Jaja, CPU-királyok, azért kerül még mindíg annyiba a Q9300 is amennyibe lassan 1 éve (ilyet akarok majd egyzer ha végre lemegy az ára), meg azért ilyen drága a core i7, és ígérkezik drágának az i5 is, mert az AMD CPU-kak nincs ellenfele. :))

  • janos666

    nagyúr

    válasz Bici #3384 üzenetére

    Jaja, én meg egyenesen ki vagyok akadva azon, hogy a közhangulat szerint már 21-et tart a kezében az ATI, és mosojogjon az nv-n aki csöndben ül, és félve megint lapot akar kérni, de esélye sincs.
    2 bukot kör után most volt egy jó szériája az ATI-nak. Ha megint lesz egy ehhez hasonló menetük a HD5-el, akkor már azt mondom épp egálban vannak, és már affelé készül billenni a mérleg nyelve, hogy nyertek is, az nv meg kivonulhat a piacról is.
    Arra már nem emlékszik senki, hogy a HD4800-asok előtt milyen lapjaik voltak (2800XT), és hogy a 3870-el se húztak rá túl nagyot, csak most sikerült tarolni 1 kört?

  • janos666

    nagyúr

    válasz Bluegene #3358 üzenetére

    Fogsz egy alaplapot amin van két PCI-E 16x slot, beraksz egy 9600GT-t a radeonod mellé, végigjátszod a Terminátor játékot, aztán hacsak nincs a láthatáron több Physx játék ami érdekel, akkor 2-3 hét múlva eladod vételáron, vagy max 1-2kval olcsóbban (ha türelmetlen vagy).
    Most hogy mondod lehet meg is van mivel ütöm majd el a pótlási hetet. :))

  • janos666

    nagyúr

    válasz gyiku #3331 üzenetére

    Úr isten! :Y
    És most nem is annyira a GT-300ra gondolok (bár az se rossz :O ), hanem hogy 2 éve, mikor még a 6800GT-m Vmod guide keresésekor találtam rá, aztán egész addig, míg RV770/GT-200 híreket sasoltam náluk (közben 8800GTS Vmod is tőlük jött), a kedvenc külföldi oldalam volt a VR-Zone. Idén nyár óta nem néztem feléjük, most a linkedről átpislantottam a főoldalukra és JAJJ, szanaszét van szedve az oldal, televan smartphone, PDA, notebook és LCD-TV hírekkel (meg kazalnyi reklámmal, de az mindenhol van több-kevesebb). VGA/CPU/alaplap sehol?

    Nameg ez is egy tök semmit mondó hír. GT-300 delayed, aztán mellébeszél, azt hozzá se fűzi milyen forrásból jött ez az infó, mi az oka a késésnek...?

  • janos666

    nagyúr

    válasz zuchy #3231 üzenetére

    Ha több BIOS verzióval is csinálta, és túlvagy az elemtelenített CMOS clear-en, fesz se segít akkor 2 dolog marad. Windows reinstall (akkor praktikusan CMOS reset utáni első induláskor bootolva a telepítőDVD-vel), megnézni onbox chipsetdriverrel is, és utánna rápakolni egy friss chipset drivert. (eszközkezelőben is nézd meg tényleg frissült-e)
    Ha ez se segít, akkor érintkezéshibás a kártyán vagy az alaplapon a csatlakozó. Vagy kiégett a huzalozás, vagy esetleg egy porgalacsint préseltél be a slotba a kártya berakásakor. Egyébként így, szigetelőszalagos ragasztgatással lehet 16,8,4,2,1x módokat előállítani teszteléshez ha nincs ilyen opció a BIOS-ban. :DDD

    Gbors: Az a 4870x2 @8x az 2.0-ra vonatkozott, vagyis 2.0/8x, ala 1.1/16x, nem 1.1/8x?
    Hmm. Akkor kezdhetek gyúrni egy P55 lapra, vagy legalább is egy 775-ös DDR2-es lapra 2.0-val. De jó hogy épp az alaplapom terveztem akkoriban leg időtállóbbnak. :))

    Nekem jobban tetszett a sárkányos codename. :o

  • janos666

    nagyúr

    DX 10.1 és DX 11 tükrében amúgy mi a helyzet a buszsávszél igénnyel? Ahogy néztem egy 4870-nél néhány tesztben már kimutatható (használat közben nem érzékelhető, de kimérhető) a PCI-E 1.1 és 2.0 közti különbség (ugyanazon gépben, a 16x 1.1-et 8x 2.0-val emulálva...).

    Szóval egy RV870-es kártyát nyugodt szívvel bele lehet majd még tenni egy PCI-E 1.1-es alaplapba, vagy illene beiktatni egy alaplapcserét is addigra? Az új játékokban az a tendencia, hogy egyre nő a sávszéligényük, vagy épp hogy csökken ahogy textúrázás helyett a számolgatás kerül előtérbe?

  • janos666

    nagyúr

    válasz tome.jr #2767 üzenetére

    Ez így szép meg jó, hogy a HAWX meg a Stormrise DX 10.1-es, és gyorsulnak is tőle. 1 bajom van ezzel. Mindkettőt csak azért tettem fel hogy "meglessük azt a DX 10.1-et".

    A HAWX kellemes meglepetés volt játékélmény terén, mert ugyan rövid volt, és észrevétlenül vége lett, de azért végig lehetett játszani azt a pár órás kampányt.
    A Stormrise-nál majdnem elakadtam a tutorialnál, mert az elején még jobbra-balra nézni is megtanítottak, mint egy balfaszt, de aztán elkezdték magyarázni hogy jobb egérgombbal váltsak kijelölt egységet, mire én rögtön nyomkodtam a jobb egérgombot, csak épp azt nem mondták el soha, hogy a jobb egérgomb egyben a NEM-et is jelenti arra a kérdésre, hogy megértettem-e az utasításokat, és kb 8x elismételték nekem, hogy "Nyomd a JOBB egérgombot, ÉRTEM?" Én meg nyomtam, és elismételték megint, mire véletlenül megnyomtam a BAL egérgombot is, és elfogadták az IGEN válaszom, hogy értem hogy a JOBB egérgombot kell lenyomni. ;] ;] ;] Ezen felül nevetséges a kezelhetősége, hogy nem lehet végigtekinteni a terepet, csak ezzel a jobbegeres móddal lehet egységeket kijelölni, és tök fárasztó módon is csak 3 egységet lehet egy csoportba rendezni hogy mehessek velük randalírozni.

    Na, grafika terén pedig mindkettő egy nagy vicc a DX 10.1-el.
    A HAWX-ban sem láttam semmi olyat, amit ne lehetett volna megcsinálni DX 9.0c-vel úgy, hogy egy 8600GT-n is vígan el kéne szaladnia még 1680-ban is. Legtöbbször a saját repcsijét látja az ember, ami nem egy nagy szám, meg valami felületes makettet a terepről (ami érthető módon nem túl részletekbe menő, mert ritkán kell közel repülni a földhöz és ránézni). Az ég meg szép kék, vagy néha felhős, de sosem kell felhőkön átrepülni, vagy ilyesmi...
    A Stormrise megint. Utoljára a C&C - Kanes Wrath volt az a stratégiai játék amit letoltam, a 8600M GT-vel szerelt laptopomon gyönyörűen futott 1680-as felbontásban 2x élsimítással. Hát ebben most kétségtelenül van 1-2 új effekt, de alapvetően nem egy látványos játék az előbb említetthez képest. Sőt, itt sem indokolja semmi, hogy még a DX 10.1-re is szükség legyen, 8X élsimítással is elfut maxolt grafikán 1920x1200-ban. Akkor DX 10.0-ban mehetne mondjuk 4x AA-val és nem is látnám a különbséget, húha!?

    Tesztekben persze, látszik hogy gyorsít a DX 10.1, nade ezeknek a játékoknak a grafikája nem szabadna hogy egy 8600GT teljesítményétől többet igényeljen, és semmi olyat nem látni bennük, amihez ne lett volna elég akár a DX 9.0c. Ha ez a nagy sunyi DX 10.1 propagandakampány, akkor ez sokkal nagyobb vicc, mint az NV-TWIMTBP

  • janos666

    nagyúr

    válasz zuchy #2731 üzenetére

    Ezen én is filóztam, hogy kihúzza-e még az alaplapom a következő generációt is az 1.1-es PCI-E sínjével. Pedig azért vettem annak idején fullosabb P35-öt, hogy jó legyen még sokáig, és jó is lenne tényleg 45nm-es quad alá (amit még máig nem érte meg beletenni...), csak nem tudom elég lesz-e a PCI-E sávszél.

  • janos666

    nagyúr

    válasz Bici #2702 üzenetére

    Se a hypersnap se a printscreen nem veszi le, telóval lefényképezve a monitort nem lesz jó, de amúgy ilyen: [link]

  • janos666

    nagyúr

    válasz janos666 #2700 üzenetére

    Hehe. Kibaszott nagy flash ez a kép amit az auto-tune rak ki míg terheli a GPU-t.
    Nézzetek a közepébe, mozgassátok a tekinteteteket a monitor jobb és bal oldala közt vízszintes vonal mentén, majd álljatok meg középen és bámuljátok egy kicsit. Most középről indulva nézegessetek fel-le, fel-le a monitoron belül, és megint álljatok meg középen és bambuljatok egy kicsit rá. Na, most vagy az a színvak aki még nem jött rá, vagy nekem volt épp flashbackem, mikor kipróbáltam az autotunet, de szerintem szórakoztató. :))

  • janos666

    nagyúr

    válasz gyiku #2699 üzenetére

    Ha valakinek még nem tűnt volna fel kijött a 9.4-es Catalyst. Úgy látszik kicsit ráfeküdtek a tuningra, mert van benne valami új overdrive autotuner, ami beteszteli meddig stabil a VGA. (ja, persze :DDD ).

  • janos666

    nagyúr

    Nekem nagyon tetszik ez a csomagolás. Mikor az április elsejei hírben láttam, arra gondoltam hogy viccnek is jó, de a valóságban is meg kéne csinálni. :))
    Főleg így képeken, szemből nézve tetszik, hogy a mintázata olyan, mintha nem is csak egy keresztbe rakott téglákból álló X lenne, de még a téglák éle is le lenne vágva különböző dőlésű síkokkal, és olyan kristályszerűen térbeli lenne az egész...

  • janos666

    nagyúr

    válasz westlake #2262 üzenetére

    Ebbe nem beletenyergetnek az emberek, régóta ment a pletyka, hogy szeretné ezt az nv, csak rejtett dolgok miatt nem tudja még megtenni. Már ezelőttről hogy a Larabberől elkezdtek beszélni, de azóta egyértelmű...

  • janos666

    nagyúr

    válasz leviske #1663 üzenetére

    Nekem is úgy rémlik, hogy 1, max 2 héttel a megjelenés előtt került ki néhány ázsiai boltból pár darab 4850-es, amiket otthon tesztelt pár "szerencsés", és tőlük szivárgott pár teszt, de ennyi. Előtte is ott volt persze pár embernél 1-2 engineering sample, de az NDA miatt nem publikált, csak a hűtőről volt kép, ja...

  • janos666

    nagyúr

    Hehe, nekem fel se tűnt, hogy ő most az nv topikból jött beszólni, azt hittem egyszerűen csak poénkodott.
    Ehhez képest rendesen lebasztátok érte, miközben azt fejtegettétek, hogy igazából nem is akartok szólni miatta, csinálja nyugodtan, tűritek szó nélkül. :)) :C
    "Én most nem fogom neked azt mondani hogy: Khmm, any á d, phh..." :P

    Szólásszabadsághoz meg annyit, hogy az csak is addig van, míg valakinek eszébe nem jut élni vele, mire egy másiknak meg az jut eszébe, hogy akkor már ő is szabadon hangoztathatja, hogy egy-két túlzásba esett fasz miatt töröljük is el a szólásszabadságot. És pákkk, volt nincs, sosem volt, sosemlesz, de azért papíron dejó. :U

  • janos666

    nagyúr

    válasz schwartz #1537 üzenetére

    Nem, most a Half-Life 2 EP3 kupon van soron, a Duke majd az RV870-hez lesz.

    Meglássuk...

  • janos666

    nagyúr

    válasz Abu85 #1534 üzenetére

    Mehhh??? Csinálnak egy Frankensteint? DX11-re tervezett előzetes koncepciót valósítanak meg DX 10.1 tudással, kicsiben?

  • janos666

    nagyúr

    Én is arra tippelek, hogy csak új szilikonrevíziós chipek lesznek amik azonos feszen is magasabb órajelet tudnak elérni, de a kissebb feszemelést is jobban megköszönik, valamint azonons feszen és frekin kicsit kevesebbet fogyasztanának, netán picit életszerűbb hűtőjük lesz. És ebből a sok apróságból valahogy összepakolják a 20-25%-ukat.

  • janos666

    nagyúr

    válasz leviske #1501 üzenetére

    Jaja, én is azon filózok, hogy ha jönnek az új kártyák, esnek picit árban ezek a régiek, akkor elbizniszelem az 512-es 4870-em 1Gb-osra. (azért áresés után, hogy kisebb legyen a két típus közti árkülönbözet :D ).
    Ebben konkrétan rossz tanácsot adott nekem Abu, mikor azt mondta az 512Mb mindenre elég lesz 1920x1200ban is, mert nincs memory leak, meg nem ilyenek lesznek a programok, mint amilyenek. (pl. Far Cry 2, GTA4, ezek pl. épp rajta vannak az étlapon, és épp érzékenyek a memóriaméretre, miközben épp a játszhatóság határán vannak alulról...)
    GTA4-ben pl eltűnik a textúrák fele, ha natív 1920x1200-ba erőltetem norestrictions parancs után, a többi meg szar lowresben jön elő. :DDD

  • janos666

    nagyúr

    Mennyit kóstál majd amúgy egy ilyen noteszbe szánt 4830-as kártya?

    Amúgy elég nagy ellentét van a mondataidon belül.
    - Ez a számozás így logikus, mert teljesítmény szerint rakja sorba.
    - A mobil 4830 gyorsabb lesz mint a mobil 4850
    Akkor vagy 4790-nek kellett volna elnevezni, esetleg 4890-nek, vagy még inkább 4930-nak, de semmiképp se 4830-nak, mert így se a teljesítményviszonyokat nem tükrözi, se a generációkat. (vagy hibásan fogalmaztál, és nem az új jövevény a leggyorsabb a 3 közül).

  • janos666

    nagyúr

    válasz VinoRosso #1469 üzenetére

    Hááát őőő, izééé...
    Emlékszel a Half-Life 2 E3-as techdemókra? Én már akkor azt kifogásoltam, hogy, fejből idézem saccra amit akkor írtam:

    Bazdmeg, kurva állat az a víz! Csaaak... Tényleg élethű, meg minden, de akkor már miért nem tudom megtenni, hogy mikor vízbe merítek egy vödröt a phsygunnal (arró beszélek mikor itthon szórakoztam a kilopott alpha verzióval...), akkor a vödör teljen meg vízzel, amit aztán szétlocsolhatok a betonon, ahol tócsát képez, illetve ha mindezt nagyobb vödörrel (hordóval) játszom, még a medence vízszintje is alább apadhatna (na nem rögtön úgy mint egy profi hidraulikai/hidrológia modell, csak úgy kornak és szórakoztatás igénynek megfelelő minőségben.
    A rombolható falakat is vártam volna az után, mikor lenyomták a videót, amiben több falat szétrobbantanak a striderek.
    És most a 2003-as vágyálmaimról beszélek...

    Valami ilyesmi felé vezető utat véltem sejteni a GPGPU-ra portolt, nvidia által pátyolgatott Physx mögött is akár pár generáción belül mikorra megszaladnak a Terraflopsok (mikor ott lesz a kompetitor intel havokja), stb...

    Én nagyon élvezném a teljességében rombolható környezetet, már a mai grafikai szint mellett is, a mai teljesítmény melletti gyermeteg igényű megvalósításában.
    Elindítanám az új GOTY reményes játékot, és nem azt kezdeném fürkészni hogy festenek a shaderek, milyenek a textúrák, hanem lövöldözném a padlót, falat, plafont, trancsírolnám kicsit a hullákat, vagy a bútorokat...
    (Mert 20 éves fejel [de már 18-assal is ezzel kezdtem], és csak azt a pár játékot játszom végig az évben, ami ezalatt a tehdemókként való bejáratás alatt hangulatilag/történetileg is belopja magát a lelkembe...)

  • janos666

    nagyúr

    válasz Abu85 #1450 üzenetére

    Még 1: Az intel régen szerette volna lapátra tenni a már akkor is "jó öreg" x86-ot, és új alapokon kihozni a 64-bites procikat (amiken az x86 kódok csak lassú emulálással futnak le az 1, max 2 generációnyi átmeneti korszak alatt, míg elfelejtik, illetve akinek még mindig a régi x86 progija kell, ahhoz már elég az addigra olcsón is kapható alsókategória emulált sebessége is).
    Ezt a tervet csak az AMD x86_64 utasításkészlete törte nyakba, kénytelenek voltak ők is lekoppintani a dolgot EMT64 néven, és így maradtak meg máig az x86-os procik a 64-bites utasításkészletükkel.

    Most, hogy egy relatíve tök új dolgot dobnak piacra, amiben előrébb járnak az AMD-től, miért nem ragadták meg az alkalmat, hogy x86 helyett új alapokra építkezzenek? (előbb jöhetnek ki vele, mint az AMD, és akkor neki kellene követnie őket -> márpersze ha licenszelik nekik a cuccot, de a versenyhivatalok miatt meg kellett volna tenniük, csaképp 1-2 generáció lemaradással lett volna az AMD...)
    Én nem vagyok programozó, nem sajnálnám azt aki x86-on nőtt fel, és most gondolkodásmódot kell váltania, ellenben nekem tetszett volna ha az MS-nek ki kellett volna dobni a 90-es évek eleje óta windowsokon keresztülhurcolászott kernelkódokat, és mai igények alapján újrapofozni az IA64 kernelt, mint pl. IA64v2 néven, ami mondjuk a mai IA64 felújított verziója lenne, még frissebb szemlélettel átgondolva, valamint grafiákázáshoz, fizikai modellezéshez, stb. (mai slágercuccok) is jobban megfeleltetve. Tiszta számtekipari forradalom hangulata lehetett volna a dolognak. :))

    Ja, amúgy szerintem ne vegyetek vissza a hangnemből. Én se vagyok programozó, mégis úgy érzem egész jól megértem miről beszéltek, túlontúl mérnökinek meg végképp nem mondanám. (pl. nem mérvadó az, hanem mértékadó, ha kurrens magyar mérnökszlenget akarunk. :DDD )
    Szóval még mindíg jobb ha a laikusnak marad néhány sötét folt, majd rákérdez, de így legalább tartalma is van a szövegnek, és lukashoz is több infó jut el, mint a foltnélkül emészthető, de szarásigbutított szöveggel. :))

  • janos666

    nagyúr

    válasz tlac #1447 üzenetére

    Én csak azt nem értem máig, hogy miért épp a csúcson szállnak ki? Mármint ha GPGPU az mégis GPU valahol, és a csúcsot meg oda értem, hogy már a zsebükben volt a fejlesztők nagy része, és piaci fölénnyel bírtak a roskadozó AMD felett. Szinte hülyeségnek tűnik épp ilyenkor kiugrani. Az ok, hogy így kevesebbet kell fejlesztésre költeni, ha csak a GPGPU-nak szánt csipen épp annyit igazítanak hogy játékra is jó legyen, nade a kiugrással úszik az eddig piacba pumpált pénz és erő, az TWIMTBP dolgok, a piaci fölény, stb. Szóval nem úgy tűnik, mintha nem érte volna meg nekik belefeccölni némi pénzt miközben van is hozzá tőkéjük, hogy utána nyereséget vehessenek ki. (még akkor is ha ez kevesebb nyereség mint a GPGPU, a profit az profit, miért ne adna valaki 100 Ft-ot 1 hónapra ha nem kell neki semmire "idézőjelben persze", de többet kamatozik mint az infláció?) Még az se móka, hogy tudták mikor csinál válságot az amcsi jegybank, mert akkor már mostanra se lenne kártyájuk, hanem 1 generációval előbb leépítenek...

  • janos666

    nagyúr

    válasz janos666 #972 üzenetére

    Vagyis nem tudom, de sejtem a választ: Úgy csinálta a scrennhotot, mint én, berakott még 1 Geforce kártyát is a Radeon mellé, úgy nálam is létrejött egy hasonló screenhot.
    Az is erre engedne következtetni, hogy nem válaszolt többé a pm-jeimre, miután raktam ki ilyen screenhotokat a fórumán és elárultam én hogy hoztam őket létre. :DDD

  • janos666

    nagyúr

    válasz tlac #971 üzenetére

    Én csak azt nem értem, hogy ha meg tudta csinálni a screenhotot, akkor azóta miért nem hozott össze abból valami használhatóbbat?
    Vagyis ha olyan fontos a rendes doksi, akkor a nyári kép fake, de akkor eleve nincs miről beszélni. Ennyi erővel én is csinálok egy olyan képet paintben, utána én is megígérem az nv-nek, hogy MEGPRÓBÁLOM megcsinálni a wrappert, ha felvesznek egy havi 500k-s állásba, céges kocsival és fiatal titkárnővel... :)) )
    Ha meg nem fake a screenhot, és pár nap játék után összehozott egy 3DMark futtatást nem igaz, hogy az nv segítségével már ne tudott volna valamit összetákolni, amit beta vezióként kiadhatott volna. Az már most jó lenne az nv-nek is, de talán az AMD is hamarabb kötélnek állna, hogy jó, ha így is úgy is megcsinálod csináld rendesen...

    (#971) OpenCL-ezésbe meg az nv nem fog belemenni, azt eddig is megteheték volna ők is hogy az AMD-nél lévő CUDA megfelelőjére is megcsinálják a physx drivert, de ők CUDA-val akarnk nyomulni. A Physx a CUDA terjesztője, nem a Physx-ért van a CUDA, hanem fordítva...

  • janos666

    nagyúr

    Tényleg kár vitatkozni a hőfok-környezethevítés-fogyasztás mesén. Kérd ki a véleményét egy hivatásos épületgépésznek, aki légtechnikával foglalkozik, aztán ha nem volt elég, kérdezz meg egy fizikust, majd kérdezd meg Abu-t, a TSMC hány Celsiusra hitelesíti a chipet (és esetleg azt is vedd hozzá, kb. hányszoros biztonsági tényezővel dolgoznak, mert itt jön képbe a garancia-direktkinyírás kérdés), és rakd össze a képet. Most rakd össze a puzzle-t, és nincs is tovább min vitatkozni.
    Igen is le lehet szarni hány fokos a GPU mélyén lapuló dióda, mert 1: kurvára nem attól a számértéktől függ menyire fűti a környezetét, 2: ha gyári a kártya gyári állapotban, akkor tök mindegy; 2/a: garancia alatt cserélik, 2/b: IT termék a garancia végére több, mint felére amortizálódik akkor is ha dobozban tartod, ha leég aprópénzért veszel már ugyanolyat X év múltán, vagy inkább jobbat, 2/c: Ahhoz maki is kell hogy leégesd, 31 fokon is megsülhet, meg 130-on is járhat 100 évig.

    Amúgy bocs, nem akartam a lelkedbe gázolni, a "ne törődj vele" mondattal, csak olyat hangulatfestő töltelék volt, nem direkt célzás...

  • janos666

    nagyúr

    válasz keIdor #897 üzenetére

    Miért törődsz egyáltalán a hőfokkal? Ha a gyártó szerint bírni fogja lelkük rajta, te nem érzel abból semmit, csak a fogyasztásból, a Watt-okból lesz a hő...

  • janos666

    nagyúr

    válasz Abu85 #837 üzenetére

    Ez mind rendben, de nem látom az indokot arra, hogy szánt szándékkal ellehetetlenítették a kétkártyás dolgot a drivereikkel. Korábbi driverrel ment, most nem. A kétkártyázás nem jó, de egyáltalán nem is okozna veszteséget sem. Szóval hagyni kellett volna ahogy van, nem időt szánni rá hogy ellehetetlenítik. (se nem támogatni, se nem ellenezni) A bevételt se csökkenti (kis kártyán kicsi a haszon, de valószínűleg emiatt már úgy se cserélt volna geforcera, akinek már volt radeonja, de most veszlegalább kis geforceot...), a physx elterjedését viszont segíti (felhasználói körökben).

  • janos666

    nagyúr

    válasz Abu85 #835 üzenetére

    De miért bánják, ha veszek geforce kártyát is a radeonom mellé? Az csak plusz bevétel, azt már láthatták hogy a CUDA wrapper veszett ügy (a hivatalos támogatás meg eleve halvaszületett ötlet).

  • janos666

    nagyúr

    válasz gbors #830 üzenetére

    Jah, Radeonon futtatva a DX 10.1 és DX 9.0c mód ugyan olyan HDR-tonet eredményez, a 10.0 renderpatch viszont minden karin faszább az előbbitől.

    Amúgy ma jelezte nekem valaki, aki a logout cikkem nyomán összerakott egy Geforce-Radeon kombót, hogy az új forceware és physx driver kinyírta a párosítás lehetőségét. Legalább is XP-n már nem lehet tolni a Mirrors Edget radeonon rendereltetve, Geforceon fizikát cudáztatva. Kár érte, mert ezt az nv baszta el, de win7-en még nem nézte.
    Ebben nem értem az nv-t, ő elvileg támmogatta a wrapperelést, most meg azt a megoldást is kinyírja, mikor az ő kártyájukat is meg kell venni hozzá a radeon mellé? :(

  • janos666

    nagyúr

    Amúgy miért baszták el már megint a Half-life 2 - Episode 1 motor támogatását a 9.1-es Catalystban?
    Ma először indítottam el a CS:S-t, és megint lagol.
    Az AMD elvileg ATI partner lenne, de mikor lecseréltem a 8800GTS-t 4870-re 8.7-es legelső driverrel kevesebb FPS-t produkált a CSS mint geforce-al, de azért bőven sok volt. Aztán a 8.8-as katasztrófa volt, lagolt vele a CSS mint a szemét, 50 FPS alig volt meg egy HDR-es mapon, de anélkül se ment fel 100-ra se. Később javították, és szalad mint a veszedelem, adta a 300+ FPS-t minden valve mapon, most 9.1-el megint 100 alá mászik az FPS, és úgy érzem a CPU-tól húzta el az erőt, mert lagol is.

  • janos666

    nagyúr

    válasz gbors #827 üzenetére

    Nem, DX9-ben szar a HDR, pedig ebben a játékban én grafikailag épp a színvilágot imádtam. Arcadiában a háztetőkön álltam és nezelődtem a városban, ahogy a fényekkel (elvonuló felhők) a színek is változnak. Kellemes színvilága volt. (mondjuk Jeruzsálemnek nem annyira, pedig szeretem a zöldet is) DX9-ben meg mindent elsárgít a HDR.

    Kösz, így értem, csak fúrta az oldalam, hogy nem bírtam berakni 3 angol szót az Abetűk helyére.

  • janos666

    nagyúr

    válasz Abu85 #825 üzenetére

    Igen, de érdekelt volna, hogy a miután visszarakják megmaradnak-e a bugok. Vagyis hogy könnyű-e őket javítani, vagy komolyabb munka lett volna.
    Nem is annyira a felszálló por érdekelt volna, hanem a HDR-tone elcsúszása, véletlenül a DX 10.1-ben épp olyan volt mint a DX9-ben, de DX 10.0-ban sokkal szebb volt, nem sárgított el minden színt.

    A WOW meg ez a amit mondtál nem csak a gyenge grafikai látvány miatt riaszt el, van benne valami mélyen, ami miatt ocsmány. Pl. ha ránézel egy ismeretlen nőre, elsőre a külseje alapján ítéled meg, de ha kinyitja a száját sok minden megváltozhat, na, a WOW kinézetre is szar, de mikor kinyitja a száját olyan mintha a tanyáról jönne és egy tehén lucskával lenne tele a pofája ami kikezdte a nyelvét és otthagyta a fogát is. :P

    Jó, de mi a rövidítés kifelytése? :U

  • janos666

    nagyúr

    válasz Abu85 #822 üzenetére

    Hülye kérdés: Mi az az AAA? :B

    A Mirrosr's Edge tényleg nem volt nagy durranás. Gondolkoztam megint berakok egy olcsó Geforceot hogy legyen Physx is (aztán majd eladom vételáron ha végigtoltam...), de jó hogy nem tettem, mert ezért a pár óra játékért kár lett volna (meg belenéztem CPU-n futtatott hardware móddal, és nem volt annyi értéke a physx-nek mint pl. az UT3 mapokon). Bár nekem kicsit fordítva volt. Az elején izgatottan vártam hogy jó játék lesz, az első pár10 perc letört, hogy nem, később a végefelé kezdett megint érdekelni, erre rögtön be is fejeződött. :DDD

    Beírtam googlebe, hogy battleforge. Ha bízol az én ösztöneimben, akkor tényleg majdnem olyan népszerű lesz mint a WOW, mert nekem ugyan olyan ocsmánynak tűnik. (nem tudom leírni, olyan mint a hányinger, csak nem testileg, hanem szellemileg, ha WOW-t látok a szobatársam monitorján, attól is ugyan így rámtör a "spirituális rosszullét") Gondolom ennek az álomvilágát is is pszichológusok, és nem irodalmi végzettségű egyének teremtették, és nem látványos akart lenni, hanem olyan ami hátulról hat ugyan az elmére is, de közben elfut bármiféle gépen.

    A Stormrise is egy viccnek tűnik a képekről, de azért elindítom majd.

    A F.E.A.R. 2 pedig nem az első rész kipofozott motorjával szaladgál majd? Akkor nem sok esélye lesz a Terraflops-bajnok Radeonoknak.

    Most ezek után beugrott még nekem az Assassins Creed. Azóta se jött újabb patch, ami visszarakhatta volna a javított DX 10.1-es renderpatchet. :))

  • janos666

    nagyúr

    válasz leviske #724 üzenetére

    Vagy lesz 4950, 4970, 4970x2 és 4795x2 is (vagy utóbbi kettőből csak a 2. jön ki). Első kettő emberi áron, utóbbi a mostani X2 árában, a legutolsó meg abszolut high-end kártya, a single chipes 4970-hez képest is megemelt órajelekkel, hogy ne legyen olyan egyszerű dolga az nv-nek, hogy lesz gyárituningos GTX295, ami nyaldossa a seggüket, és visszaköszön GTX295+ néven. Vagy inkább csak azért, hogy igazodjanak az nvidia 5-re végződő jelöléseihez, és úgy tűnjön mintha az X2 nem egy az egyben csak két lapból összeragasztott kártya lenne, hanem valami mégjobb... :P

  • janos666

    nagyúr

    válasz lezso6 #705 üzenetére

    Akinek 4 magos procija van már bőven jó, nem? :U Plusz van azért néhány érdekes bugfix.

  • janos666

    nagyúr

    válasz tzsolesz #702 üzenetére

    Nem baj, a lényeg hogy Bluegene érezte a feltüntetett értékek valódi javulását. :DD

  • janos666

    nagyúr

    válasz tzsolesz #682 üzenetére

    Egyébként nem, nem örülünk. A game.amd.com-on csak papírforma szerint van kint, letölteni onnan még nem lehet. Aki máshonnan lehúzta meg azt mondja lassult a 8.12-höz képest.

  • janos666

    nagyúr

    Kinntvan a 9.1. :)) És meglepően friss, 13.-ai driver van benne.

    De nvnél folyton vannak béták. A 8.12 meg sokaknál bugzik multi-GPUval, mint a legutolsó nv driverek is (MS lehetett hülye).

  • janos666

    nagyúr

    Amúgy hol késik a 9.1-es driver? Lassan kicsúsznak a naptári első hóból. Pedig lefogadom nem lesz frissebb a driver 2009.01.15-nél, de talán még 7-nél se, meglepődök mikor egyáltalán azonos hónapra esik a driver date és a verziószám dátuma. Legutóbb mikor rengeteget húztak egy drivermegjelenést, akkor is előző hó 30.-aikán volt lezárva a kódja annak amit kaptunk... :U

  • janos666

    nagyúr

    válasz 7600GT #626 üzenetére

    Én a magam részéről csak némán pislogok ezen a válság körüli felhajtáson.
    Egyrészt: Öngerjesztő folyamat, minél többet foglalkozunk vele, annál nagyobb méretet ölt (magát hajszolja bele a gazdaság a mégnagyobb zuhanásba azzal hogy a válságra hivatkozva nem fektet be, és így tovább, többnyire akkor áll helyre, ha elfelejtik az emberek hogy válság van :DDD ...)
    Másrészt: Azon túl hogy öngerjesztő, a kirobbantása egy előre megtervezett lépés, az erőszakos tőkeátrendezést szolgálja.

    Ami miatt meg hozzászóltam: Olaj is sokáig lesz még, épp a fúziós erőmű körüli kamuzás rá a bizonyíték. Hülyeség, hogy még 40 év mire üzembe állhat egy ipari méretű erőmű. Azért tart sokáig, mert nincs még rá szükség, sőt, sokak akarják hogy minél később legyen (ha már elfogyott az olaj és a szén).
    Nézd meg mennyi idő kellett mire az atombombát összerakták a semmiből, és mennyi mire reaktor lett belőle, aztán azt is mennyi kellett mire az atombombától számítva hidrogénbomba lett, és még ketyeg az óra mire fúziós reaktor is lesz. Oké, most nem hajt senkit a háború, nincs ösztönzés, de ha elkezdenek kihunyni a fények már "háborús helyzet" lesz. Épp akkora lesz az kész mikorra kell...

  • janos666

    nagyúr

    válasz zuchy #536 üzenetére

    Nem tökéletesen lineárisan szoktak zsugorodni a területek a csíkszélcsökkentéssel (ha csak shrink, akkor rosszabb a hatékonyság, ha át is tervezik,még jobb is lehet...), jó az az 1000SP-s elmélet. Esetleg nem ikerchipes lesz, hanem rögtön 1300-1600 körül, RV770-től picit nagyobb magon és kész, én annak örülnék.

  • janos666

    nagyúr

    válasz gbors #533 üzenetére

    Mert így mindenki elszörnyedne mikor először meglátja a csupasz nyákokat. :Y

  • janos666

    nagyúr

    válasz gbors #465 üzenetére

    Végül is arról, de ahogy nézem te csak a végeredményt veted össze. Én azt néztem, mikor az FC2 3 loop után kirajzol 3 grafikont, mindre megadja a min/max/avg-t, és azt ismét átlagolja eredménynek.
    Na, itt inkább 20%-os, vagy néha azt is meghaladó értékek voltak az egyes loop-ok eredményeiben, de ami feltűnőbb volt, hogy rajzolt ilyen szép kis grafikonokat hány mp-nél hány FPS volt, és ezek nagyon nem hasonlítottak. (mikor a tesztben ugyan azon a pozíción ált, mindíg más érték született, de úgy tűnik nem a jelenet szerint ingadozott az FPS a teszt során - néha 10 és 20 mp közt volt mély csúcs, néha ott lapos volt, és 40-50 közt volt szélsőértéke...).

  • janos666

    nagyúr

    válasz gbors #463 üzenetére

    De mi okozhatja ezt? Mert ha állandó körülmények között 3x megismétlem ugyan azt a tesztet, és a kirajzolt grafikonok semmi rokonságot nem mutatnak, akkor alapvetően rossz valami.
    Mármint bármiféle mérésre igaz, akár talajtömörséget, akár feszültséget, vagy épp FPS-t, vagy bármit mérünk, ilyenkor vagy a mérőműszerrel (itt nem valószinű), akár a mérési modellel (jelen esetben ez se valószinű) van a gond, vagy ha ezeken túlléptünk, akkor a mért tulajdonság mutat anomális viselkedést.
    Kb mintha behalt volna a GPU-ban az órajelgenerátor, és 600-800 Mhz közt mászkálna véletlenszerűen. De megint csak valószinűbb, hogy a driverre, és nem a hardware-re vezethető vissza a dolog. Nade ott mi alakítja ki a szeszélyes időjárást?
    Ha belevesszük, hogy a 4850 stabilabb, akkor a GDDR5 memóriára lehetne tippelni. (A GPU azonos, akkor ez marad, vagy a feszültségszabályzás, de az inkább látható hibákat okozna)
    A GDDR5 elvileg használ beépített hibakereső és javító eljárásokat. Lehet hibázik össze-vissza, csak nem látjuk, mert korrigálja magát, emiatt ugrál a memória írás/olvasás sebessége? De akkor nem fordulna elő, hogy X Mhz-ig emelve az órajelét láthatóan hibázni kezd. (vagy ott hal be a hibakereső?)

    Érdekes téma az biztos, ha lenne nálam többféle kártya (2 ATI meg 2 Nv) rajzoltatnék pár grafikont.

  • janos666

    nagyúr

    válasz JColee #461 üzenetére

    Miért kéne külön winyó a vistához? Külön partíció is elég.

  • janos666

    nagyúr

    válasz rocket #459 üzenetére

    Én látom benne a fantáziát:
    Egyszerre csak elkezdenek megjelenni a játékok, aztán mikor felgyűlnek "kibújik a szög a zsákból", és lehet, hogy már az se kell, de ha mégis, akkor elkezdik fikázásra uszítani a cikkírókat. ;]

    (Az RV770 után ítélve nem kell uszítani, már egy egálhelyzetet is úgy teknitenek majd megint hogy az ATI elsöprő győzelmet aratott)

  • janos666

    nagyúr

    válasz Abu85 #455 üzenetére

    Ja STAKER CS is van, elfelejtettem.
    Minden patch megjelenés után újra elindítom, de valahogy nem győz meg a képi részletesség / teljesítmény arány.
    DX 10.1-ben is játszhatatlan közeli tud lenni Full-HD, max grafon (nem minden csúszka kézileg maxon, csak a preset oda állítva highestre a standard ablakon), ellenben nem nyűgöz le a látvány.
    Mondjuk ez nálam biztos szubjektív, hogy nem bírom értékelni a képi világát.
    Kár hogy maga a játék még kevésbé nyűgöz le. (akár csak azért, hogy nem bírom a szocialista hangulatot se, meg uncsik már a régi fegyók)

    Ha már megemlítetted a Blizzardot: STALKER elől már csak a WOW viszi el a pálmát. Attól akkor is borsódzik a hátam, mikor a szobatársam monitorján látom, ha leülök mögé nézni megfájdul a fejem, mikor kipróbáltam összerándult a gyomrom, és viszketett az agyam :o ).

    Szép hosszú listát adtál. Ha tényleg ekkora hátbatámadás lesz, akkor új szemszögből fogok tekinteni az AMD-re. Egy ilyen volumenű "alamuszi" és aljas húzással legalább akkora tiszteletet vívnak majd ki a szememben mint amit az nv a játékfejlesztők dróton rángatásával. :R
    Remélem átjött az irónia is. ;]

    Arra tudsz még mondani valamit amit régebben kérdeztem: Azonos beállításokkal egymás után futtatott 3 loop-ból rajzolt FPS,idő grafikon miért nem néz ki úgy, mint ha tényleg ugyan az a demó futott volna le?

  • janos666

    nagyúr

    válasz rocket #451 üzenetére

    Az nem tragikomédia lenne, hanem törvényszerűség, ha a hitegetések alatt érvényben lévő aktuális generáció kifutna, mire látunk belőle valamit.
    Tesselator - 2 generáció biztos, de 90% hogy a 3. is kifut mire bármi használja majd.
    DX 10.1 - 1 nemzedék már kifutott úgy, hogy semmi sem használta, a mostani is 50-50 hogy kifut-e addigra.

    Amúgy mire célozgatsz, ami március körül jön, és szereti majd a HD4-eseket?

    Abu csak magyarországon ténykedik. Fogjuk rá, hogy engem ő "téritett át a vörös oldalra", meg mostanság megszinezi néhány ph-s cikk alaphangját, de én a globális helyzetről beszéltem. Minden külföldi sajtó sikeresnek tekinti a HD4-es radeonokat. Pedig ha objektíven nézünk rájuk, így fél év távlatában, akkor annyit értek el, hogy teljesítményben utólérték, feketelukakkal megelőzték az AMD-t (feketeluk alatt most értem a tesselatort, 10.1-es directx-et...).

    Nagyon is, hogy jól működött most náluk a marketing, hisz a fej-fej mellé rakott kártyáikkal is sikertörténetként könyvelik el az utóbbi fél évet. Ha igazak az nvidia bevételéről szóló adatok, akkor sokkal több radeonnak kellett elkelnie, mint GTX-nek, pedig a valós teljesítmény-aktív_szolgáltatás/ár arány még mindíg a geforcoknak kéne hogy kedvezzen. (dx 10.1 sehol, illetve FC2-ben lassítani ottvan, ellenben Physx csak ott lesz a Mirror's Edgeben, Crioban - előbbi sikeres lesz, utóbbi szar, de legalább lesz, meg legalább demókkal és modokkal lehetett már szórakozni, mint az UT3 mappack....)

    Értelem szerint, ha már egyszer úgy döntöttem, betárazom a dx 10.1-et, akkor most már nem fogok letenni róla, mert akkor tuti jönne valami. Meg 3 FPS-ért nem cserélem el a kártyát 1:1 árba se. :N

    A 8x AA-val meg nagyon el vagy tájolva. Örülök én, ha 1920x1200-ban a 2x AA-t elbírja, régebbi játékra is csak 4x-et rakok. És van olyan játék, amin érződik, hogy nem bírná a 2x AA-t se, ha lehetne rátenni deferrend rendering mellett. A CFAA módok mindegyike felejtős Full-HDben, mert a ...tentek csak maszatolnak, az edge detecthez min 4x kell, és sokat lassít már ilyen felbontáson.

  • janos666

    nagyúr

    válasz gbors #447 üzenetére

    Próbáld megizzasztani 1920x1200-ban, ott már örülsz majd ha AA nélkül simán viszi a dolgokat. Sok játékban ha nem lenne deferrend rendering, AA miatt már 2 darab kéne belőle.

    Jó, olcsóbb lett a 260, valóban így éri meg jobban, de lapozd át a főoldalról a tesztet, jobban megy mint a 4870. A call of juarez-en (ha egyet kiszabad dobni, hát ez az, mert szubjektív véleményem szerint játéknak egy hulladék, max techdemó) és a Rainbow Sixen kívül (ez is 5 percig volt a gépemen, szaggatott is kicsit a bevezetőben, aztán besétáltam egy raktárba, és összesstem [beszívott haverom ezen olyat visított, hogy én is elsírtam magam], mondom oké, ha normálon ez van mi megy experten, holtan spawnolsz 5 AWM elé? uninstall, nem kell kiírni havernak se :D) vastagon, vagy vékonyabban, de mindíg a 4870 előtt jár a GTX-260. És ebbe még nem vettük bele, hogy a geforceban könnyen 4-5x annyi tuning van mint a radeonban (utóbbinál még jobban is hangolható, mert külön van választva a shader és rop-domain órajel, de mindkettő tovább megy %-osan...)

    Driverek: most is itt a GTA4 nevű kódhulladék. A geforceokon legalább moderáltan elszaggat, de ha én merem átlépni az 512Mb-os limitet azzal, hogy 1920-ba rakom, akkor eltűnik a textúrák 70%-a, ha aláviszem a memóriaszámlálót a textúrák megvannak, csak szar a kép és ugyanúgy szaggat....

  • janos666

    nagyúr

    válasz rollins #445 üzenetére

    Szerintem félreérted, és épp azt felyezte ki azzal a postal, hogy nem csak Abu véleménye érdekli, hanem bárkié, aki hasonlóan képben van. Azért gbros-nak címezve, mert pl. az övé is megfelel...

  • janos666

    nagyúr

    válasz keIdor #442 üzenetére

    Nekem elég szedett-vedett hírek ezek. Lehet az angolom gyenge hozzá, de nehezen jön le belőle az irónia.
    Remélem, ha már tényleg ennyi projektet kettébevágnak a körülmények, akkor észhezkapnak, és a maradékra legalább rendesen ráfekszenek, aztán jövőre tőlük vehetek majd valami fasza DX 11-es kártyát.

    De igazából én még mindíg nem féltem őket, sőt, szerintem az RV770 se lett akkora siker, mint aminek tűnik, csak most sikerült átbaszni az embereket. Én is nagy nvidia fan voltam régen, aztán mégis rohantam megvenni a legelső 4870-ek egyikét, és el is hittem hogy jól döntöttem, és megérte megtörni az nvidia-hűséget
    Most meg, ha végignézem a teszteket (pl. a nemrégi ph-sat friss driverekkel), mai szemmel mégis jobban jártam volna egy GTX-260al.

    DX 10.1 érdemben még sehol (FC2-t is csak lassítja), tesztekben a GTX-260 veri a 4870-et. (legalább is a legtöbb olyan játékban amivel én is játszogattam, vagy akarok, amíg ez a kártyám lesz). Most meg ha kijön valami új radeon, ami jobb a 4870-től, de nem olyan drága mint a 4870X2, akkor ezt is megéri majd becserélni, meg azt is becserélhetném.

    Nem az, hogy átverve érzem magam, de máig bezáróan biztos nem volt jobb döntés ez a kártya, mint egy GTX-260. (lehet hogy sokkal rosszabb se, vagy épp ugyan olyan, de nem jobb).

    Az is oké nekem, ha azt mondjuk egálban vannak most a kártyák, csak akkor az RV770 sikertörténete a hamis, ami szerint az ATI most akkora király, nyereséges lesz, az nvidia meg veszteségbe fordul...

  • janos666

    nagyúr

    válasz keIdor #430 üzenetére

    Esetleg valami Rivatuner, D3DOwerride, 3DAnalyzer, stb...

  • janos666

    nagyúr

    válasz gbors #426 üzenetére

    Saccolást mondtam, nem pontos kalkulációt. És, inkább a közvetlenül egymás ellenfeleinek szánt kártyákra ad mértékadó eredményt. :DDD

  • janos666

    nagyúr

    válasz janos666 #422 üzenetére

    Tényleg, amúgy ha már Windows 7. Mi ez a WDDM 1.1-ezés mintkét VGA gyártó Windows 7 beta-hoz szánt drivereiben?
    Én még olyanokat olvastam, mikor a Vista SP1-et vártuk, hogy a DX 10.1-el jön az addigi 1.0-ás helyett a 2.0-ás driver modell.

    Ezek szerint mégsem ugrott verziószámot a driver modell 10.0-ról 10.1-re váltáskor a Vista SP1-el, és a 11-hez is 1.1-es WDDM lesz, még most se ugrik 2.0-ra? (legalább is egyelőre beták alatt 10.x-es kártyák drivereihez?)

    Sőt, a kérdésem egyik felét most meg is válaszolom magamnak azzal, hogy a gef8-as laptopomon (szintén Windows 7 beta alól, de Vistás driverrel) a dxdiag szerint 1.0-ás a WDDM verzió (míg a radeonos gépemen win7-hez szánt driverrel 1.1-et írt).

    (#424) - Nekem Ok, akkor abból is lenyúlok majd egy példányt az első hazai szállítmányból. :DDD

  • janos666

    nagyúr

    válasz Bluegene #421 üzenetére

    Nem is akartam magam az atyjának tekinteni (magamnak is kispekuláltam, de én is olvastam azóta régebbi postokban is), csak azt akartam megemlíteni, hogy elég régóta forog már ez laikus körökben. (Gef8 és HD2800 óta) Az eredete inkább asszem a VR-zonera, de szerintem inkább valami orosz vagy kínai oldalra vezethető vissza (személy szerint oroszokra tippelek). :K

  • janos666

    nagyúr

    válasz keIdor #419 üzenetére

    Hmm. Most Windows 7 beta1 van fent, azt nem lehet DX 11 beta nélkül telepíteni, de én arra gondoltam, hogy belenyúlok az ini fileba. Én úgy látom, a geforceok d3d10 nevű renderpatchet haszálnak, a radeonok pedig d3d10a nevűt. Úgy sejtem, ha kézileg leveszem az A betűt és írásvédetté teszem az ini-t, talán sikerült 10.0-ba erőszakolni. Majd ha otthon leszek megnézem.

    Van még egy FC2 talányom: Ha futtatok egy timedemót 3 loop-al, akkor a végén rajzol 3 grafikont a logolt FPS-ekről (elég sűrű mintavétellel). Namost ezek a grafikonok olyannyira nem vágnak egybe, hogy ha nem láttam volna a saját szememmel, csak egy tesztoldal közölné a grafikonokat, akkor el se hinném, hogy ezek mint ugyanannak a timedemónak a futtatásából származnak, és közben semmi beállítást sem módosítottak.
    Az egész karakterisztika más volt, ránézésre semmi korreláció, csak 3 külön grafikon, összefüggéstelen adatokról. Iszonyat eltérések vannak a 3 futtatás min/max/avg értékei közt is, és nem csökkenő vagy növekvő a tendencia, hanem véletlen (nem mintha lecachelné első futáskor ezt-azt és ottmaradva gyorsít, vagy épp ottragad, csak szemétként, és lassít...)
    És mielőtt a beta OS-re fognátok, ezt még Vista SP1-el néztem (8.12 sima és hotfix driverrel is ugyanaz, játék 1.02-es patchelt).

    Másik jelenség még, hogy néztem a futást, és néha 50 FPS körüli értékeket írt ki és mégis "szaggatott". Pedig Vsync mellett ritkán látni már mai világban szaggatást, de itt tök retro hangulatom volt timedemo közben. 40-50 FPS és ugrál a kép, mintha analóg mágnesszalagról nézném és kézzel böködném a tekercset vagy a lejátszófejet.
    Itt mondhatnátok, hogy kevés a 3,6Ghz-es 64nm-es Core 2 Duo 4Mb cache-el, 45nm-es Quad kéne 12Mb cache-el, de hol lehetne itt 1920x1200-ban, 2x AA-el CPU limit?

  • janos666

    nagyúr

    válasz Bluegene #409 üzenetére

    Hmm. Fasza. Ezt az 5-el szorzunk/osztunk szabályt én is alkalmaztam már tavaj is, hiába oltott le érte Abu és Gbros is, de jó látni hogy még mindíg tartja magát, olyan lesz ez mint az inteles Moore törvény. Az se igazi törvény, meg nem is teljesen pontos, még a teljesítményduplázásról tranzisztorszámduplázásra, majd később még 1-ről másfél évre kiegészítve se, de gyakorlatban saccolásra mégis jól alkalmazható. Talán nevezzük el N/A törvénynek (azért nem A/N, nem mert az 5-öt adna, de az N/A ismeretlen értéket is jelölhet, ami a megállapítás empirikusságát és kaotikusságát hangsúlyozza). :))

    Amúgy ez onnan ered, hogy az nvidiánál függetlennek tekinthetőek az SP-k, az ATI-nál pedig 5-ös blokkokban állnak, és rosszmályú feltételezssel élve az 5-ös blokkok olyan alacsony kihasználtsággal vannak hajtva (hála a rossz ati drivereknek, és az nvidia által pénzelt játékfejlesztőknek, vagy akár a GPU-ban lévő ütemező hibás konstrukciója...), hogy az 5 SP-s ati féle blokk is csak 1 nvidia féle SP-nek felel meg. :DD

    Aztán persze bekavarhatjuk a geforceoknál a magórajelhez képesti SP órajel felszorzást, ekkor ~50%-osnak saccoljuk fel a radeon GPU-k ütemezőjnek hatékonyságát. :DDD

    Ha belekavarjuk, hogy egyik GPU-ban sincs kiaknázva a számítási teljesítmény, hanem más fogja vissza az FPS-t, már nem marad elvi alapja a dolognak, de becslésre mégis jól használható marad az N/A törvény. :))

  • janos666

    nagyúr

    válasz leviske #405 üzenetére

    Najó, csak egyrészt ha vannak hírek, a vásárló is előre tud tervezni, mikor és mennyi pénze legyen majd VGA cserére...
    Másrészt meg a 800SP-t is megmondták az ázsiai oldalak már december, január táján, meg is esküdtek rá, csak épp mi (mármint a világ többi része, aki nem személyesen látta vagy hallotta) sületlen baromságnak hittük és bekajáltuk helyette a 480SP-s tippelést...

    A GT200-ban, főleg hogy 55nm-en már kevesebbet is melegszik, rengeteg tuningpotenciál szokott maradni (főleg ha a feszültséget is emeljük amit kissebb hőtermeléssel miért ne?), szóval ha mást nem, órajelet tuti emelhetnek majd egy új geforcehoz, ha kell. (az RV770-t meg örülj ha dísznek megráncigálhatod egy kicsit, feszelni meg végképp nincs értelme)

    Épp a minap vetettük össze az FC2-es maxtuning eredményeinket egy GT285 tulajjal, és nagyon csúnyán leszerepelt az antituningos 4870 (1920x1200-ban, 2X AA-el, nem CPU limit...). Jut is eszembe, ma majd kézileg beerőltetem inkább DX 10.0-ás renderpatchbe 10.1-es helyett, hátha az is javít az AA melletti teljesítményen (a minőség rovására persze...)

    És ha már Far Cry 2: Olvastam valahol, talán range3d-n,hogy az FC2 csak olyan DX 10.1 eljárásokat használ, amiket az nvidia is támogat. Ez most mennyire valóság? Ez volt a példázat, hogy:
    Radeon RV770: A, B, C, D, E,, F, H
    Geforce GT200: A, B, C, _, E,, G, L
    DX 10.0______: A, B
    DX 10.1______: A, B, C, D
    Far Cry 2_____: A, B, C
    Szóval remélem érthető, hogy mit akart ez kihozni. Tehát hogy a Far Cry 2 által használ Antialisingel kapcsolatos technológiára a GT200 is képes, annak ellenére hogy ez egy DX 10.1-es követelmény. A GT200 nem tesz eleget minden követelménynek, de tud olyasmiket amik túlmutatnak a 10.0-án, és a játékok előszeretettel használják majd. (mint pl. az FC2)

  • janos666

    nagyúr

    válasz zuchy #358 üzenetére

    Te is frissítst alaplapi, és talán még VGA BIOS-t is, aztán vedd ki az elemet hogy szűz BIOS beállításokkal indulj, és nézd meg mi történik. Ha nem emelj PCI-E sín feszen, meg MCH feszen. Ja, és figyelj rá hogy fix 100Mhz legyen a PCI-E freki.

    (#357) - De ha a 2000SP mellé megőrzik az arányt, akkor a textúrázás is gyorsul 2,5x-esére. (hihetetlennek hangzik, de a 800 is annak tűnt tavaj, és alaposan lefaragták a csíkszélt, a növekvő hőtermelést meg "megszoktuk")

Aktív témák

Hirdetés