- Fotók, videók mobillal
- One mobilszolgáltatások
- Sony Xperia 1 V - kizárólag igényeseknek
- Samsung Galaxy Watch6 Classic - tekerd!
- MIUI / HyperOS topik
- Samsung Galaxy A35 5G - fordulópont
- Android alkalmazások - szoftver kibeszélő topik
- Google Pixel topik
- Samsung Galaxy Buds3 Pro - szárat eresztettek a babok
- Magisk
Aktív témák
-
janos666
nagyúr
De, én mondtam, hogy ha mód van rá, már csak geforce-ot akarok, mert érzésre jobban adja a folyamatos képet.
De ugyanazért lesz most Radeonom, mint tavaly nyáron. Pusztán, mert hamarabb hozzá lehet majd jutni, és megint épp úgy áll a dolog, hogy minél hamarabb kéne valami VGA mert ami van azt inkább csak filmezésre használom, és a gép többi részre meg ott öregszik mellette (meg amúgy is lehetne kedvem játszani is).
X2-vel megvárnám a Geforceokat, ha másnem annyiból, hogy mégis mennyit mennek, meg esik-e miattuk a Radeonok ára ha mégis azt vennék, de most itt játszik ez a vízhűtőblokk dolog is, amire épp most van vevő, aztán kitudja később lesz-e még valaha (értelmes áron), meg rá kéne dobni, pedig nem akarok most ilyenekre költeni még pár hétig, a radeon épp időben lenne anyagilag is, szóval a sok kisebb kifogás kiüti a korábbi közepes méretűt...
De most is inkább GTX260-at hozok helyette, mint 4870-et (már ha van olyan opció, mert nem túl tág most a ozgástér, örülhetek, hogy bármit is kapok)
-
janos666
nagyúr
Kicsit off, de abból úgy is van itt elég, és az új generációra való tekintetel is kérdezem.
Nyáron sikerült kinyírnom a 4870x2-met egy vizesblokkal, és leadtam gariztatni (nem simán boltba, hanem ilye-olyan-ilyen), és most úgy néz ki, tudnak vele mit kezdeni. Visszakaphatok egy kisebb kártyát, pl sima 4870, vagy esetleg GTX260, vagy ráfizethetek még úgy egy 20-on akárhányat, és kaphatok egy ugyan ilyen 4870x2-t.
Szerintetek az októberben már kapható új Raeonok közül mondjuk az 5870 utoléri majd a 4870x2-t DX9_10 alatt is? És milyen árba várhatóak? Megérné most inkább megtartani még magamnak a 4870x2-t, megvárni az 5870x2-t, vagy a sia 5870 esetleges áresését (bevárni a Geforceokat is)?
Azért égető a kérdés, mert a hozzá való blokkra most épp lenne vásárló, és nem tudom neki mit mondjak, mert ha megtartom az X2-t, akkor a blokkot is, vagy adjam most el mindkettőt, és a tatalék kártyámmal elleszek a HD5 boltokba kerüléséig...? -
janos666
nagyúr
A f@szt Nostredamus, bárki előre láthatta, aki olvasott a CUDA-n keresztüli Multisample Access-ről a GTX széria megjelenésekor. (Ahhoz kellett csak némi képzelőerő, hogy ha valaki ezt használja majd DX 10.0-ás játékkal is, és így a Radeon nem tudja 10.1-en keresztül megtenni ugyanezt, de nem volt nagy kérdés, hogy ha egyáltalán hozzányúl valaki a CUDA-hoz, ott könnyen kimarad a DX 10.1)
Persze, ha nem használ CUDA-s AA-t, akkor most hülyeséget beszéltem, csak most épp ez tűnik valószínűnek. Erősítsetek, vagy cáfoljatok...
(#5870) Abu85 - Ne már. Épp most mondod, hogy az nvidi ezután csakis high-endet készít, aztán mégis elsöpri az AMD és Intel a CPU mag mellé tokozott kis szarjaival?
Ha platformosodnak, akkor egyre jobban a software renderinget fogják erőltetni, hogy ne kelljen GPU mag(ok)-al szórakozni, csak sok általános CPU maggal. De itt még sokáig jól jön még a gyorsítókártya, sőt kezdetben szükséges lesz, de high-endbe később is sokáig jól jön.
Teljesen össze vissza és magad ellen beszélsz ma.
Egyszer holnap hal meg, ami máskor a jövő nagy kilátása, és az öli meg az elképzelt jövőt, aminek nincs hozzá köze, de ha lenne, akkor épp segítené, vagy már nem is tudom vázlatozni...(#5887) gbors - Kezdjük ott: Miért nem tartották meg az OpenGL-t?
-
janos666
nagyúr
válasz
jozsikamhami #5830 üzenetére
Az semmiképp sem árt, ha a két kártya azonos órajelen fut. Talán még az is jót tesz a CF-nek, ha ugyan azt a BIOS-t írod be mindkét kártya ROM-jába (persze csak ha működnek egymáséival, mert nincs áttervezve a nyák, de két kártyával ki tudod próbálni, ha nem ad képet, a másikat használva visszarakod az eredetit). De gyakorlatilag egész jól meglehetnek egymás mellett ha egyszerűen csak bevágod őket egymás mellé.
Intel alá X48, AMD alá pedig 790x chipsetes valami, javaslom inkább Gigabyte, vagy esetleg ASUS, MSI-t csak akkor, ha valami külön megtetszik benne.
De amúgy 1 kártya lesz 20k? Úgy el is hiszem... Csak korábban 2-re mondtad a 20-at.
(#5832) zack -
Tévedsz, a kokain inkább segít gondolkodni, mint hülyeségeket beszélni. Persze beképzeltté is tesz, de okkal, mert tényleg nő a teljesítőképességed is. Inkább be van szívva.
-
janos666
nagyúr
válasz
Gonosz15 #5819 üzenetére
Akkor olyan 18k-ra tippelem az árukat. De talán lesz aki makacsul 20-22k-ért árulja majd 1-2 hónapig, és vadászni kell egy kicsit a 18k-s eladókra, nem hogy 15-16k-ért akasztani, max még legalább fél év múlva. (És ez még 1, nem 2)
Pl. mikor kijött a 4870, akkor 18k-ért adtam túl a 8800GTS320-on. Van, aki még ma is ennyiért próbálja meghirdetni, de 14k alatt nem nagyon kapni, néha esetleg ilyen beszámításból visszamaradt lealkudható lenne 13 köré/alá, de ennyi, nem esik egyhamar 10k alá a VGA-k ára, csak ha már szart sem érnek az akkori friss programokban. -
janos666
nagyúr
válasz
jozsikamhami #5810 üzenetére
Nem túlzás az egy kicsit? Még ha egy darab 4870-et veszel 20-ért, az is kirívó mákos üzlet, a 90-esre már túlzottan baráti ár lenne, de legyen, de hogy 2db 90-est 20-ért? Még 40-ért se, mert kettőt is ilyen alacsony áron...? (a bolti tolvajoknál nem szokott párossával álni, max 1-1 darab mindenféle akármi...)
-
janos666
nagyúr
Igen, a HL2 nagyon jól kiaknázta akkoriban a Havokot (akkori átlag gamergépen néha lagzott is picit), viszont manapság is kb a HL2 szintjén, vagy akár az alatt áll a játékok nagy részének fizikája, miközben a grafika már azért elég sokat változott 3 év alatt, és a fizika egyébként is el volt maradva korábbról.
A grafika a külön gyorsítókártyának hála szedte meg magát, az Ageia próbált külön gyorsítókártyát csinálni a fizikának is, ami ma ott áll, hogy már erre sem lenne szükség, mert a GPGPU-k ezt is elbírnák a VGA-kon. (Vagyis olyan szintű fizikát bírnának, ami lényegesen jobb, mint amit a CPU bírna, így látványos a mai átlaghoz képest.) -
janos666
nagyúr
SFR-el semmi gond, vagy legalább hibrid AFR-es SFR-el sem vészes, és ott van még a fiókban a sakktáblás móka is sok GPU-hoz. De kérdezd meg SniperElite-et, hogy a róla elnevezett játékban multiplayernél mennyivel kell a cél elé lőni ahhoz képest, mint mikor letiltja a CF-et.
-
janos666
nagyúr
válasz
csatahajós #5668 üzenetére
Az úgy jön ki pontosan a szintetikus és játéktesztekben is, ha Jézus leül veled a tesztgép mellé, és megiszod a kétliteres ásványvized, ami borrá vált.
De talán elég lesz 4000SP, 200 TMU, 32 ROP 512-biten ~1500-as GDDR5-el. -
janos666
nagyúr
Bocs, hogy "kukacoskodok", de a modellezés, mint olyan, (a tudományos és/vagy tapasztalati megfontolásokkal tett elhanyagolásokkal való másolat/utánzás) mindíg fejben történik. Csak a modellel végzett kísérletek kiértékelése történik gépekkel (a számítógép számol helyetted, de te is számolhatsz fejben, papíron...). És ez még tovább fokozható, ha azt mondjuk, már maguk mérések is modellezettek, mérési modell alapján végzik el őket, és ebből alakítható ki a modelltér viselkedése, amin aztán a kísérleti modell szerinti kísérletek végezhetőek el, melyek a szintén egy adott számítási modellel értékelhetőek ki.
-
janos666
nagyúr
válasz
Bluegene #5659 üzenetére
Lejárt a szerkesztés: Nem, az kizárt, hogy telefonnal fényképezték, ahhoz túl kontrasztos, túl jó a fekete, és túl éles is. Ha egy monitort, vagy egy vetítővásznat fényképeztek volna, még az is rögtön lerína róla, rendes fényképezőgéppel is, nem hogy mobillal...
Ez inkább egy PDF-ből lehet kivágva, az eltérő színű pixelek pedig nem az eredetiséget igazolják, hanem azt, hogy többször újrakonvertált, veszteségesen tömörített kép. (megrajzolták, átméretezték, konvertálták, kivágták, megint konvertálták...) Ez a JPEG-artifact.
Ha eredeti, akkor az eredeti forrásanyagban egyforma színüek az egyforma SP-k pixelei. -
janos666
nagyúr
A hamisítás is egyfajta művészet. Sosem tanultam photoshopolni, egy tutorialt sem néztem végig soha, de mikor egyszer nekiáltam vele összedobni egy kis plakátot, hát pezsgőt bontottam magamnak, hogy fél nap alatt autodidakta módon micsoda skillre tettem szert (
), és mit alkottam azzal a programmal. És akkor van, aki ezt hivatásszerűen is űzi, nem beszélve azokról, akik direkt arra szokosodtak, hogy minél több olyan jegyet viseljen a mű, amiből ki szokás szűrni, hogy nem hamisítvány.
De csak hogy a képnél maradjunk: Egy igazi prezentációhoz is össze kell valakinek rakni egy ilyen ábrát, az sem úgy jön létre, hogy lerakják az egyik ES GPU-t az asztalra, és egy monitoron leképződik az elméleti működésének szerkezeti diagrammja. Nyilván azt is rajzolja valaki.
Márpedig, ha az eredetit is szerkeszteni kell, akkor a hamisítványon sem a szerkesztőprogram nyomat kell keresni.
Ez nem egy fénykép, hanem egy kézzel készített ábra.Ettől függetlenül tök reális, ha 1600SP-je van, emellé pedig DX9 tesztek alatt reális a 60% gyorsulás is (ha a tesszelátor és egyéb DX 11 tranzisztor-igények folytán hanyagolták a ROP-ok növelését, és a TMU-k számát is csak az SP-k arányában növelték, további optimalizálás nélkül).
-
janos666
nagyúr
válasz
TESCO-Zsömle #5646 üzenetére
Sőt, bámuljon levegőbe vetített 2D-s, vagy fake 3D-s 2,5D-s maszatot az igénytelen söpredék. Én közvetlenül a tudatomba kérem az egészet.
Először talán csak hallucináció szerűen, mintha egy álmot, vagy valami kemény halut élnál át, a mai analóg megjelenítési tehnikákat, és a valóságot utánozva, de utána ha már beletanult a tudat, akkor natívan, mint egy új érzékszerv, felfogni és átrezni a "gép lelkét", míg utolsó lépcsőben én magam is géppé válhatok.
Azért nem dohányzok/iszok/anyagozok sokat, hogy kihúzza addig a rothadó testem.Hosszú távon lehet hogy a CPU-ra való visszatérést eredményezi majd a SW renderer, de az átmeneti korszakban, és utána is még egy darabig kimondott igény lehet még a gyorsítókártyákra, hacsak nem akarnak először kettőt hátra lépni, kicsit ottragadni, és mondjuk 4-5 év alatt utolérni a mai D3D képminőségét, de még akkor a 4-5 év alatt megléphető fejlődés nincs sehol...
És már a mai GPGPU-kkal is biztos szebb dolgokat csinálhattak volna a legjobb motorokat gyártó programozók, mint ami D3D-vel összehoztak. Csak hát CUDA nem akaródzik, OpenCL még sehol, és a félmegoldás Compute Shader meg szerintem arra jó, hogy még lassabban terjedjen az OpenCL vagy a CUDA szerű dolgok, és maradjanak csak a D3D-nél (és ezzel persze a Windows-nál).
-
janos666
nagyúr
válasz
leviske #5633 üzenetére
De az Xbox360 dobozában ezután is Xenos (~2900XT), a PS3-éban pedig RSX (~7800GTX) marad, ami továbbra sem tud se DX11-et, se DX 10.1-et, de még 10.0-át se, és ez is legalább akkora (vagy nagyobb) visszatartó ok, mint a TWIMTBP, vagy a 10+ hardwarek elterjedsége (együtt).
Továbbá, a 11.0 csak a 10.1-el lesz visszafelé kompatibilis, máris kisebb szelet, kiesik az eddigi összes asztali Geforce, és a HD2 is.
Ezután annyi változhat, hogy aki nagyra tör ilyen téren, az csinál DX 11-es, és 9.0c-s render patchet is, és akkor szinte minden kártyát leffed, csak a 10.0 marad ki, arra már csak a legalaposabbak írnak külön renderpatchet (ezek 9.0-val futnak majd). A többiek pedig megragadnak még 9.0-c-n, és sehova tovább a már-már binárisan konvertált konzolportolástól (GTA IV).Amúgy honnan jön ez, hogy mindenre a "skáláz" szót kell beíragozni, ha nem jut valakinek eszébe semmi magyar/latin/görög/angol szó, ami épp oda való?
Már herótom van ettől a skálázódástól, szerintem szinte sehova sem illik, ahol itt ph-n használják, de 80%-ban tuti lenne jobb szó, és 50%-ban abszollut nem is való oda, ahol használják, csak divatos...Szerintem, ha nem is GPU-kra, de GPGPU-kra (bővítőkártyán) még szükség lesz egy jódarabig a magasabb kategóriákban. Hiába ugranak nagyot a CPU-k, és kapnak egy kis GPGPU-t is, ha az első software renderer motorok nem akarnak visszalépni pár évet a képminőségben, hanem inkább tarolni akarnak, akkor kellenek az izmos bővítőkártyák, amik CPU-tól eltérően erre vannak kihegyezve (mondjuk, mint például egy GT200 leszármazott
).
-
janos666
nagyúr
Szerintem itt az akozza a nagyobb félreértést, hogy mindegy hogy nevezzük. Annak idején GT300 néven kezdtek régélni a következő, DX 11-es nv chipról. Mivel azóta sincs hivatalosan nyilvánosságra hozva a kódneve, így tök mindegy hogy hivatkozunk rá, de ha a GT300 már ismerős pár émbernek, könnyebb ezt használni a "nextgen nv highend chip" helyett, vagy külön kitérni rá egy bekezdésbe, hogy most ugyan Fermi nevű akármiről szól a cikkünk, de ez ugyan az, amit pár hónapja még GT300 néven emlegettünk, csak most így fogjuk hívni, míg napvilágot nem lát egy valódi név...
Még egy olyan embernek is egyszerűbb GT300 néven emlegetnie, aki már kapott is egy ES kártyát, és ismeri a pontos kódnevét, és a várható termékmegnevezéseket, mert a nagyközönség így referál rá magyarázkodás nélkül is. Tehát nem feltétlenül kell azért lehúzni a WC-n az eszmefuttatást, ami GT300-at ír, nem Fermit, NV86-ot, vagy akármit...
Ugyan így, ahogy az Evergreent is becézzük még mindíg Rv870-nek, pedig itt maga az AMD mondta az Evergreen szót nyilvánosan.
Persze ettől még 95%, hogy minden GT300-ról szóló mese távol áll a valóságtól, és azok súrolják jobban az igazat, amik mellesleg Fermit emlegetnek, de ez nem szükségszerű.
De ugyan így számításba vehető, hogy az nv is átvette az AMD-től a szándékos félrevezetés stratégiát, és a Fermiről nem hallott még egy mérnök sem, csak a 1-2 merketinges. -
janos666
nagyúr
Adhat, ha akar, egy Geforceot nem lehet csak úgy kinyírni, mint egy Radeont. Ha túlfeszeli, szépen lekapcsolja a túlfesz, túláram, vagy a hővédelem, netán a driver, mert hibázik a GPU (pusztán a fesztől, vagy a túlmelegedéstől...).
A HD4 az, ami beszarik, ha hozzányúlsz a nyákhoz antisztatikus kesztyű nélkül.Az én összefoglalóm (szokásos módon "már csak azért is a másik oldalról nézve, akkor is ha magamnak se hinnék" megfontolásokkal):
- Szeptemberben kapunk két marketinges bejelentést.
Egyiket egy olyan VGA-ról, amitől mindenki azt várja, hogy hirtelen a víz is vörösborrá válik a poharában, ha csak elindít egy DX11 techdemót.
Másikat egy olyan chipről, amiről tényleg semmit sem tudunk (így nem is várunk tőle csodatételt, sőt, bukást sejtünk), de állítólag lesz valami, és mondanak is róla valamit nemsoká, de még demózzák is előbb-utóbb.- Mivel előbbi hamarabb kerül boltokba, így hamarabb kiderül, ha netán egy kissebb kudarcnak tűnik (mely nem valós, csak épp nem hozza le nekünk a csillagokat is az égről, főleg nem a DX9 játékok tesztjeit nézve, mert nem 6000SP-s, és nem DX9 játékokhoz való...)
- A másikról beígérnek nekünk fűt-fát, és jól be is esszük, még akkor is, ha a végén szar lesz, ami késve a boltokba kerü. (Mert 6000SP-ről álmodtunk, és csalódtunk, most szeretnénk megint valami szépről álmoni, és álomgyárosként feltalálja magát az nv).- Kintlesz mindkét kártya, összevetjük DX11 demókkal, és első 11-es játékokkal, aztán meglepődünk, hogy mennyire gyengr a jóstehetségünk Nostredamushoz képest.
- Eltelik még 1 év, és rájövünk, hogy még hülyébbek vagyunk, mikor előre betáblázzuk magunknak a jövőt, mikor visszanézve látjuk, mi mire is lett elég.
Csak épp már senkit sem fog érdekelni, csak a következő. -
janos666
nagyúr
válasz
Vasinger! #5519 üzenetére
RC1 óta Win7-es buildokat frissítgettem, RTM-et újrahúztam, és azóta vígan szaladgál. Tényleg jobb, mint a Vista, pedig én azza is elégedett voltam, ott is RC1 után álltam át XP-ről, és mire RTM lett, már kitapasztaltam magamnak, hogy kell megszabadulni a hülyeségeitől (Full-Admin mód ON, UAC OFF, 10-20 service STOPP...
), és élni az előnyeivel.
Viszont így, ha megcsinálod magadnak rendesen a Vista telepítésed, akkor kisebb a hézag a Win7-hez képest. Tehát én azt mondanám, hogy ha valakinek van eredeti Vistája, amit nem tud kedvezményesen upgradelni, annak nem feltétlenül éri meg új OS-t venni. Főleg, ha be tudja rendesen lőni a Vistáját, és nincs olyan kimondott feature, amire rá tud bökni, hogy "na, igen, ez nekem jól jönne". Ez esetben pusztán a "frisebb, jobb" még nem eléegendő indok egy ilyen nagyságrendű összeg kifizetésére. (persze magamból indulok ki, hogy mennyit költök gépre, és azt hogy osztanám be, mert inkább bármi új hardware, VGA, CPU, RAM, de akár hangkártya, hangcucc, monitor, stb, mint frisebb OS, ha működik a régi is)
Ha akarnám, én szinte ingyen is hozzájuthatnék eredeti kulcsokhoz is, de egyszerűbb kettőt kattintani.Tehát én is mindíg mindenből a legújabbat tartom fent (kb. fél évente újrarakom 0-ról, és olyankor mindenből frisset telepítek hozzá), hacsak nincsenek egertverő bugok, amire nincs workaround.
-
janos666
nagyúr
válasz
Vasinger! #5508 üzenetére
Szerintem ezt a kérdést nem azok teszik fel, akik csak "felrakják", hanem azok, akik meg is veszik.
Még szép, hogy aki ingyen ráncigálja le az ISO-kat MSDN-ről (vagy torrentről, addig mindegy, mert bárki számára hozzáférhető, mindkettő, és mellékelt kulcs vagy crack híjján legális.is), csak aztán nem eredeti kulcsot ír be, hanem crackeli, az szép, hogy mindíg a legfrissebbet tartja fennt mindenből.
Akkor van értelme mérlegelni, hogy "kell-e az nekem?" illetve "megéri-e az nekem?", ha fizetni kell érte (főleg, ha olyan nagyságrendű összeget, amit nem adnál oda egy kéregető csövesnek mikor jó kedvedben talál meg...)Ha megkapja a WDDM 1.1-et és a DX11-et, az új frissítéseket, valamint az új .NET-et és friss VS redisteket telepíted neki, friss driverrel, akkor nem hiszem, hogy játék szemponjától lesz bármi számottevő/érezhető különbség, de úgy bármi más program futtatásában sem.
-
janos666
nagyúr
válasz
vergilx #5503 üzenetére
Nézd meg a dátumot, 2008 szeptember, ezek majdnem 1 éves képek.
Nekem inkább az bennük a hihetetlenebb, hogy tök csupasz a nyák, a mai VGA-k televannak apró ellenállásokkal, és kondenzátorokkal, de még ezeken túl (ha mondjuk csak a hátoldalon lenne mind, pedig a mostani nyákoknak is dugig van a háta is) is túl nagyok azok a FET-ek is a mai kártyákéhoz képest. (és miért lenne így túlméretezve a VRM, cakk-pakk már 500W-ot eszik, de akkor mi hűti?)
A második is elég rági már, azóta lefutott pár egymásak ellentmondó pletyka. -
janos666
nagyúr
Dehogy, véletlen sem vettem a személyem elleni sértésnek, de ha annak tűnt volna, még akkor sem vagyok sértődékeny.
(#5444) leviske - Oké, 1 bekezdésből is felfogtam, hogy téged zavar, majd próbálok rád tekintettel lenni, de ez itt az én szememben (és ahogy nekem lejött még sokakéban) a "VGA pletykatopic", itt kell offolni mindenről, ami a VGA-kat és a gyártóikat illeti, de nem passzol a többi konkrét topicba. Tudom, hogy van nv-nek dedikált pletykatopic, de az kihalt, és gyakorlatban ezek együtt töltik be a versus meccsek színterét is (persze a dolog jóslás jellege miatt csak elméleti szinten), most épp itt van mozgolódás, itt gyűlik a gaz is...
Néha én is unom (és valahol kezdem szégyellni magam), mikor 5.-jére vitatom meg ugyan azt Abu-val, de mint te is írtad, ilyenkor a redundáns meddő copy-paste szerű újrajátszás mellett előkerülnek a külső szemlélők számára is hasznos információk a hozzászólásokban, valamint megindítja mások saját értekezését, és ily módon összességében pozitív hatása is van, a spamm-off pedig elviselhető egy ilyen topicba, szerintem direkt jó, hogy az ilyennek teret ad, itt elfér, máshol sokkal zavarób lenne...
Nameg persze ha nem olvasod végig (miért tennéd? nem is várom el), azért én is hozok be néha új témát is, még ha a 90%-a ismétlés is, az új felvetés kedvéért a korábbiak fényében megengedem magamnak, hogy offolja a jós-pletyka topicban.
Továbbá való igaz, amit te mondasz is. Miért ne állhatnék be ide hirdetni azt, hogy én elégedetlen voltam az eddig nálam járt két radeonnal is (és a jóstémánál maradva azt jósolgatni, hogy biztos szar lesz a HD5 is, hisz én erre tudnék voksolni a tapasztalataim alapján), és akár megjegyzem, hogy az eddig nálam járt Geforceok nekem jobban beváltak. De szerintem nem is toltam ilyen durván.
Ne mondd, hogy nincsenek itt ettől irrelevánsabb hozzászólások is. Esetleg ellentett értelműek, amire csak bólogat a többi ATI fan (de részemről érthető is, ha az ATI topicban belőlük van több, nincs ebből baj).Igyekszem offba tenni, de a nevem alapján is könnyen szűrhetsz, az avatarom nem egyedi, de azért nem is kérek másikat, mert nem sokan használják ott, ahol megfordulok, könnyű kiszúrni.
Nekem bevallottan van ilyen tulajdonságom, hogy még az eleve veszett ügyek mellett is szeretek akár végletekbemenően, és végnélkül érvelgetni, még akkor is, ha én magam sem hiszem el, amit mondok, de ehhez is legalább két ember kell.
Abu pedig nincs rákényszerítve, hogy válaszolgasson nekem, vagy ő is szereti ezeket unaloműzésképp, már akár azért, mert ott lebeg mögötte a marketinglehetőség (hátha látják a potenciális vásárlók, ahogy engem meggyőz az AMD igazáról), vagy valahol látja a fentebb leírt pozitív vonatkozásokat. (De nem látok eléggé a vörös fátyol mögé, hogy ezt biztosra mondjam helyette.
)
De nem offolok tovább azzal, hogy mentem magam, amiért offolok...
Elmarasztalás tudomásul véve. -
janos666
nagyúr
Kösz, hogy azért az én oldalamra is hozol fel bizonyítékokat, miközben alapvetően engem cáfolsz
(fetch4->gather4 ; de nem, nem olyan cuccokkal van tele az MSA-en kívül a dx 10.1, amiket az ATI régóta feleslegesen is beletett már a GPU-kba, ha kellett, ha nem, és most átvették a DX-be ; de az nv-nek sok feles tranyó lett volna...)#5434) Mackósajt - Sikerült nekik nagyon könnyen betartható ígéretet választani. Ha jó lesz, akkor azért, ha R600 reinkarnáció lesz, akkor azért (ha túl drága/túl olcsó lesz, akkor azért) nem fogunk hinni a szemünknek.
-
janos666
nagyúr
Ezt nem is tudtam, akkor a G80 okosabb, mint az R600.
Ha már ez is tud CUDA-val élsimítani deferrend renderingre, már csak valami olyan "hack" kellett volna a driverbe, mint most az Ambien Occlusion, és mehetne mindenhol a CUDA-AA Gef8 felett. Könnyebb lett volna lehurrogni a DX 10.1-et akkoriban.
Ezt a másik újítást annyira nem tudom értékelni, mivel nem értek hozzá, de azt tudom, hogy pillanatnyilag nem sok haszna van. És ami itt a lényeg volt, hogy ha az ms kivenne azt-azt az nv kedvéért, akkor ezeket most is kihagyhatta volna, és csak azokat teszi be, amit az nv is tud. Ez a gatherezés, és más apróság kibírta volna a fiókban, míg jön a DX 11. -
janos666
nagyúr
Már megint 2013-ban vitatjuk meg azt a 2009-es kérdést, hogy mi történt 2006-ban.
Épp azután, hogy nemrég éltél a csavarral, hogy "mert másképp alakult, mint várták".
Arra emlékszel még, mikor mostanra Xenos tesszelálós játékokat ígértél? (És, hogy akkor még nem volt életképtelen egy AMD-s SDK alapján programozni.)
Azt most nem kötekedésképp mondom, de én akkor is azt jósoltam, hogy meg kell azzal várni a DX 11-et, és a mai VGA-k is csak azon keresztül fognak tesszelálni, ha a DX 11 visszafelé kompatibilis, nem lesz itt semmiféle AMD-s SDK-val Xenos tesszelátora írt játék idén HD5 előtt, utánna meg itt a DX11...
Ezzel mostanában mi a helyzet? -
janos666
nagyúr
Aha, az UT3 esetében sem volt pénzmag, és csak viccből került be az enginebe a hardwares Physx lehetősége.
Az, hogy a "konzol érdekel is, a PC meg kap egy csontot, ha már az engine úgy is multiplatform" fejlesztő lusta szebb effekteket is gyártani Physx-hez, amik úgy is csak a Geforce-os PC-n futnak le, ugyan úgy egállban áll azzal, mikor a fejlesztő lusta 3.0-ástól újabb verzióra átírni a PC-re szánt kódokat, vagy épp megfejelni a DX 10-et 10.1-re, amit meg úgy is csak a Radeonos PC támoagat.
Ez elméletben megint 1:1, gyakorlatban pedig pillanatnyilag emerre billen a mérleg. -
janos666
nagyúr
Szép dolog a 10 éves terekkel magyarázni a közelmúltat és a jelent. De attól még ha előrelátható a halálod pillanata, attól még nem akarod kiélvezni a jelent? Sok víz lefut még a dunán, mire távoznia kell az nv-nek. Ha ilyen egyszerű, miért ne akarták volna még nyereségesen végigvinni ezt a pár évet?
Nekem még ez a rejtély. Miért kell sátrat bontani, ha csak 2 nap múlva indulunk, és ma este az esőben aludni szabad ég alatt, az összehajtott sátorral a táskában? Talán nem azért, mert valaki(k) baszogatják őket, hogy "Takarodj!"?Sőt, ha még ennyire komolyan gondolták a CUDA-t, végképp nincs értelme, hogy nem a TWIMTBP alatt akarták felfuttatni. Le akartak dugni valamit mások torkán, de előbb eldobták a tölcsért?
Sok itt a fekete luk, és a megmagyarázhatatlan dolgokból épp annyi akad, mint a kétféleképp is megmagyarázhatóakból.
-
janos666
nagyúr
Ez mind csak attól függ, ki mit szeretne odagondolni az ismert tények mögé. Az itt jelenlévők mind csak találgatni tudják, mi miért történt úgy, ahogy.
Én csak szeretem megvilágítani, hogy ugyan ezt nem hogy szépíteni, de teljesen ellenkező módon is fel lehet fogni. Attól függ, ki mit szeretne beleképzelni, ugyan úgy ki lehet hozni gonosznak és jónak, aljasnak és szenvedőnek mindkettőt.Akkor szoktam ezekkel a teóriáimmal előállni, mikor már kezd vérezni a monitorom a sok AMD marketinges nv buzingálásától, hátha elterelődik kicsit a téma.
De hogy válaszoljak rá: Ha az MS kihúzta volna a szarból az nv-t, akkor miért nem csak annyit tud a DX 10.1, amit a GT200 is? Mert mint látjuk, az AA megoldott CUDA-n keresztül, és a nagyközönség felé csak ez csapódik le belőle.
Mi szükség volt pillanatnyilag a DX 10.1 egyéb újításaira, miközben nyakunkon volt a DX 11.0? Semmi... Nem is használja őket semmi.
Akkor miért kellett erőltetni olyan újaításokat IS, amiket az nv számára gyakorlatilag lehetetlen volt megvalósítani ebben a generációban?
Ezek miért véletlenül épp olyan dolgok, amikre később az RV670 is rágyúrt az R600-hoz képest? (mert csak az alapok voltak meg, később csak finomítani azon az R600-on is DX 10.1-hez, még az Rv770-nnél is, csak épp nagyságrendekkel könnyebb volt kivitelezni, mint a G80-nál. Ha a DX 10 eleve mindent tudott volna, akkor az R600 is kaphatott volna az új driverrel 10.1 támogátást, de azért nem volt meg benne minden, és sem ezt, sem a Vistát nem csúsztathatták volna tovább, már mindkettő késésben volt...)A deferrend rendering + AA egy nyilvánvalóan félretett ütőkártya. Előhúzták, mikor kellett, hogy elvigye a DX 10.1 vonatot, és nyilván való, hogy azt kinek indították...
-
janos666
nagyúr
válasz
Departed #5391 üzenetére
Ha nagyon kell, az nv driver erőltet neked valamilyen AA-t, még ha sérül is miatta valami más effekt, de te döntöd el magadnak, a radeon drivere ezt nem teszi meg.
A GT200 már tud deferrend rendering mellett élsimítani, CUDA-n át csinálja is a Stormrise, csak volltak más olyan vonulatai a DX 10.1-nek, amit az nvidia nem tudott rövid időn belül gazdaságosan beépíteni a chipben, a radeonban viszont már (gyakorlatilag akkor még kihasználatlan felesleg gyanánt) ott volt a magja, és felfuttatták.
Lehet ezt az egész mesét olyan oldalról is nézni, ahonnan szemüveg nélkül is minden máshogy fest, mint erről, amit itt mostanában felénk fordítanak, és ha kitörlöd a szemedből a vörös köpetet, akkor inkább enyhe zöld árnyalatot is felvehet, a szürke köd és sötét árnyékok mögött (ha nem esik le, a költő azt akarta mondani: ködösítés, és rejtett "ármány".)
-
janos666
nagyúr
De jó lenne, ha valaki most előrántana egy 2900XT-t tesztelni, hogy mire is jó az ma...
Lehet, hogy Stormrisban szarráveri a 8800GTX-et, de sok mai DX10(.1)-es játék nevetségesen lassan futhat rajta, tehát ez a "majd 2 év múlva jó lesz" ilyen szempontból hülyeség. 2 év múlva jó lesz egy ilyen tudású, háromszor-négyszer gyorsabb chip.A DX9-et is jó elverni az nvidia-n, de szerintem egyik konzol sem tud DX10-et, márpedig ma össze teheti a kezeit a PC-s játékos, ha tűrhető minőségű konzol portot kap (fura, ha SM3.0-ával, mikor a konzol tudása is annak felel meg?)
És akkor még 1: Az ATI sem mindíg a pionner (mert az DVD-t csinált, nem VGA-t
), volt olyan is, mikor a 6800Ultra SM3.0-ával, az X800XT pedig 2.0b-vel jött, pedig a HDR akkoriban elég látványos változást hozott, és mára elég meghatározó a 3.0 (lásd fentebb). Szóval van példa, mikor az nv is ugrált nagyokat DX támogatással, és épp ezek azok, melyeket a történelem is helyesnek igazolt mára.
Biztos járható út lenne egyébként, ha a nyers erőben is kellően gyors GPU helyett mindíg a technológiákkal ugrálnának, csak ez egyébként sem jobb a programozóknak sem, és a konzol átiratok korszakában még tarthatatlan is. A technológiai lépkedés úgy is megtörténik, ha nem vezetnek be minden VGA generációval évente új DX-et, csak 3 évente jön egy új, ami ugyan azt tudja, mint az azóta 3.-jára frissített másik_világ_beli_DX, csak nem apróbb lépésekkel haladt. Közben muszály növelni a nyers számítási teljesítményt is, az pedig menetrendhez kötött a gyártástechnológia kapcsán.
Az ATI(MD) csinált egy chipet az Xboxhoz, amilyet az MS akart, és ezután hülyék lettek volna ezt a befektetett munkát eldobni, inkább szépen kitalálták az MS-el, hogy oké, akkor a Xenos ihlette R600 vonalba terelik be a későbbi DirectX-eket, az AMD-nek legyen elég az olcsó gyárthatósággal, és nyers sebességgel vesződni. A 10.1 témával is csak az nv-t akarták szopatni.
Az egy dolog, hogy nincs AA, de miért nem fért ez bele a 10.0-ba? Hogy nem jutott ez eszébe senkinek, mikor eléggé túltervezett a 10.0, és a .1 valahogy épp ilyen szemhélyon tátongú lukkat töm be, hogy csak a vak nem látja őket, mióta megjelent a 10.1, csak a csodák folytán az nv-nek nehezebb követni a 10.1 egyéb dolgait (az AA-t nem, az megy CUDA-val ma is GT200-on), így arconmossák vele. Még szép-e hogy nyíltan zárkózott el tőle? Csináltak egy új DX verziót, amibe bepakolták az AMD-nek előnyös, nv-nek nehézkes dolgokat, és megfejelték egy asztal alatt tartott aduásszal (AA), amiről az emberek majd levágják, hogy "jajjj, nekem ez kell!"?Egyébként az tökéletesen reális, ha az SP és TMU duplázódik, és ha ez már megtörtént, akkor nem hihetetlen, hogy több ROP-nak nem maradt hely, mert sok tranzisztort vitt el a DX 11. Ez részemről várható volt. Csak így tényleg nem lehetetlen az R600 reinkarnációja, mármint olyan szempontból, hogy a megjelenéskor piacon lévő játékokkal tesztelve messze nem lesz meg a dupla FPS, de még az 50%-os gyorsulás sem mindenhol lesz atombiztos. Persze lehet, hogy Stormrise alatt meglesz 110 is, és ha lefutnának a DX11-es demók 10.1-el is maradéktalan effektezéssel, akkor lenne az 130-150-200 is, de akkor ez még senkit sem fog érdekelni, és mire érdekes lesz, addigra lesz DX 11-es Geforce, de tán még HD6870, neadj isten HD7870 is a boltokban. (ne köss bele, hogy nem így fogják hívni, tudod mire gondolok)
-
janos666
nagyúr
Képminőség beli visszaesést még nem vettem észre, pedig kényes vagyok rá, ha egy porszem kerül a monitorra, már hozom az alkoholos törlőkendőt, ha picit fura a film képe, már frissítem a kodeket és/vagy átnézem a beállításait...
Illetve egy volt, HDR mellett az élek szemcséztek néha, de Multiról Supersamlera tettem a TransparencyAA-t, és fasza (Radeonon a supersample az alap, ha bepipálod ezt az opciót).Mégvalami feltűnő: Érezhetően gyorsabban tölt be most a játék, ennek gondolom a shadercompilerhez, vagy a memóriaallokáláshoz, netán a textúrabetöltögetéshez (mindháromhoz egyszerre, plusz ahhoz amiről nem tudok) lehet köze driverek kapcsán.
Persze, a lagot x2-re értem, és csak CSS alatt éreztem igazán, ez kevésbé érdekelt, mert mostanában úgyem multizom már. Ez a lag is okozhatja azt az érzést, hogy "válaszkészebb" a rendszer (jobban leköveti az 1ms Razer egeret), de a többi eddig elindított játéknál a sima 4870-est próbáltam felidézni (eleve csak olyat vettem elő, aminek illik szépen elfutni 1 GPU-n, az X2-t azért vettem, mert nem minden futott el 1-el, tehát értelem szerint azzal inkább olyanokat toltam, amiknek 2 kell, mert korábbról félretettem pár ilyet, és nem volt meg sokáig a kártya;; nyár elején nem sokat gépeztem, most bezzeg már itthon unatkozom...)
Így végül is nem annyira nehéz összevetni, mert G80-as GTS-ről váltottam 4870-re, aztán X2, és most vissza G92-es GTS-re. Persze mikor 4870-esre adtam a fejem, akkor azt próbáltam bemesélni magamnak, hogy jó döntés volt, illetve X2-nél, hogy kényszerűség volt, nem a hibákat kerestem, hanem az előny feltárására helyeztem a hangsúlyt.Nem tudom pontosan körbeírni, de szerintem 1 GPU-s kártyák közt is sokkal kellemesebb érzés Geforceal játszani (hasonló FPS-ek mellett, akár plafonozó 60-al Vsync mellett). Lehet, hogy mégis lag, ami 1 GPU-ból is megvan mondjuk driveroldalról.
Ha netán visszakapom az x2-t, vagy mégis HD5 lesz a következő kártyám, berakom őket egymás mellé, x2 esetén letiltom az egyik GPU-ját, és windowsból váltogatva kipróbálgatom még őket gyorsan egymás után, de most hiszek magamnak, hogy jobb érzés geforceal játszani! (És nem szivesen hiszem ezt, mert HD5-öt terveztem venni, megintcsak amint jut belőle itthonra, merthát a GTS nem mai gyerek, és most csak ez van a gépben...) -
janos666
nagyúr
Egyébként mondjátok nyugodtan, hogy hülye vagyok, de azért le kell írnom.
Miután elszállt a 4870x2, beszereztem átmenetileg egy 8800GTS512-t. Hiába elalvult, de most, hogy előszedtem szórakozgatni egy-két régebbi játékot, valahogy sokkal simábnak érzem a futtatás, mint mikor végigtoltam 4870-el. Nem az FPS a több, olyan helyzetről is beszélek, ahol a Vsync miatt mindíg 60-on plafonozik.
Már nem játszom vele, csak havonta 1-2 órát poénból, de a CSS-n esküszöm, hogy megérzem, hogy kisebb a lag, mint X2-vel volt.
De felraktam pl. a Mass Effektet is, és szavamra mondom, jobb érzés mozgatni az egeret, mint tavaj nyáron 4870-el volt.
Nem tudom mitől lehet, talán, hogy a prerender limitet 0-ra lehet állítani a control panelben, de ezt direkt kipróbáltam 3-ra visszarakva, mégis jobb érzés egy 8800GTS-el játszani, mint egy 4870(x2)-vel. (Persze ott, ahol mindkét kártyával megvan a kellő FPS).
A gyári léghűtés hangjáról pedig nem is regélek ódákat.Ez most komolyan elgondolkodtat, hogy messze elkerülöm a HD5-öt, és megvárom a geforceokat. Ha mégis kicserélik a 4870x2-m, a GTS-el együtt elboltolom egy GTX295-re, aztán azzal elleszek addig.
-
janos666
nagyúr
válasz
TESCO-Zsömle #5258 üzenetére
Jó ocsmányul néz ki rajta a WOW (ha lehet, akkor még ocsmányabbul, mint egy monitoron).
Mondjuk a hülyeség ott kezdődik, hogy ennyi pénzt kibaszott 3 monitorra, meg alá a VGA(i)ra, miközben két kis lófasznyi hangszóró van befektetve alájuk, és egy fityeg a falon.
Mikor még FX5800-al toltam 17-es CRT-n, már akkor jobb hangcuccom volt, és mióta megvan a FullHD monitor, azóta HDMI-s erősítőre gyűjtök (illetve gyűjtöttem volna, de most nyáron leégett az alaplapom és a VGA-m is, úgyhogy ez elvitte a mostanában gépre szánt pénzt, legközelebb pedig HD5/Gef11 vásárlás lesz...). -
janos666
nagyúr
válasz
sniper elite #5254 üzenetére
Ma nem is tudsz összekötni 2-nél többet, mert csak 1 CF csatlakozó marad, a belső összeköttetés felél egyet, és a mostani CFX csak 2-őt tud (max 4 GPU).
Az 5870x2-n talán lesz már 2 CF csati.Viszont nem feltétel a Crossfire, ha nem is 3D-re kell a GPU, hanem pl CUDA-zni, vagy ATI-Stream-hez.
Szerk: látom Zsömle linkelt is neked ilyet.De abban igazad van, hogy játékra felesleges lenne az is, már magában az X2 is elég szinte mindenre, egy 3. is csak "tutira megyünk", a 4. pedig csak amolyan ráadás, hátha szarul megy a CF egy olyan programban, ami épp nagyon kajálna, de tulajdonképp már az is felesleges.
Illetve, mikor épp téged támadtak itt a fórumon, majdnem odamentem és megvédtelek téged, hogy 2560-as monitorthoz már kell a 4 GPU, de aztán jobban megnéztem az adatlapod, és láttam, hogy "csak" 1920-as a monitorod, pedig ekkora felbontásban én még a sima 4870-el is letoltam pár játékot (néhányat meg félretettem, míg beújítottam x2-re), szóval ide sokszor felesleges már a 3. GPU is, esetleg Crysis alatt jön jól a 3., de hogy a 4.-et észreveszed-e még ezen kívül bárhol...
-
janos666
nagyúr
válasz
Gonosz15 #5233 üzenetére
Én az AMD helyében rögtön 2-t küldenék pl. Hilbertnek (de csak, mert nv-s).
Bár abban igazad van, hogy ha kettőt kap, és már ma kész van a sima és CF teszt is, akkor 10.-én kirakja a címlapra az egykártyás tesztet, másnap, harmadnap pedig a CF-t. Figyelni kell a cikkolvasottságon túl az oldal látogatottságára is. -
-
janos666
nagyúr
válasz
Bluegene #5158 üzenetére
De ezt most honnan szívod?
Az RV770 260mm^2, az RV790 290mm^2, és ezek jól bejáratott 55nm-en 800SP-sek, DX 10.1 tudással, öreg Xenos tesszelátorral, és sideporttal, UVD-vel, ROP-okkal, TMU-kkal.
Akkor a betegeskedő 40nm miatt tételezzünk fel nagyobb biztonsági tényezőt, induljunk inkább ki az RV790 méretéből.
A memóriavezérlőt hidjük akkor ugyan úgy 256 bitesnek, ne kerüljön be semmi felesleges újdonság, amivel pedig tuti hogy előhozakodnak.
40/55*290=210mm^2, tegyük fel, hogy ennyit nyernek a kisebb csíkszéllel (gyakorlatban kevesebbet szoktak, ha ugyan azt zsugorítják, de direkt ráhagytunk egy kicsit az elején).
A feltételezhető új méret ~310 mm^2, vagyis 47%-al nagyobb, mint egy 40nm-es HD4800-as GPU lenne, kerekítsük 50-re.
Ezek alapján, ha mindent (igen, mindent) lineárisan nővelnének, akkor lenne 1200SP-s GPU-nk.
Most lefaragjuk azt, hogy nem kellett mindent duplázni, csak mondjuk a terület 75-80%-át elfoglaló elemeket. Így azt mondjuk, épp belefér a méretbe 1600SP is, és kétszer annyi ROP, illetve TMU, mint az RV770-ben volt.
Most gondolunk még arra, hogy talán kidobták a sideportot, de tudjuk, hogy ugyan úgy be is tettek helyette valami más haszontalan hülyeséget a szabad helyre, ami amúgy érdemben kihasználatlan lenne.
Várhatnánk a csodát, hogy valami úton módon sokkal kevesebb tranzisztorral oldották meg ugyan azt, így zsugorítottak az egyes elemeken. Oké, de akkor vegyük hozzá azt, hogy lépünk egy DirectX generációt, komolyabb tesszelátor kell, és még ki tudja megannyi olyan dolgon kellett variálni (értelem szerűen nem kivenni, hanem betenni, mert több mindenre lesz képes, nem egyszerűsödik), amit még nem tudunk.
Rátesszük azt, hogy szarul muzsikált a 40nm, szóval nem aludnánk nyugodtan, ha csak annyi biztonsági tényezőt hagytunk volna rá, mint én az imént. Nyugodtan alszunk akkor 1600SP-s GPU-val, vagy 3000-resről álmodunk?1600-al nagyon boldog lehet mindenki, valós (de nem CPU limites) helyzetekben DX 9/10 alatt is behozza, vagy akár meg is veri a 4870x2-t, de még a GTX-295-öt is. Hova ettől jobbat, ha még ebből is lehet X2-t csinálni, vagy valami OC példányt az új Geforce érkezéséig?
-
janos666
nagyúr
válasz
TESCO-Zsömle #5154 üzenetére
A Vista SP2 is megkapja a WDDM 1.1-et? Mert ha nem, akkor emiatt lehet gyorsabb a Win7. (bár lehet, hogy a DX11 miatt meg is kell, hogy kapja)
Nekem a G80-as GTS-t váltotta a 4870, és ahhoz képest hangosabb volt, pedig a G92-es GTS-ek még ettől is halkabbak, és a GTX-295 hangjára sem panaszkodnak sokan, mint a 4870x2-ére.
Az X2-t sokat nézegettem belülről, próbáltam pofozgatni, aztán ez lett a veszte, hogy a vizesblokk felrakását nem élte túl, de monstanában amúgy is sokaknál bedöglik.
Legutóbb már majdnem megvették a rá való blokkomat, mikor épp beszart a tulajnál a gyári állapotú kártya, és így visszamondta. (tudom hogy geci vagyok, hogy pénzért eladom, mikor 90% a rizikó hogy újra gyilkolni fog, de amíg garis kártyára teszik nincs gáz...) Egy másik ph-s pedig már 2x futott neki a vizesblokk felrakásának, mindkétszer elszállt közben kártya (másodjára megkérte az eladót, mert már nem bízott magában az első után, de mint látszik, nem az ő hibája volt...).
(#5153) leviske - Szerintem az otthoni PC-s szórakoztatás tekintetében már nem is sok pótolhatatlan dolog van a kezükben. A legtöbb multimédia már megoldott (ha licenselt másolásvédelem támogatás kell, hát linuxhoz is lehet fizetős filmlejátszót is árulni), csak a játékok nem.
Ubuntu alatt nem lesz DX11, ha egy új OpenGL verzióba (mondjuk 3.5 vagy 4.0) bekerülnek azok a dolgok is, amit a DX11 miatt építettek a hardwarebe, akkor linux alól is elérhetőek lesznek ezek a képességek, de mostanában már csak a DOOM3 motors cuccok, és a Riddick voltak OpenGL-es játékok, az egyik "ilyen is van", a másik pedig az iD, de a Wolfenstein már DirectX-es, és ha most az AMD-vel haverkodnak, akkor az iDTech 5 is a directx-et favorizálja majd. (még ha elérhető is lesz az opengl, de ki fogja használni, ha lesz DX?)Szerintem leghamarabb akkor dőlhet ez meg, ha visszaáll a software rendering, és még OpenGL se kell. (Vagy ha az MS úgy dönt, nem ad ki több DirectX verziót, az OpenGL pedig ezt meglovagolva belehúz. De miért tenné, ha ezzel eladhatja a Windowst otthoni felhasználóknak?)
-
janos666
nagyúr
válasz
TESCO-Zsömle #5149 üzenetére
Hmm. Nem szedtem le a sima 70-es fedelét, de akkor ez így végképp katasztrófa. Ha ekkora batár volt rajta, akkor nem szabadott volna ilyen melegnek és zajosnak lennie. (Főleg azt nézve, hogy az x2 is túléli egy darabig azt, amit műveltek rá, miközben alig kétszer gyorsabban forog a ventije.)
-
janos666
nagyúr
válasz
attiLANte #5145 üzenetére
Hát, erről a képről ítélve úgy látszik, marad ez a "alumíniumlap a nyákra, aztán egy réztömb a chip fejére, aztán a tátongó semmi " kialakítás, ami a 4870-esen volt. Miért nem tudják lemásolni az nvidia refhűtőit, ha már jobbat nem mernek csinálni?
Az már csak ráadás, hogy szétszedni és összerakni is szenvedés egy rendes hűtőhőz képest.
Legalább 1 cm-el hátrébb lehetne tolni azt a ventillátort, vagy inkább csak féllel, de akkor lehetne fél centivel nagyobb az átmérője (részben a tengelyre merőleges lapátok további megnyújtásával), a kör kerületére merőleges lapátfelületre nézve jelentene valamit az a kis méret, ami szabadon van. Önmagában ez az alsó lemez sem rossz, de utána nem egy tömör réztömböt kéne ráb@szni a mag tetjére, inkább egy vékony rézlapot. A magot borító vékony lapról lejönne mondjuk 2 vastag, ellapított hőcső, a RAM-ok feletti részen pedig végigkanyarodva egy harmadik, és ez a 3 cső adná át a hőt egy alumínium lamellázatnak, ami maga is hozzáér a talplemezhez, és a magot fedő laphoz (a réz árából kijöhetne a hőcsövek ára alu lamellák mellett), ami nem csak egy akkora tenyérnyi bizb@asz, mint ami az RV770 magokon van (főleg nem az X2-ién), hanem alaposan kitölti a dualslotos hűtő fedele alatti teret, magasságában, hosszában, és széltében is.
Mindjárt nem süvítene a kártya, és nem panaszkodnának, hogy miért nincs 80 alatt a maghő. -
janos666
nagyúr
válasz
janos666 #5122 üzenetére
Lejárt a szerkesztés, de alul a PCI-E csatlakozónál miért tűnik úgy, mint ha azt csak paintben rajzolták volna oda? Ha valami sorozatszámot akartak volna eltűntetni, akkor vagy levághatták volna egy az egyben, vagy átkopyzhattak volna egy normális csatit egy másik fényképről.
-
janos666
nagyúr
válasz
sniper elite #5120 üzenetére
Erre olyan matricát aggatnak az egyes gyártók, amilyen csak tetszik a marketingeseknek. Ha lehúzod a papírt a 4870x2-ről, az is tök fekete, és ezt is be lehet borítani legelejétől a legvégéig vörösre, kékre, rószaszínre...
Úgy látszik, átvették a desigt az nv-től, és inkább 99%-ban befedik a nyákot a hűtés műanyagfedelével, hogy sehol se kacsintson elő a nyáklemez. Ez persze nem rossz, nekem tetszik. Főleg jó lesz, ha jobban gatdálkodnak a fedél alatti hellyel, mint a 4870-eseknél (főleg x2-esnél).
Viszont úgy tűnik, ez ugyan az a lapátkerék. Önmagában nem gond, mert a 4890-en elég halk tud lenni, főleg idleben, csak az x2-n süvít, de ott meg a két öklömnyi rézborda miatt kell agyonjáratni, valami fasza hőcsöves megoldással és/vagy jobban elnyújtózó lamellákkal még jó lehet ez.
-
janos666
nagyúr
válasz
DeSanto #5116 üzenetére
Nem arra akartam célozni, hogy az nv kedvéért terjedt lassabban a DX 10.x, de ha így is van, ez már a következménye egy korábbi ügynek, méghozzá, hogy az nv ellen volt a 10.1, és ezért nem is akarták támogatni (azon a kérdésen túllépve, hogy ha akarták volna, lett-e volna esélyük megfeleltetni a GT200-at minden kívánalmának ; és persze a CUDA összeesküvéselméleten is túltekintve...). De igen, az MS és az Xbox360 is ott van valahol emögött, minthogy a boxban lévő Xenos az ATI/MD gyermek. És ez a mese megy már az FX5800 óta, csak az váltakozik, mikor épp ki tud jobban kiláballni a szarból, amit maga köré kavart.
-
janos666
nagyúr
válasz
T.Peter #5113 üzenetére
Szerintem csak az nvidiatól függ, hogy lesz-e 11.1 a Win7 SP1-ben. Ha jól sikerül a 11.0-ás nvidia hardware, akkor elő kell rukkolni valami újjal az AMD-nek.
Persze ha emulálva lesznek a DX képességek az új Geforceon, akkor jó eséllyel befuccsol ez a móka, és ez esetben sem lesz egyhamar 11.1 -
janos666
nagyúr
válasz
T.Peter #5110 üzenetére
Számtalan ilyen, végtelenítve ismétlődőnek tűnő mondókája van, nem férne el mind az aláírásába.
Különben rosszkor lőtted el ezt a poént, most direkt célzottan az integrált megoldásokról érdeklődtek.
Nameg, ha ügyesen kérdezel, olyat is belesző neked a copy-paste után a hszbe, ami érdekelt. Fogd fel úgy, mint a reklámokat, végig kell nézned, hogy megkapd az "ingyen" infókat. -
janos666
nagyúr
válasz
sniper elite #5105 üzenetére
Félre érted, a 4870x2, a 9800GTX, 3870, mind dual slotos kártyák, régóta ez a standard közép-felső kategóriás VGA-n, te trislotosra (vagy legalább is másfelesre) gondolsz, olyat gyári hűtővel még nem láttam, bár pl. az én lapomba is bele menne, úgy hogy nem lehetetlen, csak nagy nem valószínű, inkább hosszában terjeszkednek, úgy is nő a hőleadó felület. De a mostani Radeon hűtőkön lehetne mit csiszolni méreten belül is.
-
janos666
nagyúr
válasz
sniper elite #5100 üzenetére
Fú de kemény vagy. Már ebben is versenyezni akarsz?
(Erről most az jutott eszembe, hogy 4870-esem nekem volt legelőször az aktív Ph tagok közt, és az arról készült házi tesztem az egyik leg kevésbé olvasott logout cikkem, mert addigra volt már 10db 4850 tesz CF-estől is, aztán vagy nem vágták le, hogy az már a 70-es GDDR5-ös, vagy megunták már egy időre az n+1edik HD4 teszteket. Még jó hogy nem ez motivált a sietségre...)
-
janos666
nagyúr
válasz
sniper elite #5088 üzenetére
Nekem kétslotosnak tűnik, de szerintem az az egychipes kártya, ami a képen van. Sőt, a sokféle csatlakozó miatt még abban sem lennék biztos, hogy nem ES kártya, és a végterméken nem csak 2 DVI, és komponen kimenet lesz. A HDMI-t meg lehet oldani DVI átalakítóval is. (A disply portot nem tudom, de biztos megoldható az is átalakítóval, mert abban sincs több rézér, mint a DVI-ben, az meg, hogy milyen jel megy a DVI csati tüskéire, az már szabad dolog a kártyán belül...)
Ha minden az idealisták várakorázai szerint alakul, könnyen lehet, hogy az új X2 picivel beéri a mostani CF-edet, mivel a második 2 GPU már nincs túlzottan kihajtva (legalább is mai driverekkel, 1920x1200-ban), és lehet, hogy az új X2 már nem mai Crossfire alapú megoldás lesz, hanem jobb hatásfokkal kötik össze a magokat.
-
janos666
nagyúr
válasz
sniper elite #5086 üzenetére
Miért ragaszkodsz 2 kártyához, ha még azt sem tudod mennyit megy 1 kártya? Csak úgy?
Nem hiszem, hogy vastagabb lenne, ha CF képes lesz, akkor ők is gondolnak arra, hogy elférjen a legtöbb CF-es alaplapban. Mondjuk az enyémben elférne a 3 slotos hűtéssel is kettő, mert két darab 1x slot is van a két 16x közt, de nem hiszem hogy túlzottan be akarják szűkíteni a lehetőségeket.
Inkább lesz dualslotos, nagyon hosszú kártya, netán terhelés alatt jó hangos ventillátorral.
De a mostani x2 hűtése belül, a fedél alatt egy rakás ******, ha jobban kihasználják a rendelkezésre álló helyet, akkor a mostani x2 sem lenne turbina, és be tudja majd hűteni hasonló méretű műanyagkeret alá rejtett normálisabb cucc az új GPU-kat.Amúgy én a helyedben előbb vennék vízhűtést egy kártyára, mint egy 2. kártyát. Hogy érzed elég tökéletesnek a gépet, ha zúg, mint az istenverése? Minek oda drága hangcucc, ha belesipákol a két kártya?
-
janos666
nagyúr
válasz
TESCO-Zsömle #5070 üzenetére
Azért kapitalizmusban is léteznek törzsvásárlói kedvezmények, és hasonlók. A hosszú időn keresztül egymás tenyere alá dolgozók nem ugrálnak úgy, mint a bolha, 10 jövedelmező év után 1 laposabb már mindegy. Sőt, ilyen körökben is létezik a szeszély, és hasonló emberi érzelmek, és ez a Carmack gyerek elég elmésnek tűnik ilyesmikhez, hogy ne váltogassa csak úgy oda-vissza a véleményét ha épp becsúsztatnak egy kis aprót a zsebébe, mikor a régi haverja már annyi köteget odapakolt régebben, hogy lehetett még egy ferrárija.
Persze, ha az AMD zsíros szerződést köt velük, az egy dolog, mindenkit meg lehet venni kilóra, de nem hiszem, hogy túl sokat tettek volna le náluk az asztalra, mert eddig legalább is nem erről voltak híresek az AMD-nél (lehet hogy ez most változott).
Pl. az nv-vel eddig kerestek mondjuk 100 pénzt, az AMD-vel kereshetnek 20-at, ha már ma átállnak az oldalukra, és 15-öt (de annyit még az nv-vel is), ha csak 1 év múlva, akkor megéri ide-oda pattogni? (degradáló lehet a tekintélyre nézve, ha most nv után az amd-t kezdik isteníteni, 2-3 éven belül pedig máris az intelt, így veszíthetnek a kilónként árukból...)
Mindenkinek megvan az ára, de akinek már van pénze is, az nem adja olcsón a tekintélyét, vagy nem tudom hova ragozzam tovább.
Szóval elhiszem, hogy így van, és mögé tudom képzelni a logikus miértet, ha kell, csak meglepő, és fura (azon túl, hogy számomra még szomorú is). -
janos666
nagyúr
Elég hihetetlenül hangzik, de úgy néz ki, igaz.
Rendben, hogy az nv tiplizik pár éven belül, de lesz még 1-2 kártyájuk, addig miért nem vártak még ki (főleg a wolf esetében)? Ilyen hosszú barátság után már mit számított volna, ha 1-2 évig még fenntartják a látszatot?
Ha már Carmacket is zsebre tették, akkor most már elhiszem, hogy itt a ma ismert grafikus_világvége.
Én ugyan sosem rajongtam a játékaikért, a DOOM3 esetében a grafikát is inkább bíráltam, mint hogy az állam esett volna le, a történet meg annyira hatott meg, hogy már godmódban végigrohanni is fárasztónak találtam.
Viszont maga Carmack azért még jelentős figura az iparágban, és ha már most feladta az nv-vel való hosszú barátságot, mikor még kívülről nézve nem is süllyed a hajó, csak a vészmadarak kárognak, akkor talán tényleg ömlik már befelé a víz is valahol, és nem csak a patkányok rohannak.
Mondjuk lassan úgyis felhagytam volna már ezzel a hobbyval, de akkor ez most tökéletes pillanat lesz, mikor megjelenik az utolsó Geforce, abból még veszek egyet, aztán keresek egy új hobbyt. -
janos666
nagyúr
válasz
DeckardCain #5063 üzenetére
Szinte tudtam, hogy csak alimíniumlemezen át mutatják meg a kártyát, miközben olyan demók futnak, amit más kártyán még nem lehet reprodukálni.
Viszont gondoltak erre az ötletemre, ezért beizzították a Wolfit, ami csak DX9-es (nem is OpenGL???), csak ezzel meg az a gond, hogy erről sem adtak konkrét FPS értékeket, és itt sincsenek még más VGA-val kézült benchmarkok (nyilvánosságra hozva).
Bár önmagában épp elég nagy meglepetés, hogy mit keresnek a QuakeCon-on, kár hogy ez csak nekem szúr annyira szemet, hogy kérdezgessem.
Nameg legalább látjuk, hogy rádobáltak a dualslotos hűtőre 2 DVI-t, és egy-egy HDMI-t és display portot is, lehet hogy így hangosabb lesz a gyári hűtő, vagy több meleg levegőt fúj házon belülre. Az a 2. DVI nem kellett volna (de talán csak az ES kártya ilyen).(#5064) gbors - Hát azt úgy számolgattam, hogy az SP-kre közel annyi TMU és ROP jusson, mint az RV770-ben (különben mai játékok tesztjeiben még alulmaradhat, főleg a majani geforce ellen).
-
janos666
nagyúr
Hát, ja, ha chipenként csak 800-800 SP, akkor fejenként 192-192 elég, ha 5Ghz körül van az órajel (most mindegy, hogy külön-külön van jelen 2db 198-as, vagy egy közös 384-es, SP-kre leosztva ugyanannyi marad, esetleg dinamikusabb a sávszélfoglalás, ha a belső busz nem csak 192-es, hanem chipenként is 384-es, ami befut a középső 384-esbe (de ez pazarlás, nem sok gyakorlati haszna lenne). Ha középen van egy 384-es memóriavezérlő, amihez a két chip 192-es buszon csatlakozik, jól adná ki magát, mert akkor az egychipes kártya így lehetne 192-es (ha a belső busz is 384-es, akkor az egyhipes kártya is lehetne 384-es, kevesebbet kéne variálni, tehetnének rá Ghz-ben lassabb RAM-ot, ami nem üti a kellő sávszélt az X2-re)
De legyen akkor reális és ideális maximum, hogy 2x1200 SP, amik fejenként 192 bites busszal futnak be a közös 384-es vezérlőbe, amire 6Ghz körüli RAM-ok vannak aggatva. Ez így kellően izmos jószág lenne, a windows felé 1 GPU-nak tűnhetne, így kevésbé lenne driverfüggő, mint a CF (még ha kicsit kényesebb is lenne a driverre, mint a mostani egy chipes 4870).
Ehhez akkor 1200SP-s lenne az egychipes kártya, és ugye csak 192 bites busz lenne.Vagy az egyhipes kártya 1600SP-s, és 384 bites, a kétchipes 2x1600-as, és a közös vezérlő is mindhárom irányból 384 bites, és switchként üzemel.
Ha elém tették volna ezt a két verziót, és nekem kellett volna rábökni valamelyikre, akkor én az elsőre szavaztam volna (mármint eladó, mert mint vevő, inkább a másodikra).
-
janos666
nagyúr
Attól még hogy MCM, ugyan úgy nem kéne összeadni a sávszélt. Az egyes magok shadereit és textúrázóit ugyan úgy etetni kell. Sőtt, ha már nem a PCI-E switchen és a CF-hídon, hanem a RAM-on át kommunikálnak a magok, az is csak némi plusz sávszéligény. Az egyes magokra jutó elméleti sávszéligény pedig a duplájára nőhet, akkor a gyakorlatit sem árt közel duplázni. 256 bit alá nagyon necces lenne lemenniük, még 7Ghz-s RAM-mal is. És nem hiszem, hogy sokkal olcsóbb az ilyen RAM, mint akár a 384-bit ~5Ghz mellé.
Persze lehet, hogy laikusként rosszul értelmezem az MCM dolgot. -
janos666
nagyúr
Az Rv870 titokban egy fonógép processzora, ezen készül majd az új nanotechnológiás szintetikus ruhaanyag, ami jobb, mint az aszbeszt, és szellősebb, mint a pamut, miközben öltönyöktől és szoknyáktól kezdve, akár extrémsportok könnyű öltözékeihez is felhasználható. Könnyen mostható, és örök életre szól.
Szerk: (#5053) kriszbon - Igen, de aki ebből kihámozza, az az angol szövegből is.
-
janos666
nagyúr
válasz
DeckardCain #5045 üzenetére
Ezt nem értem. Ha a sima egychipes kártya 192, és az X2 384-bites, az azt jelentené, hogy az az X2 is csak 2x192 bites (mindkét chip 192-es, csak nem szabadna így összeadni...). De ennek mi lenne az értelme? Sokkal gyorsabb GDDR5 nem lehet rajta, mint az 4890-eken, márpedig akkor inkább növelni kellhetett volna ezeket a biteket, nem csökkenteni.
Mondjuk nekem már ez eleve fura, hogy épp a QuaceCon-ra cipelik ki először a kártyáikat. Carmack nem Radeon fan (presze pénz beszél, de az AMD nem arról volt híres, hogy vaskos aktatáskákkal jár házalni). De ha ez igaz, akkor mire lesz még jó a szeptember 10? -
janos666
nagyúr
válasz
Gonosz15 #5036 üzenetére
Van már DX 10.1-es GPU-juk. (laptopba, de ilyen szempontból mindegy), és ha szeptemberben tényleg bejelentik a Radeonokat, lehet hogy elcipelnek hó végén a saját konferenciájukra valami GPU-t, még ha nem csak kártya nincs hozzá, de nem is üzemképes, viszont elárulják mi van benne, és várhatóan mit tud majd.
-
janos666
nagyúr
válasz
Komplikato #5032 üzenetére
Hát, az. Ha sok monitor kell, akkor nem kell 3D, ha még is, akkor nem elég 1 kártya. De majd meglátjuk...
-
janos666
nagyúr
válasz
attiLANte #5027 üzenetére
A 9.8-as Catalyst elvileg 17.-én jelenik meg.
Én nem adok neki hitelt, ha akarják, csak kihagynak inf-ből 6-7 sort, és nyomát se látod annak, hogy már 3 verzió óta elkezdték HD5-re optimalizálni, és már-már teljesen DX11 képes a drivert, és ha beraknád az ID-t az inf-be, gyönyörűen hajtaná az 5870-ES kártyádat (ha lenne olyanod). Illetve, ha akarják, betehetik az inf-be a sorokat úgy, hogy a drivert még HD4-hez írták, és csak DX 10.1-ig lenne képes hajtani a ES kártyádat, alig gyorsabban, mint egy HD4-et, néha bugok, és képhibák kíséretében., csak épp feltelepülne hozzá, és menne valahogy..."ATI Radeon HD 5870 X2 " = ati2mtag_R8X, PCI\VEN_1002&DEV_9451
-
janos666
nagyúr
válasz
TESCO-Zsömle #5024 üzenetére
Szerintem addig van hírzárlat, míg nincs hivatalos bejelentés.
Mondjuk a 4850-ről is csak 1-2 héttel a hivatalos megjelenés előtt volt teszt, de ott a forgalmazók hibáztak, és egy-két távoli országban eladtak magánszemélyeknek is egy pár darabot, aztán azok is körbejárták a világot, nem csak a tesztjeik.
Ja, és már volt aki a kezében fogta a kártyát, és neten mutogatta, mégsem volt biztos, hog 480 vagy 800 SP-s. Ha jól rémlik, már hivatalosan is bejelentették, mire valaki odáig jutott, hogy meghámozta a chipet, és megszámolta.
Én csak nostredámust játszom, mikor azt mondom, szeptemberben még 1 ph-s sem fog HD5-öst a kezében, vagy legalább is nem valami izmosabb, érdekes tipust, esetleg ilyen 5850, 8770... -
janos666
nagyúr
Szerintem se lesz 3 GPU egy nyákon, akkor már inkább 4db RV840 dualPCB-n, de az is csak vitrinbe valami promó shown.
A multimonitor kártya megint mi lenne? Úgy sem bír érdemben 2560-as összfelbontás felett dolgozni 3D-ben, már 2db FullHD is sok neki egyszerre, minek még több monitor, mint amit ma elbír a két duallink-DVI? Táblázatkezeléshez és karakteres konzolhoz be lehet iktatni PCI kártyát is. -
janos666
nagyúr
Arra legalább jó indikátor a pletykák felbukkanása, hogy kezdik már gerjeszteni az érdeklődést, tehát közeleg a bejelnetés is.
De persze lehet, hogy csak unatkozott valaki, összedobott egy kamuhírt, a többiek pedig szintén épp cikkhiányban voltak, és írtak egyet ők is / lehozták ugyanazt. -
janos666
nagyúr
válasz
TESCO-Zsömle #4973 üzenetére
Hogyne, persze.
Ezek az új pletykák tökre megerősítik a reális becsléseket: egy duplájára hízlalt RV770 (Bluegene kedvéért: Nem, nem lesz benne sem két UVD, tesseláló, és sideport rész, és egy esetleges ezeket érintő updgrade miatt sem híznak annyit, mint amit a csíkszél leszív a méretükből ->> De ha valódi a fénykép, és dualcore, akkor még az is lehet, hogy ezt-azt duplázni kell), a csíkszél és egyéb belső elrendezésbeli finomítgatások miatt még a DX 11 (pl új tesselátor ; és esetleges más apró újdonságok, mint pl. a sideport volt tavaj) valahol az RV770 környékén maradnak a méretek (vagy pont ott, vagy picit magasabban, mert amit kiszámolsz területarányt a csíkszélből, az nem adódik át lineárisan az újratervezés során, nincs tökéletesen kiaknázva a terület, ha nem piszkálnak mást is az architechtúrában, és most kellhettek plusz tranzisztorok a DX11 miatt, pl az új tesszeláláshoz, és ezek sosem bírják ki, hogy ne tegyenek be mindíg valami fesleges új cuccot az új GPU-kba, amit még 3 évig semmi se használ majd...)
Ezzel akkor kapunk egy RV770-től gyakorlatban ~80%-al gyorsabb chipet, ami egyes DX 10.1 játékokban túlméretes CPU mellett megüthet 100-110% többletet is.
Mindezt teszi úgy, hogy a GT300 (-nak nevezem most valami) még rejtély, annyit se tudni róla, mint erről. És ez most csak az emberek emlékezete miatt érdekes, mert ha veri majd az RV870-et, akkor hosszútávon az marad a koponyákab, hogy "de jó volt bevásárolni radeonokkal, nem hogy vártam volna még 2-3 hónapot". Ezt persze mindattól függetlenül, hogy addigra szép kis profitot termel az AMD, ez csak az "amire mindörökké emlékszünk". -
janos666
nagyúr
válasz
csatahajós #4962 üzenetére
Ja, odatettek valami 80nm-es chipet a bekeretezett papírra, hogy "Az AMD és TSMC első 40nm-es GPU-ja".
Vagy melyik képet nézed, mert ez, amiről most írtam, nekem pont hogy nem úgy fest, mint ha kettőt szorosan egymás mellé akarnának belőle tenni. [link] -
janos666
nagyúr
válasz
DemonDani #4942 üzenetére
Azért szerintem Quadro név alatt is el lehet még azt adni. Rendben, hogy most már vannak FireGL kártyák is, amit komolyan vesz az AMD, és nem nagyon halottam mostanában felőlük, de szerintem még mindíg kelendőbbek a Quadro-k, mint a FireGL-ek.
Márpedig, ha csinálnak egy chipet, ami egész jó Tesla-hoz (nagy haszonkulcsal), megfelelő Quadronak (közepes haszonkulcsal), és még eladható Geforce-nak (összességében haszon nélkül, vagy minimális haszonkulcsal, de még nem kimondott veszteséggel), akkor végül is még tolhatják egy darabig a szekeret.Ez most inkább arról jutott eszembe, hogy Abu mondta, hogy az Atom ellen jobbak lennének az esélyeik, ha dobnák a grafikához való cuccokat az SP-k és memóriavezérlő mellől. De akkor nem hogy végleg eldobnák a Geforce vonalat (amit egyelőre megérheti nyitva tartani még minimális veszteséggel árusított kártyákkal is, hátha úgy hozza a sors, hogy megéri bennmaradni a bizniszben), de kiesnének a Qadro kártyák is, amik nem is olcsók, és nem is szarok a célra most sem. Nem tudom, hogy betermelik-e azt a hasznot, amit azzal spórolnának, ha kiherélnék a GT300-ból a textúrázást, de elképzelhető, és így már megéri kiadni a nullhasznú Geforceot is, csak hogy "nyeregben maradjanak" még. Nameg valahol a Quadro kártyák területére is be lehet csempészni a cudar dolgokat, mint a Physx, vagy a GPU gyorsította videókonvertálás...
-
janos666
nagyúr
válasz
TESCO-Zsömle #4898 üzenetére
Először: ez nem szakértelem, csak laikus becslés, mert ez itt a "jóstopic".
Amúgy lehet, hogy amúgy is nagyképű vagyok mostanában, de ha menteni akarnám magam, akkor nosztalgiázás gyanánt elmesélhetem, hogy régóta ismerem már őt ahhoz, hogy tudjam, nem sértődős tipus Bluegene, akinek már nem is emlékszem a korábbi nevére, amit épp akkortályt bannoltak vagy 2x is, mikor megismerkedtünk az Rv770 jóstopickban. -
janos666
nagyúr
válasz
Bluegene #4896 üzenetére
Igen, ha képzeletben odateszed magad elé az RV770-et, körberajzolod, majd a chip tégláját a felére zsugorítod, akkor láthatod, hogy kettő is belefér a régi keretbe, vagyis mindent megdupláztál. Akkor innentől kezdve hogy pakolsz be több SP-t, mint a duplája? Ja, hogy nem teszel be melléjük ROP-okat és TMU-kat? Még az is lehet, hogy megcsinálják, bár nem hiszem hogy túl sikeres lenne a dolog, saccra hány százalékát használják ki az elméleti 1-1,5 TFlopsnak, 60%-a megvan legalább? Akkor tuti jól járunk ha pakolnak még SP-ket a többi alkatrész számának növelése nélkül.
Van jön a varázsvessző, és hirtelen minden érdemi feladatot dupla sebességgel ellátó ROP-ok és TMU-k kerülnek a chipbe, amik nem is foglalnak több helyet, mint a régi chipen?SP-ken kívül minden mást illene megduplázni, és elképzelhető, hogy az SP-k száma nem csak duplázódik, hanem mondjuk 2,5-esére is hízik, de sokkal tovább nem, ezért mondtam, hogy max 2000, de annyi se valószinű, 1600-al már tökre jól ki lehet békülni.
Ha duplázot chip lesz, frissített architechtúrával, esetleg közelebb a Ghz-hez, mint az 500 Mhz-hez, akkor simán lepipálja a CF hatásfokkal is hadilábon álló 4870x2-t, és ebből is lehet 2 chipes kártyát csinálni, amihez ha ütyködnek még a chipek közti kommunikáción, akkor 2,5-3x-szor gyorsabb lehet a 4870x2-től
És még erre jön rá a DX 11 támogatás, ami már akkor is eladná az egychipest kártyát, ha épp csak, hogy nyaldosná a 4870x2 teljesítményét (mert DX 11, és mert olcsóbb is lesz, attól elvonatkoztatva, hogy már ma sem forgalmazzák azt a VGA szörnyet).Az nv-vel pedig nem kell még versenyezniük pár hónapig, azalatt kihozhatnak egy új revíziót, ami magasabb órajelen is üzemeltethető, vagy félretehetik a válogatott chipeket, és gyári OC gyanánt jön ki egy 5890-es és/vagy x2.
-
janos666
nagyúr
válasz
Sheltem77 #4891 üzenetére
Csak 3200, miért nem rögtön 10k, vagy akkor már 20?
55-ről mennek le 40nm-re, ami számtanilag ~53%-ára csökkentheti a területet, de ez leges legjobb esetben, a felépítés további finomítgatásával együtt is jó ha annyit megengedne, hogy egy mindenben duplájára hízlalt RV770-et csináljanak, azonos mérettel. Ha kicsit elrugaszkodnak a méretekkel, és nagyobb lehet valamivel, mint az RV770 volt, akkor lehet mondjuk duplázni minden mást, és mellé még növelni az SP-k számát mondjuk kerek 2000-re, és mellé még beépíteni a DX11-hez szükséges elemeket is, de nem valószinű, hogy nőne a méret. Ha nem akarnak nagyobb méretet, mint az RV770 volt, és nem készülnek csodát tenni, akkor tök reális a lineáris duplázás, miközben bekerülnek a DX 11-es elemek. Vagy egy kancsó bort is csomagoljanak neked a kártya mellé, amit vízből változtattak 600 éves Tokai borrá? -
janos666
nagyúr
válasz
Gonosz15 #4886 üzenetére
Ne vegyétek sértésnek, de lassan leálhatnánk ezzel a fajta offal, a net fele úgy is pornó és társkereső, ide viszont másért járnak az emberek.
Mi a legfrissebb időpont egy izmosabb HD5 várható megjelenéséről? Remélem még előbb megjön a cserére váró 4870x2-m (ha cserélik egyáltalán), de mire sikerül eladni, addigra ittlesznek.
Amúgy mi az optimális kapacitáskiaknázási terv? Kettőt kiállítasz az út szélére, hogy megkeressék 4-ük kosztját, kvártéját, és sikerességtől függően a következő telefonod/PC-d/kocsid árát, egyet megtartasz otthonra háztartásbelinek/könyvelőnek, egyet pedig magadhoz veszel?
Vigyázni kell, mert a VGA-kon max csak a vételárat bukod. Ha ezek 4-en megörögednek melletted, akkor nem hogy "áron alul" nem tudsz rajtuk túladni, de ha sokáig ottfelejtődnek, akkor lesz 4 minimálnyugdíjas asszonyod öregségedre, akiket eltarthatsz. -
janos666
nagyúr
Hát, sokmindent el lehet képzelni a tények és az egyhangú következtetések mögé. Tömören ugye ez a kettő áll sorba:
- Az MS az nv kedvéért hajlandó volt lebutítani a DX 10.0-át.
- Az MS az ATI(MD) kedvéért úgy trükközik a DX-ekkel, hogy az nv szopjon.
Tény:
Az MS új Xboxaihoz jelenleg az AMD adja a chipeket, miután összekaptak az nv-vel.
Más:
Szerintem mára eljutottunk oda, hogy gyakorlatilag csakis a DirektX tartja monopol helyzetben MS-t OS piacon (és ha az nincs, borul az egész kártyavár). Elég közel állnak már egyes Linux disztrók ahhoz, hogy az árakat és szolgáltatásokat együttesen figyelembe véve leváltásra kerülhessen a Windows az otthoni felhasználók körében (és ezzel a már most is vegyes céges felhasználói területen is átbillenjen a mérleg). Tulajdonképp már csak a játékok futtatása az, ami amit nem lehet pótolni Linux alatt, ha megnőne a felhasználók tábora, hamar kinőhetné már a többi gyermekbetegségét a többi linuxos alkalmazás (pl. profi filmlejátszó védett blurayhez, és hasonló, csak annak kérdése, hogy megéri-e megcsinálni erre az OS-re is, vagy sem - az akár fizetős programot is).Ennek tükrében akkor hajlandó lett volna az MS lebutítani a DX 10.0-át az nv kedvéért, hogy ez se tolja a Vista amúgy is defekttel rajtoló szekerét? Kockáztatna az MS, hogy hamarabb érjen véget a DirectX biznisz, mint mielőtt visszajön a software renderer? Az Xboxok is DirectX-re alapoznak, innen a dupla hasznon, hogy vagy Xboxon, vagy legalább Windowson játszol vele, a Sony egy konzolos frontja ellenében (bár nem tudom nekik kellett-e DX licens, vagy fogalmam sincs milyen API-t használ, lehet hogy mást, bár fura lenne a multiplatform enginek miatt).
És itt bújkál még az árnyékban, hogy a 10.1 véletlenül épp olyan újításokat hozott, amiket nagyon könnyű volt beépíteni az R600-ba, de nagyon nehéz lett volna a G80-ba. Sok a véletlen, és az "először úgy nézett ki a 10.0, mint ma a 10.1" ott bukik, hogy azért az R600-hoz is hozzá kellett nyúlni egy picit. Miért butítottak volna az R600 chipen, hogy később driverfrissítéssel ne lehessen DX 10.1 komapatibilis a 2900XT is? (főleg minek piszkáltak volna rajta, mikor örültek hogy végre ki tudják adni valahogy)
Az még hihető lett volna, hogy újfent lepaktálnak az nv-vel, lesz még 3. xbox is, de akkor miért dobták ki ilyen hamar a 10.1-et? Így hamar eldőlt volna a létra az nv alatt, trégebb óta van már kint a 10.1, mint amit a 10.0 futott. Megérte ezért csorbítani a Vista hypon, hogy a G80 még elkeljen (a partnerük kártyái ellenében)?
Vagy szebb és hihetőbb mese az, hogy az MS az AMD-vel paktál, így orrba szájba küldik az nv-t, mikor épp lehet? Főleg azok után, hogy az FX-eknél ez még észrevehetőbb? Nem tudom ki emlékszik még arra az időre, de én már akkor elhittem, hogy azért szarok az FX-ek SM2.0-ban, mert az MS így tett keresztbe az xbox ügy miatt, és azóta mintha csak ismételgetné magát a történelem.
De majd kiderül, ha 11.0-ás Geforceok rajtja után 1 éven belül kijön a 11.1, hozzá a frissített radeonokkal, bár ennyire még az MS sem lehet beképzelt.Továbbvíve ezt a gondolatot, épp ennek veheti elejét az nvidia akkor, ha tényleg mindent csak amulálnak a textúrázások kívül. Akkor driverfrissítéssel lesz megoldva a DX 11.1 (amit így persze már ki sem jön, mert nem lenne értelme).
Najó, most más abbahagyom, mert kezdek hinni a saját maszlagomban, és 5 év múlva erre tényként emlékszem majd vissza.
-
janos666
nagyúr
válasz
Dark KillerX #4874 üzenetére
Hol készült ez a kép (a 2. csaj melle fotoshop?)? Én is az elsőt választanám az 6-ból. Bár megszóllalásig hasonlít valakire, akivel eleget voltam már egy légtérben, hogy emlékezzek rá (félek, hogy épp egy távoli rokonom, volt már hasonló szitu így netes képpel, remélem inkább TV-s
).
Mondjuk attól függ, hogy a csajt is 1-2 éven át bérelem-e azért ~300k-ért 27/7-re, mint amiből kijön a két GTX és az alaplap, mert ha csak 1-2 estére, úgy inkább kérem a VGA-kat deszkástól(#4869) - Majd elküldöm emailben a google-traslate verziót Uwi Boll-nak, hátha ráharap, és összedob egy moziba szánt oknyomozó dokumentumfilmet. Majd leforgatjuk itt pesten, úgy is ismerek pár statisztát, akik elég agyamenteka szerepekhez (a többi meg úgy is bevágott grafikonok és tájképek a narrátor alá).
-
janos666
nagyúr
Az a gond, hogy, mint alattam írták már, nem igazán működnek a szűrők (AA és AF) Crysis alatt. Legjobb esetben csak kicsit lassul a játék, és kicsit jobb lesz a kép, de olyan is megeshet, hogy a kép egyenesen rosszabb lesz, és sokkal lassabban fut a játék, mint illene neki, még akkor, ha működne a szűrés (mert nem lenne technikai akadálya).Az AF nem működik a POM effekt miatt (amitől például olyan szép térbeliek a kavicsok a tengerpart homokjában). Elméletben egyáltalán nem működhet egymás mellett a POM és az AF, csak néha sikerül driverből kitrükközni valamit, ami talán kicsit több, mint a semmi (de máskor lehet rosszabb, mint AF nélkül, és lassítani biztos lassít, ha üzemel, akkor is ha semmi látványbeli különbség nincs, de mivel inkompatitbilis, így nagy lehet a lassulás mértéke -> hibásan, szarul üzemel -> bugzik, túlontúl lassít).
Az AA bonyolultabb, az összeveszik pl a beépített éldetektálással, ami pl a fák lombkoronáján sokat javít. De ott az AA állítható menüből, ilyenkor kikapcsol ez a szűrés, összesik a fák lombkoronája, de itt-ott lesz AA, de még mindíg nem mindenhol, mert itt is akadhatnak technológiai problémák az MSAA-val.
Szóval Crysist AA és/vagy AF-el tesztelni hamis eredményeket ad. Teljesen irreleváns egy VGA megítélése szempontjából, rosszabb, mint elavult 3DMarkot futtatni enyhén CPU lmites beállítással, mert rengeteg FPS tűnhet el az inkompatibilitás dacára erőltetett szűrések keltette bugok miatt, vagy épp megszaladhat a számláló, mert be sem kapcsol az AF, illetve nem is simít minden élt az AA (de ez véletlenszeű pillanatnyi dolog, mikor hogy működik).
Ugyan az a kártya eltérő driverekkel is sokféleképp viselkedhet, és ez a másik kártyára is igaz, összehasonlítási alapnak elfogadhatatlan szituáció.Olyan, mint ha azt mondanád az a jó korlát, ami Józsit is megóvja, ha részegen akar sétálni a lépcsőn, és tesztelgettek. De nem írjátok elő, hogy Józsinak hány felest kell elfogyasztania, hány perccel, csak "legyen rászeg, azt kész". Nem beszélve arról, hogy a részeg ember amúgy sem beszámítható, tehát semmire sem jó teszt, hogy a részeg Józsi átfordul-e az X cm magas, és adott geometriájú korláton, vagy sem, mert holnap ugyanannyi feles után leesehet onnan, ahonnan ma lelökni sem sikerült.
-
janos666
nagyúr
válasz
tzsolesz #4866 üzenetére
Mondták, legutóbb pár Linux fant kergettem az őrületbe a Windows E kapcsán, miközben csak röhögtem itthon a fotelemben (magamon is röhögtem persze).
Én is szűrők nélkül toltam. Most nyáron is elővettem, és csak ámultam, hogy milyen jó játék ez. Egyrészt azért, mert 1920-ban sokkal szebb is, mint mikor 1440-ben próbálgattam megjelenésekor (nameg akkor TN panelem volt, most S-PVA), másrészt, mivel szűrők nélkül VeryHigh-on is simának mondhatóan elvitte a 4870x2, így felfedeztem, hogy a játékmenet is tök jó.
Crytek fórumtárs emlegette a MAX szűrőket, amiatt kezdtünk el beszélni róló, és direkt arra akartam neki irónikusan utalni, hogy ne erőltesse azt a MAX AA-t Crysisban, főleg ne ez legyen neki a mérce VGA-k terén. Az már csak emmlékes, hogy kitértem rá, hogy végképp de ne Radeonokon akarjon MAX AF-et Crysisra, ha már ez minden vágya.
-
janos666
nagyúr
Nekem van egy bamulatos teóriám, ami választ ad kérdésre (még akkoriból, mikor debütált a HD3870/50), hogy hogy is van ez a DX 10.1
Tömören:
Volt Xboxunk nvidia chippel, aztán mit ad isten, mikor az új konzol chipjeinek árazása körül összevesztek az MS-el, jött egy FX korszak, amit a DX9.0a körüli kavarásokkal tarkíthatunk. Később az nv összeszedte magát, az SM3.0-val be is előzte az akkori ATI-t. Aztán mikor már túl voltak az új boxon, és szorosra fűződött a barátság az ATI és MS közt, akkor jött a DX 10.0. Mit ad isten, a DX 10.0 csakis egyetlen olyan generációt élt meg, melybe az ATI (közben később AMD, mint jogutód, de addigra már a rég megírt forgatókönyv zajlik) csak egy eleve bukásra ítélt hardverrel szállt be. Előre sejthették már, hogy szar lesz az R600, de tudták hogy úgy is gyorsan leváltják, így legalább szar lesz az egyetlen 10.0-ás hadver, aminek fényében még jobb lesz az új 10.1-es. Mikorr az nv kész volt egy DX 10.0-ás hardverrel, amiről sejthető volt, hogy már nem csak grafikára készül, így kevésbé rugalmas a felépítése, az R600-at pedig eleve úgy tákolták össze, hogy nem gond ha most még szar, majd később jó lesz, egycsapásra rögtön előrántották a DX 10.1-et. Hiába ígérgették, hogy nem lesz mindenféle alverzió, mint DX9-nél, hogy SM 2.0, 2.0_b, 3.0, és egyebek, egy generációt sem futott ki rendesen, máris leváltották a 10.0-át a 10.1-el (SM4.0->4.1), és a korábban behypolt 10.0 már hirtelen szart sem ér, hisz a 10.1 mennyivel, de mennyivel okosabb. (A hosszú évek alatt gondosan fejlesztett 10.0-át fél évbe sem telt nagyságrendekkel jobbá tenni, arra sem volt idő, hogy gyakorlati tapasztalat alatt bukjanak ki a gondok.) Mit ad Isten, a Radeonok könnyen veszik az akadályt, mondhatni DX 10.1-re termettek, a Geforceokon pedig túl nehéz lenne átpofozni a chipet, főleg így, hogy 1 generációt élhetett még csak az egyébként sikeres G80 (és már dobjuk is ki, mikor GPGPU-nak meg jó?).Na, valahogy így születhetett egetverő hiányosságoknak is nevezhető lukakkal tarkított DX 10.0, de jöhetett rögtön a megváltó DX 10.1, ami betöm minden lukat, és az ATI(MD)-nek már vannak is hozzá hardverei, az nvidiának meg sosem lesz, mert mire behozná, addigra többet ér bevárni a DX 11-et. (És ez is jó terv lett volna, mert ha nincs ennyi gond a 40nm-el, és jobban sikerül a propagandahadjárat, akkor ki is húzhatták volna emelt fővel a kb. napjainkban megjelenhető új DX 11-es kártyájukig.)
Bocs, de ez is van olyan mese, mint amit te adtál elő arról, hogy a nvidia azért basszatta el a DX 10.0-át az MS-el, hogy CUDA legyen helyette. (Te figyu, MS, nem akarod elkúrni a saját zárt szabványod, hogy az enyém befuthasson? Végül is neked csak azért kell, mert egy Windows-t akarsz vele eladni, ami élteti a többi eladásod, de nélküle senki vagy...? Naaa...)
-
janos666
nagyúr
Hát, alapvetően azt szerettem volna, ha Crytek fórumtárs teszi fel magában ezt a kérdést, amit most te (mi is az a max?).
Ő írta (#4843)-ben:
Én majd olyan VGA-ra akarom lecserélni a 8800GT-met ami viszi majd a Crysis-t és a Warhead-et 1280*1024 very high max AF ás max AA mellett.Ki akartam ábárándítani a tervéből, hogy a MAX-ra tolt AF-ről és AA-ról álmodjon (ábrándozzon inkább minél nagyobb felbontásokról, és gyönyörködjön a POM effektben AF helyet...), tehát most épp, hogy a te elveiddel is összeegyeztethető szándékkal hoztam fel a témát. Csak úgy tűnik az ő irományai felett elsiklottál, és így az enyémben pedig a multkori vitánk folytatását (vagy inkább sokadik újraindítását) találtad meg. (Pedig ez most tényleg nem az akart lenni, ott már elfogadtam, hogy sosem jutunk közös nevezőre, mert csak egymás mellett beszélünk, nem is vitatkozunk, így még ha mindketten igazat mondunk, akkor sem jutunk dűlőre soha, nem hogy az kiderül kinek nincs igaza a konkrét példára szűkített kérdésben.
)
(#4861) zack - Biztos függ ez driver verzióktól, de talán még játékpatchektől, és a többi cvar érétkétől, amiket nem nézünk. A konkrté összehasonlítás talán még 8.x-es driverrel történt, bár inkább 2009 eleje rémlik (nem is én csináltam a képeket).
-
janos666
nagyúr
Hmm. A múltunk ezúttal befeketítette a jelent.
Kivételesen nem ezt a mondókámat akartam most újra előhozni, hanem ha elolvasod végig, akkor látod, hogy csak szösszentem valamit arról, mi is az hogy MAX-on menjen a crysis AA/AF-el, és mi mindenre jó az a recsin kívül.
Amúgy nem teljesen alaptalan az AF rész, rágebben nézegettem screenshotokat is, ahol a driverből erőltetett AF krisszi alatt mindkét kártyával szar, persze, de nv-nél mindíg mindíg sokkal közelebb áll a "mint ha csinálna valamit"-hez, mint a semmihez, amit a radeonok csinálnak. Jelen esetben azért mertem felhozni, mert ilyen MAX-ra gizdulunk a téma, és ha MAX kell, akkor jobban jár a "kicsit mintha"-val, mint a kevesebbel. Az AA meg megint a rejsznyág, mert nem ő lenne az első, aki beállít, hogy "hova lett a menüből a 16xQ mióta radeont tettem a gépbe, mi az hogy nem tudja?" -
janos666
nagyúr
A későbbi problémák elkerülése végett, már most szólok, hogy inkább Geforce alapokon építgesd a Crysis_MAX prjektedet, mert több buktatóval is szembekerülhetsz göröngyös utad során.
A kisebb gond az lehet, hogy a Catalyst nem fog AF-et erőltetni a játékra, míg ki nem kaocsolod a POM-ot a játékban, de akkor úgy összességében is szarabb lesz a kavicsos föld és padlók minősége.
A nagyobb baj talán az, hogy Radeonok esetében az elméleti MAX, az a 24x CFAA, nem pedig a 16xQ CSAA, ami sokkal lasabb is, de ami a leg égetőbb kérdés, hogy a játék menüjében csak 8x MSAA jelenik meg, akkor is, ha CCC-ben rarákod az edge detect filetert, hogy 24x-nek feleljen meg.
Tehát mikor áthívod a haverokat, akkor a hozzáértőbbek (de nem engedékenyebbek) azt kifogásolják majd, hogy hiába van 16X-re tolva az AF csúszka, semmit sem csinál a képpel. Ha viszont letiltod a POM-ot, akkor az tűnik majd fel, mert mindenhol szarabb lesz majd a talaj minősége. Ha ezt kidumálod valahogy, akkor jön a nagyobb gond, mert V.Isti, és a 13 éves érsekbíboros kegyencei nem fogják neked elhinni, hogy az a 8x MSAA valójában 24x CFAA, mert hát rendben, hogy a CCC megmondta, hogy az 24X-nek felel meg, nade az imént az AF csúszkát is totál feleslegesen toltuk fel 16X-re, nem csinált semmit, akkor az AA csúszka sem fog itt nekünk 8x-ből 24-est varázsolni, "akkor kiírná a játék menüje is!".
Javaslom keríts egy x58-as lapot, először tegyél bele két GTX295-öt. Nincs más megoldás.(Főleg, hogy valószinűleg DX11-es Geforceokkal nem fog már működni a bruteforce AF, és talán még a CSAA módokat is megvariálják, tehát nincs menekvés...)
De mondok jobbat, vegyél inkább 1920x1200-as felbontású monitort, valami xVA, netán x-ISP panellel, és azon natív felbontásban sokkal szebben fog mutatni a Crysis, AA és AF nélkül is, mint 1280-ban 16x AA-el, miközben még megbírkózik vele egy szem 4870x2.
Ha viszont ilyen "alávalóak" a vágyálmaid, hogy a felbontásból nem hogy 2560 nem kell, de még FullHD sem ahhoz, hogy MAX-nak hívd a beállításokat, akkor tegyél magadnak egy szivességet, és állítsd inkább 800x600-ba, és már ma este nyugodtan alszol, mert úgy beveszi a 16xQ CSAA-t egy GTX270 is.Sok sikert, majd írd meg a fejleményeket.
-
janos666
nagyúr
Crysis alatt szerinted milyen grafikont firkált a taskmanager a Q6600 3600-on járó magjaira? Mert, hogy oda még nem is tökéletesen elég a 4870x2, 1920x1200, DX10-VeryHigh módban.
De épp ma szórakoztam a Half-Life 2 Episode Two-val, úgy hogy -thread 4 kapcsolóval indítottam, és beadagoltam a 4 konzolparancsot, hogy amit lehet többszálúsítson. Szinte hihetetlen, de az 1-es mag ment ~35%-on, az 0-ás 20 körül, a többi meg firkált a grafikon legalján, néhány kis tüske volt benne úgy 10%-ig, de az bármitől lehet (futott utorrent, miegymás... -> ezt rivatunerrel olvastam le).Másik: Az imént írtam, hogy szerintem túl sokat vártok az RV870-től, és túl keveset a GT300-tól (és ezért lehet még meglepődni), erre megmagyaráztátok, hogy milyen keveset lehet várni a GT300-tól, és milyen sokat az RV870-től. Köszönöm.
Van erre egy mondás, úgyis tudod melyik...
Még épp ez szúrja nekem a szemem, hogy a GT200 egy duplájára hízlalt, és ráncfelvarrott G80, ehhez képest mégsem gyorsult sokat a való életben. Ha feltételezzük, hogy sikerül megint 70-80%-al kövéríteni a chipet, amivel még épp csak ott liheghetnének az RV870 nyakában, reménytelenül, de valamit alkotnának a chipen, és felszínre kerülne az, ami a GT200-ban elveszett a kazalnyi tranyó közt a nyers erő mögött, akkor történhetne meglepetés. Ez nem annyira lehetetlen ennyi idő alatt, mint az RV790-et megduplázni, hisz itt kisebbet esik a sávszél, és kevesebb helyen lehet már trükközni a GPU felépítésével. Az R600-ból kisajtolták már a nyers erőt, amit trükökkel kilehetett, a GT200 pedig nem ment úgy, mint a felépítéséből adódóan illett volna neki... -
janos666
nagyúr
válasz
Dare2Live #4372 üzenetére
Hogy ne lenne már vad, én vevő lennék a machete-re, ha nem lenne már itthon egy.
Ha nem oldalról is kipárnázott fotelben terpeszkednék, már le is fordultam volna egy székről, mikor a #4366-os hsz-t olvastam (közben egyszerre röhögtem volna, miközben a szánalom kapaszkodik fel a lelkem mélyéről -> egyrészt mert leestem egy székről, másrészt amiatt, amit nemrég olvastam)
Nincs ennek semmi akadálya, csak egy nagy piros paca a monitorodon, amit le kéne törölni egy kis szesszel, és már látnád is az alatta lévő zöld téglalapot, amit nem hoz le a nitrohígító sem.Szerintem ebben a körben részben megismétlődhet az az R600 történet.
Nagyon kilóg a pakliból, hogy könnyen alábecsülik már az nvidia-t. Még sok nv-fan is fél attól, az AMD-kedvelő pedig biztosak benne, hogy túl későn jön, nem lesz elég gyors DX10+ alatt, és mindemellé még drágább is lesz, mint a konkurencia. Ha ezt készpénznek veszik, akkor jön a java:
Itt lesz a HD5, amivel szerintem DX9_10-ben (ezalatt értsd a sima DX 9-et, és a 10-nek csúfolt 9-et, de akár még a natív 10/10.1-est is, utóbbinál úgysem lesz ilyen program fókuszban akkor sem, ahogy ma sincs a Stormrise, Battleforge, stb...) nem tudnak majd kellően nagy teljesítményjavulást hozni. Ehhez képest ilyen oldalról túlárazott lesz. Mutogatják majd a DX 11 techdemókat, és talán 1-2 nagyobb cím is oda lehet tolva a promóanyagra, mint "come sooner than you think", de azt is tudjuk, hogy jön még valamikor DX 11-es geforce is, akár ide is ér addigra, mire igazán nagy nevek jönnek DX 11-el. Szerintem amíg nincs geforce, addig csak a jól megszokott "Igen, most még nem, nadehamajd jön a DX 11, akkoraztán..." duma megy majd (mint jó pár éve 10.0-val, és újabban már 10.1-el, mindjárt jön, jön, jön már, tegnap már itt volt, csak nem láttad, holnap már tuti!!!), utána pedig ki tudja még mi lesz.
Tehát, amíg nem lesz 1-2-nél több DX 11-es húzónév, addig DX9_10 alatti teljesítményeredmények miatt nem fognak annyira rohanni az emberek a HD5-ösökért, főleg aki nemrég betárazta a 4890-es(eket), vagy az olcsósított 4870x2-(ke)t. Mire jönnek a nagy nevek, addigra jön az új Geforce is.
Az nv sokat lazsált mostanság, ebből a helyzetből nem nehéz magához képest nagyot ugrania, márpedig az elég lesz hogy visszavegye minimum az egál helyezést. Most is egész jól húzták G90-GT200 chipekkel RV770/90 mellett is, ha magukhoz képest most alkotnak egy nagyot, az AMD pedig csak előre dörzsöli a tenyerét, lehet még meglepetés...
-
janos666
nagyúr
válasz
DemonDani #4321 üzenetére
///UltraOFF Persze, hogy ne, más se hiányzik már. Uncsi manapság az élet, egyre kevésbé Istenfélőek már az emberek, a terrorizmus poént is ellőtték, most a válság-mizéria sem tarthat örökké, kellene már valami igazi kis rettegést csempészni a mindennapi emberek életébe. Kéne valami jó kis "modern kori inkvizíció", régen égettünk már boszorkányokat, nem fosnak eléggé azok, akik nem egyszerű zombik, és nincs ami táplálja a zombik hitét.
Küldjünk pszichiáterhez minden szerencsétlen kisgyermeket, és akkor már miért ne kezeltessünk minden csoportból legalább 1-et, és basszuk el az életét, mert mi van ha a 100000-ből 1 sorozatgyilkos lett volna, és így már ennek valószinűsége 50%-ra csökkenhetett (de 99999-nél 5-ről 40-re nőtt).///Tetszik ez az UltraOFF szó.
Bluegene - Hát... Szerintem épp a Crysisban a leg élethűbben az arcok.
Ez ismét egy pont a fotorealisztikus képek mellett. Attól még ha fémlemezekkel borított űrhajókon, és idegen bolyókon mászkálsz a játékban, mindenféle idegen lény közt, attól még az embereknek lehet megtévesztésig emberi arcuk. Ebben a részletességben szebb lesz az idegen lény feje is, ha mondjuk emberi koponyából indulnak ki, és azt marcangolják, míg valami érdekes lesz, illetve más állatok geometriája is lehet kiindulási alap egy olyan mesebeli lényhez, ami semmilyen földi állatra nem hasonlít (jobb lehet a vége, mint ha egy téglát, vagy egy ellipszoidot kezd el formázni).Ez a fotorealisztika egy mérce. Nem úgy kell rá gondolni, hogy az a tuti, ha a játék egy az egyben a való életet adja vissza. Az én elgondolásom, hogy attól a szinttől kezdve nem kell már majd foglalkozni a grafikai motorokkal, és számítási teljesítménnyel, ha ezt már elértük, mert ha képes átverni minket, és a valósággal összetéveszthető képet tud alkotni, akkor azzal már bármit meg lehet festeni, amit megálmodunk, és csak a tehetségen/szorgalmon/időn/pénzen/STB-némelyik ugyan az/ múlik, hogy mit sikerül megalkotni (akkor is ha teljesen absztrakt, kitekert, vagy scifi stílusú az atmoszféra).
Az Assassin's Creednek tényleg gyönyönyű a látványvilága, én főleg a színsémáit imádtam (azzal együtt, ahogy a HDR és az imitált felhőárnyék megfestette a terepet).
-
janos666
nagyúr
Hát, ez a videó így, ahogy van, engem nem hozott lázba, sőt...
Ha nagyon erőltetni akarnám még én is összedobnék egy ilyen klippet, mondjuk akkor már stílusosan geforceokat emlegetve.De nem is emiatt.
A DX 8.1 nagy dobás volt a 7 után, és a 9.0c is a 8 után, de itt sem nagyon látszott, hogy a 10.0 és 10.1 mit hozott. Vagyis épp az látható, hogy eléggé degressszív ez a növekedés.(#4315) - Ja, aztán reggel még félig betépve ébredsz, kimész az újságért, meglátod a szomszédod, és végrehajtod amit tegnap 10x is begyakoroltál a monitor mellett flesselgetve. -> Jó, hülye poén, csak azoknak szól, akik már a GTA-t is be akarták tiltatni.
(#4304) - Részben igen, részben nem. Bár ezt csak arra fejtegettem, hogy kinek mikor esett le, és ki hiszi hogy renderelt az arc, és ki nem.
Azzal én is egyetértek, hogy nem poén beülni a gép elő, és a valóságot játszani. De itt filmrealisztikus megjelenítésről volt szó. Márpedig sok film van, amit kamerákkal vettek fel, mégis eléggé elüt a látványvilág a valóságtól. Nem is feltétlen a digitális post-process miatt, elég ha a díszletekre elég hangsúlyt fektettek.
Így kell visszagondolni, hogy mit is lehet kihozni egy olyan géppel és technológiával, ami képes megtévesztően visszadni a valóságot is. Attól még lehet tovább szinezni, de jobb mint egy négyzetes fejű ember, vagy egy maszatos szörny, hogy alig látod mi akart ott lenni. -
janos666
nagyúr
Ha nem ebben a topicban lett volna linkelve negem szerintem átbasztak volna vele ilyen minőségű videó mellett.
Persze mivel innen vezetett a link, sejtettem, hogy lehet az a csattanó, hogy a nő animálva van, így kerestem is a hibákat, és találtam is. A szeme nagyon furán állt, mikor viccelődött, hogy rengeteg munka van még, és szar ez amit ma tudnak csinálni. Illetve ugyan ebben a részben mikor vagdalva van a videó, akkor az erősebb érzelemkifejező gesztusai furák.
Persze, nyugodtan lehetne a nő egy picit kancsal, és még szinésznőknek is becsúszhatnak fura gesztusok, nem hogy egy ilyen "ülj oda, és olvasd fel a bemutatóanyagot" akárkiknek. Tényleg csak azért tűnt fel, mert kerestem a poént a riportban.A 4db RV770 GPU csak a nő arcát renderelte, és a háttér fixen oda volt vágva, vagy az is lemodellezett és élőben kirajzolt cucc? Mert ha így nézzük egymagában csak az arc, még nem akkor "húde" 4 GPU-nak, kéne még vagy 4 másik a háttérnek, és még 4 a teste többi részének.
-
janos666
nagyúr
válasz
tzsolesz #4290 üzenetére
Szerintem olyan ez, hogy ha lenne alatta kellő TFlops-os GPU, akkor már SM 1.1-el is realtime renderelhetnének a valósággal összetéveszthető videót.
A fő limitáló tényező a nyers erő. Ezt követi az emberi tényező, vagyis a programozó. A fejlettebb programkódok csak enyhítenek ezen a két problémán.
Tehát DX11-el sokkal könnyebben oldja meg a programozó amit szeretne (adott idő alatt, és véges emberi képességek mellett többre jut), mint mondjuk ha csak 1.1-es shaderekkel dolgozhat, és csak első generációs OpenGL alól (DOOM3). Valamint, a fejlettebb eljárás hatékonnyabban oldja meg a problémát, ezzel csökkentve a nyers erőforrásigényt.
Vagyis az újabb és újabb DirectX-ek és OpenGL verziók is segítik a látványvilág gyarapodását, de még fontosabb a nyers erő.Ma szerintem mindkettő kezd túlfutni. Már a DX10 egyes vonulatai is olyan túlzásnak tűntek, mintha úgy gondolkodott volna az MS, hogy "bebiztosítottuk magunkat, hogy elég legyen, mígcsak bárki emlékszik a DirectX-re". Aztán mégis megy a nyafogás mennyi más dolog hiányzott belőle, ami megért egy DX 10.1-et, és most a 11-et is volt hova fokozni.
Teljesítményoldalról pedig már több GPU-hoz kell nyúlni, amik öntik magukból a hőt. A csíkszélesség pedig nem csökken a végtelenségig.Egy nagy ugrással (mint amit pl akkor láttunk, mikor elkezdték használni a GPU-kat, vagy később a DX8.1-et) még várnék. Ezt most sokan a software renderinges sugárkövetésben misztifikálják, de az alá is oda kell tenni a vasat rendesen.
-
janos666
nagyúr
válasz
schwartz #4210 üzenetére
Ők EMT64-nek nevezték el az x86_64-et (tehát akkor is hívhatnák QPI-nek, ha egy-az-egyben HT lenne), és kényszerűségből nyúlták le. Ők egy új, x86-al visszafelé nem is igazán kompatibilis utasításkészletet akartak az új chipekbe. Az AMD meg előállt ezzel, mikor épp jól állt a szénája, így kénytelenek voltak kopyzni.
Az IMC meg annyira lenyúlás, hogy ennyi erővel ha egy cég kitalál valamit, a másiknak tilos valaha is azzal hasonlót alkotni.Neo meg eleve egy balfasz. Nem elég hogy rájön, még akkor is csak álmodik, mikor már azt hitte felébredt, és el sem mondja a többieknek, de még megvakítani is hagyja magát, illetve mégis érdekli mi történik az egyel magasabb álomvilágban, nem akar már abból is felébredni, inkább még a belsőbb álomban akar rendet tenni...
-
janos666
nagyúr
Hétfőn figyeltem, hogy mindenki foshat az M0-ástól, mert a jobb sáv dugig van, és 90-el vánszorog, a bal meg csont üres. Kicsit beugrottam, és megfeledkeztem magamról, aztán ott verettem egy B2500-assal 150-et vagy 20km-en át. Szűkösen, de elfért az a kamionok mellett is, a 160 már a 7-esen volt, és igaz, hogy csak egy hosszabb előzés erejéig. És akkor én még nem is vagyok sebességmániás, csak hosszú volt az út itthonról Siófokig, és unatkoztam.
A példa lényege az akart lenni, hogy vannak azért egész jó köztes megoldások, csak a technológiák kiforrottságának kérdése. Kiváló nem lesz egyikben sem, drágább is lesz egy célra megvenni, mint egy olyat, ami ugyanazt tudja abban az ágban, de végül is mindkettőre igen jól alkalmazható (de elégségesen tuti).
-
janos666
nagyúr
De egy jó terepjáróval kicsapathatsz a sárba (nem rallira, de a termőföldre esőben, elakadás nélküli lendülettel...), és ha elereszted a lábad kitolhatsz belőle ~150-160-at autópályán, attól többel meg semminek se kell nyomni közúton (főleg tartósan, nem beszélve a kamerákról...).
-
janos666
nagyúr
válasz
schwartz #4150 üzenetére
Nem azzal van itt a gond, hogy rewiev verziós a játék, hanem hogy az nv szerintem még nem csinált hozzá drivert (a játék készítői az első rész alapján ott tettek keresztbe a geforce-oknak, ahol tudtak, ennek egy részét sikerült orvosolni driverekből, valószínűleg itt is sokat javít majd a bolti megjelenés után pár nappal/héttel megjelenő driver...).
-
janos666
nagyúr
válasz
South Velen #3959 üzenetére
Nekem szépen telerajzolta mind a 4 magot a taskmanager, mikor GTA IV-el próbáltam. Persze csak az 0-ás mag plafonozott roskadásig 95-100 körül, a többi 80 körül firkált, néha lentebb, 100-as csúcsok nem is voltak. De az uccsó 3 mag kb egyformán stagnált. Lehet, hogy közrejátszik, hogy a Catalyst is használ már elvileg 4 magot is, de nem lehet, hogy az 1.0.0.3-as patchel már 4 magot is bevon maga a játékmotor? (épp ennél az uccsó patchnél olvastam, hogy optimalizálták a fizikát, lehet ez volt a legfőbb optimalizáció, egy újabb szál...)
-
janos666
nagyúr
Ígyvan. Mikor 512Mb VRAM-al futottam neki, annyit láttam belőle, hogy vagy gyenge a képminőség mediumon, vagy eltűnnek a textúrák, ha nomemrestrict-el high-ra tolom, de még a memórialimitet betartva is akadozik 1920-ban. Ebből leszűrtem hogy egy fos a program, talán patchekkel jobb lesz, de nem lett.
Viszont 4870x2-vel meg is jelennek azok a high textúrák, és elég is a javarészt sima, átlagban is tűrhető futtatáshoz, és olyankor néha csak ámul az ember, mik vannak a monitoron, ahhoz képest mekkora teret belát, és elgondolkozik, hogy talán nem véletlen kellett legalább 1Gb RAM, és két ilyen GPU is. Persze Cryengine-el is be lehet látni nagy tereket, és összességében szebb, de nem lehet minden motor A legjobb, és emelett ez szórakoztatóbb játék is, és sok szempontból jóval összetettebb mint egy Crysis vagy akár Far Cry 2. Ott is dús a növényzet, de itt is sok épület szépen ki van dolgozva, a hullámvasút meg pl. kimondottan odabasz, és a víz se rossz itt se.
Aktív témák
Hirdetés
- Akciós dokkolók, Lenovo Legion Pro 7 RTX 4080/4090 laptopok, licencek, antivírusok
- Bomba ár HP X360 11 G5 - Intel 4020 I 4GB I 128GB SSD I 11,6" HD Touch I Cam I W11 I Garancia!
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RTX 5070 GAMER PC termékbeszámítással
- ÁRGARANCIA! Épített KomPhone Ryzen 7 9700X 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- LG 34GS95UE - 34" Ívelt OLED / QHD 2K / 240Hz & 0.03ms / 1300 Nits / NVIDIA G-Sync / AMD FreeSync
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest