- iPhone topik
- Gyűjtögeti a Xiaomi 16 az engedélyeket
- VoLTE/VoWiFi
- Redmi Note 12 Pro - nem tolták túl
- Google Pixel 8 Pro - mestersége(s) az intelligencia
- Samsung Galaxy S23 Ultra - non plus ultra
- A OnePlus Nord 5 sem sokkal marad le akkuméretben
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
- Akciófigyelő: Elindult az Ulefone nyári promóciója
- Android szakmai topik
Új hozzászólás Aktív témák
-
rudi
nagyúr
válasz
Komplikato #462 üzenetére
Kétlem, hogy egy hardver és egy oprendszer közötti kapcsolatot képező réteget (rétegeket) ne lehetne többféle operációs rendszerre megírni. Szerintem a Vista és a DX10 nincs oly mértékben összekapcsolva, hogy csak azzal az egyetlen rendszerrel működjön. Persze, az MS-nek egyáltalán nem érdeke az XP-s DX10 támogatás, sőt.
-
rudi
nagyúr
Emberkék, nyugi már! Küllönbenmeg google a ti barátotok! Ha kell, linkelek én nektek új cikkeket, amikben a régi infókat hajtják újra és újra más köntösben, itt van pl. ez [link]. Ha egyszer nem jött ki új DX10-es hadrver és nincs még hivatalos Vista start, akkor mit vártok, miről legyen új infó?
DX10 qrvajó, qrvaúj meg qrvahű, ezt tolja mindenki körbe körbe, de arról nem beszélnek, hogy a teljesen új módiba bele kell tanulnia a kódereknek és egyelőre még jó sokáig DX9 lesz az alap, amire a játékok készülnek, szóval a DX10-es kódrész nem csak extra tanulást igényel a fejlesztőktől, hanem extra munkát is. Rakás nagyobb projekt csúszik (bár ez mindig is így volt, de DX verzióváltásokkor hatványozottan igaz).
Van ez a süket duma, hogy a DX10-es kártya DX9-ben is jobb lesz. Ennek semmi köze a DX10-hez, legfeljebb a Vista új drivermodelljéhez (míg nincs rendes, hivatalos verzió addig ezt is csak sejteni lehet - legutóbb, RC1-ben még semmivel sem voltak jobba a Vistas DX9-es eredménye az XP-skenél). Amitől a GF8800 gyors, az az unified architektúra, szintén nem feltétlenül a DX10 hozománya, egyszerűen időszerű volt már.
A másik szokásos badarság: miért nem lehet hirtelen baromi gyors, a korábbinál 2-3-szor gyorsabb VGA-t kiadni? Egyfelől nem is olyan könnyű ilyen chipeket fejleszteni, másfelől a piaci versenyben mindenki a lehető legkisebb befektetéssel akarja a lehető legnagyobb nyereséget termelni, tehát csak kis lépésekkel halad előre, lehetőleg mindig megelőzi a konkurensét. Tegye fel az a kezét, aki másképp csinálná (aki 15 oldalas házi dolgozatot ír, ha már 3 oldalassal is megkapja a jelest)! -
-
rudi
nagyúr
válasz
Komplikato #426 üzenetére
Megolvastam. Pár érdekes rész, ami teccett:
Vista will ship in 2007, so mainstream games that require it should start appearing in 2012 or 2013. So much can happen in that kind of time period that we ought not even consider it. -- ez a legfontosabb
But, despite the marketing hype, DirectX 10 isn't all that different from DirectX 9, so you'll mainly see performance benefits on DirectX 10 rather than striking visual differences. -- szal a legtöbb ''ilyen szép lesz DX10-ben'' duma kamu.
XInput – Taken from the XBOX360, this API was modified for use on Windows Vista. This enables the use of all the controls and components involved in the peripherals. Now users will have the ability to use XBOX360 peripherals with Windows Vista. -- a régi jó M$ most sem tagadta meg magát
According to Microsoft, it would be difficult to port DirectX 10 to older operating systems like Windows XP due to the new driver model. -- szóval mégsem lehetetlen, csak nem akarják eléggé; nem lepődöm meg rajta... -
rudi
nagyúr
Szerintem azért ez egy kicsit meredek így nagy hirtelenjében, hogy még a DX10-zel sem barátkoztunk/ismerkedtünk meg úgy istenigazából. Mindenesetre az elkövetkező 2-3 év menetrendje fel van vázolva, lehetmegvalósítani. Kicsit olyan ez mint a hasonlat a #285-ös hozzászólásomban [link]
-
rudi
nagyúr
Nem, nem, ez nem hangkártyás topic!
-
rudi
nagyúr
Nem csak az a kérdés, hogy ezek a képek DX10-zel készültek, hanem az is, hogy ha DX10-ben csinálták őket, akkor milyen FPS-sel futnak majd. A korai DX9-es cuccoknál is az volt a helyzet, hogy OK, szép, de egyjegyű FPS-t produkált a csúcshardveren is. A HDR+AA már van egy ideje az ATI kártyákon de a legtöbb játékban tényleg csak a csúcs-csúcskategóriában produkál normális sebességet (ergo olyan mintha nam is lenne).
-
rudi
nagyúr
Nem VGAcset, DX10-ről szóló topic!
-
rudi
nagyúr
-
rudi
nagyúr
Bocsi, hogy meg kell ismételnem Raymond szavait:
''Remelem nem sertodsz meg, de lehet nem kene a PR-t olyan nagykanallal enni.''
Az felmerült már benned, hogy ki fogja megvenni azokat a gamekat, amik csak DX10-ben és csak a leges-legmodernebb hardvereken fognak futni? Arra gondoltál hogy ennek a ''tömegnek'' a pénzéből, eladási volumenéből bajosan fognak megélni a játékfejlesztők? Arra gondoltál, hogy a mostani (xbox360) és a közeljövőben várható (PS3), legmodernebb konzoloknál erősebb PC-k mellett ezeken a konzolokon is el kell futniuk ezeknek a játékoknak, ráadásul zökkenőmentesen? Remélem nem lep meg az sem, hogy ezeket a játékokat többnyire elsősorban konzolra fejlesztik.
Minden komolyabb VGA vagy CPU megjelenése előtt láttunk olyan techdemókat és játékokat, amikez az éppen adott nagy vas csúcsteljesítménye kellett, aztán, csodálatos módon ezekből a techdemokbol vagy nem lett végleges termék, vagy a végleges már sokkal kisebb hardverigényű eszközökkel is beérte. Anno asszem a Serious Sam 2 (Cro Team) egyik fejlesztőjétől olvastam, hogy pár sorban lehet olyan shaderkódot írni ami bármilyen hardvert megfektet, de nem az a művészet, hanem elfogadható hardverigényből a lehető leglátványosabbat kihozni. -
rudi
nagyúr
válasz
Komplikato #375 üzenetére
Ez itt a DX10 topic, amikez nem sok köze van a Play Station 3-nak.
-
rudi
nagyúr
Éppen ezért írtam, hogy távolról sem ugynaz, bár hasonló. A DX10 szerintem 3 fő blokkbak különbözik a DX9-től. Az egyik a GS a másik az új filozófiájú futószalag és memóriakezelés (stream out és sok textúra jellegű buffer), a harmadik pedig az új driverhozzáférés, amit a Vista tesz majd lehetővé, bár ez inkább Vista mintsem DX10 fícsör. Meg ott van mág a no cap limit, no extra codepath mindenféle GPU-nak, no félig teljesített követelmények.
-
rudi
nagyúr
No, mára végeztem a dedóval. Akinek kérdése van az egyrészt olvassa szépen el ezt a topicot, másrétsz pedig nézegesse a PH-s teszteket. Harmadrészt pedig gondolkodjon kicsit, művelődjön
-
rudi
nagyúr
Esetleg valami indoklás?
Én annyit mondanék ellenérvként, hogy a PS3-ban egy G71 GPU (GeForce 7800-7900) dolgozik, nagyon sanszos, hogy csak 128 bites memóriakezelős, bár a PC-stől jelentősen eltérő, memóriabuszon. A GeForce 7950 GX2-n két G71-es van.
Az XBox 360 Xenosa 500 MHz-n megy és 48 unified shadere van. A Radeon X1950XTX-ben 650 MHz-n jár 48 pixel számoló, amit még 8 vertex egység egészít ki, ja és két X1950 XTX-et is össze lehet kötni. -
rudi
nagyúr
Nem, nem is erre a marhaságra gondoltam
Bízom benne, hogy csak elírtad.
-
rudi
nagyúr
Nem: Én csupán azt akarom végre már megmondani, hogy ami DX10-es az nem fog mennia mai VGA-kon. Ebből remélem mindenkinek világos, hogy a játékok még jóideig úgy készülnek, hogy a lehetséges DX10 kód mellett ott lesz a régi, DX9-es is, hiszen egyelőre nem tehetik meg azt a játékfejlesztők, hogy csak a leges-legújabb hardverre fejlesztenek. Nem tették meg ezt a DX7-8 és DX8-9 váltás idején sem. Ninnentől kezdve nem az a kérdés, hogy DX10-es lesz-e egy game, hanem hogy lesz-e benne DX10-es codepath.
-
rudi
nagyúr
Lécci, ne írjatok sületlen badarságokat! A DX10 NEM KOMPATIBILIS A DX9-CEL, DX9-ES HARDVEREN NEM FUT A DX10-ES KÓD!
Továbbá hagyjuk az ilyen-olyan demok és shotok belinkelgetését i, ugyanis még sem hivatalos operációs rendszer, sem hivatalos szoftver, sőt még hardver sincs hozzá. Tessék kivárni azt a pár hónapot! -
rudi
nagyúr
válasz
donsergiooo #338 üzenetére
Van egy Vistas blogom itt a PH-n nézd meg. Korábban a beta 2-t már megnéztem NV driver, shaderképesség és egy játék szempontjából. Nemrég raktam fel az RC1-et, egyelőre még nem volt időm tesztelni vele. Amúgy elég sok gamehez kiegészítő kell a DX9 részhez. Nekem pl a Heroes 5 volt ilyen. DX10 teszt, hardver és megfelelő szoftver hiányában még jódarabig nem lesz. Egy Beta 2 tesztet az X Bit Labs is kirakott, nekem hasonló eredmények jöttek ki - van még mit csiszolni.
-
rudi
nagyúr
Beszéljönk mindjárt a DX200.20-ról
Elég sokat rágtam a témában a netet és mindenhol csak írják, hogy hű, meg há meg jön meg mindent, ott a sok (szerintem prerenderelt) állókép és a low-quality DX10-es videó, de Vista lejobb esetben is csak január végén lesz, semmi értelmes, konkrétumokat tartalmazó írás nem jelent meg DX10-zel kapcsolatban, a HW gyártók meg még egyetlen pici kilobájtni infót sem toltak ki DX10-es hardverrel kapcsolatban, 80 nm-ről is hallgatnak, szóval korai még ezt feszegetni.
-
rudi
nagyúr
válasz
várnarancs #324 üzenetére
Bakker, ne fárasszatok már, és ne qrjátok szét az elméletet szépen összefoglaló topicot gyerekes, türelmetlenkedő benyögésekkel!!!!
-
rudi
nagyúr
válasz
TESCO-Zsömle #322 üzenetére
Sokára. Majd ha jönnek, lesz róluk PH-s hír meg teszt.
-
rudi
nagyúr
válasz
he7edik. #311 üzenetére
Valószínű, hogy az AMD színrelépése egyáltalán nem fogja befolyásolni az ATI fejlesztését, ugyanis a csúcs GPU-k rettenetesen távol állnak a fejlesztői profiljától. Jelenleg olyan komplex shaderkódokat lehet írni már DX9-ben is, hogy az megfektet bármilyen GPU-t, de akár a négyszeresét is.
A GPU CPU-ba költöztetésére tett kísérlet eddig mindig befuccsolt, szerintem értelmetlen túlbonyolítása egy chipnek. Ehhez képes sokkal olcsóbban kivitelezhető egy északi hídba integrált VGA. Az AMD azért valószínűleg megpróbálkozik valami ilyennel, de szerintem fölösleges.
Ami érdekes lehet az a Hiper Transportra trükközés. Ez az átviteli módszer ugyanis szabadon használható szabvány, és már eddig is születtek érdekes megoldások ebben a témában [link]. Valami ilyesmi elég érdekes lehetne ATI oldalról is. -
rudi
nagyúr
válasz
mikk2000 #304 üzenetére
Úgy megy a móka, hogy adott fényforrás és objektum pozíciójának megállapítása (vagyis nagyjából a VS műveletek) után következik egyből a fény/árnyék textúrák generálása, amihez esetleg előregyártott adatokat is használnak, majd ezután jön még a pixel shader rész, ami közben használódnak fel ezek a textúrák. Korábban erre azért volt szükség, mert a fény/árnyék textúra kiszámolása + a Pixel Shader program nem fért bele a maximális PS programohosszúságba.
Most (DX9-ben), a hosszabb lehetséges kóddal meg lehet azt csinálni, hogy belerakják azt a számolási részt is a programba, amit a textúrát generálta. Így kimaradhat a textúra memóriába írása majd onnan visszaolvasása, de a számolásigény megnő. Éppen azért kell/érdemes ezt a textúra elkerülős módszert alkalmazni, mert a memóriapiszkálás elkerülésével többet nyernek mint amennyit a többletszámolással veszítenek.
A másik dolog a procedurális textúrahasználat. Erről régebben írtam részéletesebben [link]. -
rudi
nagyúr
válasz
mikk2000 #301 üzenetére
A textúrázás az általad megfogalmazottnál sokkal komplexebb dolg. Egy objektumra nem csak a mintája kerül rá textúra formájában, hanem például fények, árnyékok hatása, rücskösség stb. Ezeknek a hatásoknak a többsége azért van textúrában, mert így kisebb a számolásigénye, ugyanis az aktuális kép kiszámolásakor nem kell őket újragenerálni (számolni) hanem egyből felpakolhatóak a felületre.
Egy textúrázó művele memóriaolvasást/írást igényel, ami nagyságrendekkel lassabb mint egy regiszterekből dolgozó számolás. A mai nagy számítási teljesítményű GPU-k már kevésbé lassulnak attól, hogyha minden pixelre újra és újra kiszámolják a korábbn textúrában tárolt fény, árnyék vagy egyéb paramétereket, mint attól, ha ezeket a dolgokat textúrából olvassák ki. A DX9 kódolási irányelvek az ilyen jellegű textúrázási mennyiség csökkentésére vonatkoznak. -
rudi
nagyúr
Igen, nagyjából erről van szó, vagyis az Xbox 360 nagyon közel áll a DX10-hez és a Vistaban debütáló driverkezeléshez. Itt van egy Xbox360 szlájdsor [link], amiben a hardver és szoftver meg játékfejlesztés kapcsolatát magyarázzák Xbox 360-on. Ezek közül bagyon sok részlet hasonlít a DX10-es menutatókban olvashatókra.
-
rudi
nagyúr
válasz
cousin333 #283 üzenetére
A GPU és CPU kiterhelése megint sok kérdést vet fel. Ha már két magos a CPU is, akkor biztosan sokkal több mindent rá lehet majd lőcsölni, komolyabb AI-t lehet írni. A játékok nem voltak feltétlenül procilimitesek, igazából magunk sem tudjuk megmondani, mi limitálta őket, de két sejtésünk van:
Az egyik lassító tényező a CPU és GPU közötti átviltel szűkössége. Ha a CPU számolja a dinamikus fizikát, az akkora adatforgalmat igényel a VGA-felé, hogy valahol korlátba ütközik. Nagyon az az érzésünk, hogy ez a korlát nem is a PCI Express szélességi határa, hanem a rendszermemória környékén kereshető.
A másik sejtés valamiféle quad határ lehet (de a renderelő folyamat más pontján is lehet elakadás, fenetudja), amire abból következtetünk, hogy gyakran a 3 quados GF 7600 GS és a 6 quados GF 7900 GT is ugyanolyan szebességet mutatott, ráadásul a CPU gyorsításával sem változott a helyzet. Könnyen lehet, hogy volt valami olyan komplex shaderkódba futottunk bele, ami miatt egy quad annyira lelassul (olyan sokáig csinálja az adott kódot) hogy a többieknek várniuk kell. Persze ez még csak egy feltevés, még sokat kell gondolkodni és kísérletezni rajta. Ebből is jó a DX10, mert seregnyi ellenőrzőeszközt is beleépítettek, ami mutatja, hogy az egyes fázisok meddig tartottak, milyen erőforrásokat igényelte. -
rudi
nagyúr
válasz
Tyberius #282 üzenetére
Lássuk a szoftveres részt. Ez az egész VS-PS futószalagosdi valamikor a DX8 megszületésekor kezdődött. Egy shaderkód akkoriban, ha jól emlékszem 16-32 szekvenciális utasítás lehetett, se ciklus, se elágazás se semmi. Még anno, jópár évvel ezelőtt, a VGA.nfo-n nagyjából leírtam, hogy is vannak a régebbi shader modellek mi is ennek a lényege, akit érdekel, nézzen bele [link].
Mára Shader Model 2.0 (DX9 alapkövetelménye) is hatalmas előrelépést jelentett az SM1.x modellekhez képest, de a hardver számolós része nem szélesedett olyan mértékben, mint amennyit emelkedett az esetleges kód komplexitása. Az első SM2.0-s hardverek a Radeon 9500-9700-ak voltak, de nagyjából az X850 és GF6 idejére jutottunk el oda, hogy nagyjából olyan potens volt a hardver, hogy bármilyen (pontosabban inkább szokásosan megvalósításra kerülő) SM2.0 kód CPU-limitesen tudott futni rajtuk. Persze a GF6 és X850 idejében már a GPU-gyártók az SM3.0-ra és HDR-re verték magukat, amint, mint láthatjuk az Oblivion vagy TR Legend alapján, még a mai hardverek sem bírnak el, pedig ma már a fizika az, amire a GPU-gyártók verik magukat
Összegezve:
A fícsörlista mindig jópár lépéssel a hardver képességei előtt halad, ezt diktálja a PR-gépezet. Jó példa lehet erre a hátizsák és a sherpa esete:
1. adott a sherpa aki 50 kilós zsákot bír el normálban (hardver számolási képessége)
2. a sherpaközvetítő (GPU-gyártó) rácsap a szegény hordár hátára egy 80 kilós zsákot és büszkén hirdeti: ''ez az ember 80 kilót is elbír''
3. amikor a kedves hegymászó (kóder) felbéreli a 80 kilósnak reklámozott, de csak 50-et bíró sherpát, és rápakol 80 kilót, akkor az csak négykézláb bír mászni, DE viszi! Ergo az ''ez az ember 80 kilót is elbír'' állítás igaz, csak ugye a kis csillagos rész...
4. mire szegény sherpa haverunk feledződik annyira, hogy már a 80 kilóbval is tud normálisan haladni, akkor mi történik? Jön a nagy kijelentés: ''ez az ember 150 kilót is elbír''
5. megint jön a négykézlábmászás...
6. goto 4. pont
Mit lát ebből a megrendelő (felhasználó), aki X kilót akart a hegymászóval és expedíciójával felvitetni a hegyre (vagyis full fícsörben akar játszani)? Ezt látja: ''kurv@életbe! felbéreltem a legjobb csapatot, beigérték, hogy 3 nap alatt felvisznek X kilót, és erre b@sszus 6 nap kellett rá...''
Na, erre jön a DX10-es csavar: váltsuk le a sherpánkat szamárra! Teljesen másképp működik, az összes hátizsákot, cipelőcuccot át kell hozzá tervezni, de ez 500 kilót bír -
rudi
nagyúr
válasz
Tyberius #282 üzenetére
A DX10-zel nem csak a softveres (API-s) megközelítés változik gyökeresen, hanem a GPU-k hardveres felépítése is, kicsit boncoljuk ezt.
Egy klasszikus GPU (legjobb példa erre a G7x sorozat, mert az X1000-es Radeonok más kicsit a jövő felé léptek) felépítése nagyos specifikusan blokkosítva van, ez a kép jól mutatja:
Látható, hogy vannak a VS-esk (hozzájuk lehet venni még a Cull/Clip/Setup részt, ami a geometriát építi fel és kiszedi a takarásban lévő részeket stb.), majd egy elosztó, majd ismét szélesesdik az architektúra - jönnek a PS-ek - aztán megint jön egy crossbar osztónű és a ROP (raszterizáló egységek). Ehher kívültől csatlakozik még a memvezérlő, amit itt elég egyszerűen vázoltak fel, de az is egy masszív crossbar vezérlő, 256 bit esetén 4 ággal.
Mi az a corssbar? Egy olyan összeköttetés kétfajta hardveregység között, ahol az egyik oldal minden eleme össze van kötve a másik oldal minden elemével.
A G73 24 pixel shadere 6 négyes blokkba (quadba - elgyen annyi elég, hogy a quad a 2x2 pixelt jelent, és mindenféle pixelszámolás alapja) szervezve és a 16 ROP egysége között 96 szálat kell megvalósítani. 32 pixel shader (8 quad) és 20 ROP esetén már 160 szálat kellene kivitelezni, amit már eléggé bajos megvalósítani helyügyileg is. Nem csoda, hogy az R580 48 shaderét (12 quad, de még azon sem lepődnék meg, ha nem csak négyes blokkokba lehetne őket szervezni) már nem corssbarral valósították meg, hanem egy osztóművel és egy nagy közös (ez fontos, hogy közös) regisztertömbbel.
De mi is az a regiszter? Nos az egy olyan, mondhatni adathely, amit a GPU számolói ''közvetlenük'' (idézőjelben, mert itt is van címzés meg pointerezés, de ez megint csak mellékes) nagyon kis késleltetéssel érnek el, ezekben található adatokkal hajtják végre a számolási műveleteket.
No, de térjünk vissza a hardverfelépítéshez. Szóval adott egy halom, specifikus VS és PS, aminek mindnek megvannak a maguk kis cachejei (ezekbe töltik a szükséges textúrákat és adatokat) és korlátozott számú regisztereik (ezekbe töltik fel a Cacheből az éppen szükséges adatokat, amikkel a számolás zajlik). Egy ilyen felépítést (sok kis részegység, mondhatni processzorblokkok a processzoron belül) hardveresen megvalósítani, és összehuzalozni meg összeszervezni nem egyszerű feladat. Éppen ezért van az, hogy olyasmit pusmogtak pl a G70 (GeForce 7800 GT/GTX GPU-ja), hogy hardveresen 8-10 quad (vagyis 32-40 pixel shader!!!) meg van benne valósítva, de ebből átlagosan csak 20-24 életképes (!). Állítólag a G73 (GF7600-ag GPU-ja) is hardveresen 4 quados (16 PS-es).
Ebből is látszik, hogy ez a quadozósdi már eléggé nehezen kezelhető felépítés lett. Mi a megoldás? Az, amit az ATI R5xx chipjainél láttunk, vagyis annak a továbbfejleszétse. Mit is tud az R5xx architektúra? A VS rész maradt a régi csak a pufferkezelését oldották meg (ez még fontos lesz). Utána viszont a PS-ek, textúrázók és ROP-ok kezelése gyökeresen megváltozott. Nézzük csak az R520 (X1800 GPU) blokkdiagramját:
Van először is a ''diszpécseregység'', ami a munkát osztja (no alapvetően ő már egy nagy titok, és a jövőben érdekes lehet, kinek mennyire jön össze a megvalósítása). Utána jönnek a PS-ek egyelőre (ez is fontos lehet) quadokban. Amit észre kell venni, hogy ezek már nem közvetlenül tartalmazzák, a textúrázókat, hanem azok is külön blokkba kerültek, és a diszpécser kezeli őket. A textúrázók másik vége a most már közös, baromi nagy regisztertömbnél van. A pixel shaderek quadok működése most (Radeon X1000 családnál) úgy megy, hogy a diszpécser kiszól ''itt ez a shaderkód, és ez a regisztertartomány, tessék kiszámolni''.
A közeljövőben, az uinified shaderes felépítéssel úgy módosul, hogy a diszpécser nem csak a PS-ek hanem általános shaderek fölött uralkodik. Innentől kezdve az utasításai nem úgy kezdődnek, hogy ''hé, pixelquad!'' hanem úgy, hogy ''hét ti, X számú általános sahder!'' az sem biztos, hogy továbbra is négyesével szóllítja majd meg a számolókat. A megszólítás úgy folytatódik tovább, hogy ''van itt egy VS vagy GS vagy PS meló''. Ez azt eredményezi, hogy amikor a korábbi 6-8 vertex shadeből 2-3 számolja a geometriát, a többiek beállnak pixelt vagy mást számolni. Ráadásul ennek a VS/PS terhelési aránynak még érdekesebb az eloszlása mint gondolnánk. Az alábbi ábra azt mutatja, hogy egy kép kiszámolása közben mikor, milyen terhelés van a VS és PS egységeken. Látható, hogy egyszerre szinte soha nincsenek kiterhelve.
A másik dolog, hogy az ATI az X1000-ben már a sokhuzalos Crossbar vezérlőt is leváltotta Ring-busra. Erre most nem térek ki, az X1000 cikkben elmagyaráztam [link]
Summázva. A szétválogatott blokkok, regiszterek és sok-sok összekötő huzal helyett most úgy épülhet fel egy GPU, hogy a következő elemei lesznek:
- valami nagyon titkos, trükkös és okos diszpécser (ez lesz az érdekes rész)
- baaaromi nagy általános, egyforma szhader számolókból álló hadsereg (ezt könnyebb lesz megvalósítani mint a mai, azért eltérő számolókat
- az R580 256 kB-os tömbjénél is nagyobb regiszteróriás (ez tudtommal egyszerűbb megvalósítani mint számolókat vagy kisebb memóriablokkokat
- amire az Xbox 360 GPU-ja (Xenos) alapján következtetni lehet, lesz még egy On-DIE (vagyis a GPU-val egy lapkára pakolt) memória, ami veszettül gyors lesz és akár 8-16 MB is lehet.
- egy ring-bushoz hasonló memóriakezelés
- kell még egy ügyes buszrendszer, ami összeköti a számolókat és egyéb egységeket.
A nagy kérdés az lesz, hogy egy ilyen architektúra felületre/fogyasztásra/tranzisztorszámra/órajelre vetítve milyen hatékonyságot mutat majd a mai cuccokkal összevetve. Valószínű, hogy jóval hatékonyabb lesz.
mindjárt folytatom a programozós résszel -
rudi
nagyúr
válasz
fiATHaLON #279 üzenetére
Bármi nem világos a DX10-zel kapcsolatban, tessék kérdezni. Jelenleng nincs energiánk egy 10 oldal körüli írásra, ami teljesen az alapoktól magyarázza el a megjelenítés lépcsőfokait, de azért beszélhetünk rőla.
Eddig is az volt a gyakorlat, hogy az alacsonyabb DX verziószámú kártyák nem támogatjáűk az új dolgokat, most sincs ez másképp. Az komplikálja a helyzetet, hogy a DX10 gyökeres változást jelent a DX9-hez képest, nagyobb lesz a különbség mint DX8 és DX9 között. A 8-as és 9-es verzió között az volt a különbség, hogy az újabb nagyobb precizitással dolgozott és összetettebb (shader) programokat lehetett készíterni benne. Ha csak DX8-as hardver állt rendelkezésre, akkor az egyes effekteket lehagyták, egyszerűsítették és kész.
Most, a DX10-ben megjelent a GS (geometry shader), aminek olyan a felépítése (geometriai promitíveket kezel), amivel a korábbi, DX9-es VS és PS nem nagyon tud mit kezdeni. Ráadásul az is változott, ahogyan az adatokat kezelik. Korábban (DX9-ig) az volt az alapvető teljesítménybeli követelmény, hogy minél kevesebb (lassú) textúrázást használjanak a kódolók és minél több (gyors) számolást. Most, a DX10 kapcsán, olyan hardveres architektúrát építettek fel, aminek nagyon fekszik a textúrázás (valami textúrakezelés-szerűséggel komunikál a VS-GS-PS), szóval fordult a világ.
Kóval összesummázva a DX9-es hardver DX10 lehetőségeit/korlátait.
- DX9-ben a GS (Geometriai/fizikai) számolásait át kell helyezni a CPU-ra vagy valami fizikai motorral (mint amilyen a Havok) a PS-ekre. Ez komoly lassuláshoz vezet
- a textúrázás felé eltolt utasításmegoldást vissza kell tolni számolós felé.
- aztán ott van még a DX9-es HW korlátja, hogy fix számú VS és PS egység van, amiket nehezebb rugalmasan kihasználni. -
rudi
nagyúr
Pontosan azt csinálja! Eddig a CPU számolta ki az animációt csont (bone) vázak alapján, tologatta el a modelleket a fizika szabályai szerint, majd ezt az eltologatott jelenetet küldte a GPU-nak, ami csak vertexek és pixelek tömegét tudta kezelni. Most arról van szó, hogy az eredeti modellek kerülnek a VS-be, utána a GS megcsinálja a fizikai dolgokat (primitívek ütköztetése, csonok animálása, stb.) ezt visszatölti a VS-nek vagy továbbküldi a PS-nek. Az egyszerűsítés pedig abban rejlik, hogy a VS, GS és PS számolásokat is ugyanazok a számoló hardverek (ALU-k) csinálják, nincs többé dedikált VS és PS számoló, csak általános számoló.
-
rudi
nagyúr
válasz
Yushchenko #264 üzenetére
Pedig DX10 kapcsán kénytelenek vagyunk elővenni az Xbox 360-at. Nézz bele ebbe [link], no szinte teljesen ugyanilyen lesz a DX10 és az ATI következő generációs GPU-ja.
-
rudi
nagyúr
Azért vegyük bele azt is, hogy ma egy A-s játék kiprodukálása sokkal költségesebb mint korábban volt (még ha nem is érezzük jobban a korábbi játékoknál). Pl. egy NFS:MW-hez egész komoly filmes bandát kellhetett szerződtetni. Megy ugye az is elég izmos kiadás, hogy az Xbox 360-at annyiért adják, amennyiért.
-
rudi
nagyúr
Korábban már kértem, hogy melőzzük a konzol vs PC vitát! Most megkérek mindenkit még egyszer, mellőzzük a konzol vs PC vitát! Aki mégis ebben a témában akar megnyilvánilni, tegye itt: [link]
-
rudi
nagyúr
El rejteni el lehet a DX9-DX10 különbséget, de ahogyan írtad, komplex móka lesz, és, ahogyan én írtam, gond lesz a teljesítményével, mert a CPU-t vagy SM3.0-s Pixel Shadereket terhelő fizika sokkal kisebb teljesítményű lesz mint a GS-es.
A legtöbb DX10 cuccot most R2VB-vel és masszív multipassolással próbálják DX9-ben megoldani, ami ugye nem valami gyors.
A DX9 és OpenGL 2.0 ugyanarra a shader ASM-re épül, max a fordító más. DX10 halom mindennel bővült hozzájuk képest. Néztél már DX10 leírásokat? -
rudi
nagyúr
Nézd meg milyen fizikai képességei vannak a DX10-nek és azt, hogy CPU-ból mit lehet. A GS benn van a VS és PS ''futószalag'' kellős közepén, ahova a CPU elég bajosan tud benyúlni. Az OpenGL és DX9 tözött távolról sincs akkora eltérés (lásd Cg, ami crossAPI), mint a DX9 és DX10 között. Persze nem mondom, hogy nem megvalósítható, de gondok lesznek vele és valszeg jó lassú (pontosabban kisebb teljesítményű) lesz.
-
rudi
nagyúr
Aha, értem. Szerintem az javarészt textúra, kcsit megphotoshopolják és már jó is lesz. Persze nem szabad még ezzel a DX10-zel szemben sem világigényesnek lenni, ez is csak számítógép, nem lesz egycsapásra olyan, mintha a valóságot vetítenék monitorra. Azt kell megnézni, mekkore fejlődés lesz DX9-hez képest (baromi nagy).
-
rudi
nagyúr
-
rudi
nagyúr
Arról van szó, hogy a DX10 gyökeresen más mint a DX9. Anno a DX8 és DX9 között annyi volt az eltérés, hogy a shaderek (VS és PS) programozhatóságát fejlesztették. A DX8 kompatibilitás annyi volt, hogy a túl komplex kódt igényló hatásokat visszabutították, vagy kivették.
A DX10-ben a VS és PS közé beraktak egy harmadik shadert a geomatriás GS-t. No, ennek a munkája bajosan szimulálható a másik kettővel, és mivel többek közt fizikát is számol, ezért nem lehet csak egyszerűen elhagyni ezeket a nem szimulálható részeket, hanem valahogy máshogy kell megoldani. No, emiatt a máshogy miatt lehetnek gondok, majd meglátjuk. -
rudi
nagyúr
Ez szerintem maxibadarság, a maxibbnál is maxibb! A64 3800+ két Radeon X1900 XT-vel eszik közösen 300 watt körül. Maradjunk inkább a felében, 150-ben, de bármit is akkor lehet majd mondani, ha tudjuk, milyen csíkszélességen, hány (millió) tranzisztroból állnak majd az új magok és hány MHz-re tervezik őket. Az X1900XTX 90 nm-en, 380 millával, 650 MHz-n legrosszabb esetben is max 150 wattot eszik egy ugyanekkora chip 65 nm-en akár 100 wattra is visszaeshet.
-
rudi
nagyúr
Ő... lécci hagjuk ezt a konzol vs PC a kényelmesebb jétkészer vitát, itt kicsit (eléggé) off...
-
rudi
nagyúr
MS-nek egyetlen robotja/gyára sincsen. Sokhelyen írták már, hogy majdnem minden kétféle beszállítótól jön. Így kapásból nem jut eszembe csak az, hogy a RAM-ot a Samsung és az Infineon szállította, de nézz utána. Persze arról pontos infót nem tudok, hogy az ATI-nak mennyi ezen a haszna, de ha egyforintosra váltanák biztos jópár kamion kellene hozzá
-
rudi
nagyúr
Az ATI-nak folyamatosan haszna van az Xbox 360 GPU-k eladásából, aki ráfarag eleinte, az az MS, de összességében ő kaszál mjad a legtöbbet. Többször kértem már, hogy a magyar dolgot felejtsük el, az itthoni helyzet semmilyen hatással nincs ezeknek az óriásoknak a működésére.
Mi a gond a multiplatformos gamekkal? Amúgy egyre több ilyen lesz, nem mondom el újra (sokadszor) hogy miért. A TV dolog kétségtelen, viszont nézted, mennyibe vannak mostanság a 72 cm-s LCD-TV-k? -
rudi
nagyúr
hmm... egyre jobban azt érzem, hogy nem tudok magyarul vagy nemtom... lécci próbáld meg értelmezni az írásomat...!
Mi az, hogy leesne a kereslet? A kereslet az adott valami iránti igényt jelenti. Ha teszemazt az NV és azt ATI közül az egyik befuccsolna, akkor kevesebben akarnának VGA-t venni, vagy hogy érted a kereslet ''leesését''?
A gamer PC-s dologból sem azt szűrted le, amit mondani akartam vele. Egylap notebook és egy next gen konzol EGYÜTT és olcsóbban képes azt az élményt nyújani mint egy Gamer PC, hangsúlyozom, EGYÜTT! Minen venne valaki netezésre és egyebekre erős notebookot, ha játékra úgyis konzolt használ. Próbáld meg nem ''számítógépbuzi'' irányból megközelíteni a dolgot. Ma már a teljesen átlagos fogyasztók veszik a számítógépek túlnyomó többségét. -
rudi
nagyúr
Jelen esetben nem érdemes globálisan nézni a hardver eladásokat. Hardver oldalról itt csak az ATI/NV érdekei számítanak. A diszkért kártyákat gyártó Asus, MSI, Sapphire és többiek elmehetnek a sunyibam ha az MS annyi GPU-t rendel az ATI-tól, mint a többiek együttvéve. Az biztos, hogy Xbox 360-ból sokkal többet elanak, mint csúcskategóriás ATI VGA-ból.
Abban tényleg igazad van, hogy a többség nem fog fenntartani egy gamer PC-t és egy konzolt egyszerre, de jó lenne elszakadni a magyar/keleteurópai warezos hozzáállástól, mert ez a piac csak porszem világméretben. A konzollra fejlesztett játékok PC-síthetősége csak a piacuk szélesítését jelenti, a warez világ viszonylatban nem olyan vészes.
Hogy ki mit vesz, azt a felhasználási terület mellett az ár is megszabja. Egy gamer VGA magában sokkal drágább mint egy konzol, és egy olyan notebook, ami mindenre jó, amire egy desktop gép, csak játékra nem, nagyságrendekkel olcsóbb mint a gamer PC. Összegezve (Dell árai alapján):
Gamer PC - 2000 USD
Xbox 360 + alap notebook - 400 + 700 USD - ráadásul ez 2, független gép
no, melyik a jobb választás? -
rudi
nagyúr
válasz
Lord Zero #173 üzenetére
Elvileg jó lehet, mert így, a hatékonyabb fejlesztőkörnyezettel kisebb költségen lehet fejleszteni, talán jobbak/többen lesznek az Xbox360->PC átiratok. Persze meg kell majd venni az új hardvert és Vistat is. Asszem nem lepődnék meg, ha a DX10 XP-s megjelenése a Vista fogadtatásának függvénye lenne.
-
rudi
nagyúr
válasz
Lord Zero #170 üzenetére
Egyik oldalról az, de ahogyan most visszaolvastam, egyszerűen csak arról van/lehet szó, hogy az M$, az Xbox360-as tapasztalatai alapján, olyan ütőképes és kényelmes felületet csinált PC-s játék-fejlesztéshez amilyen eddig még nem volt. Végülis az ő szemszögükből hótmindegy, hogy az ATI vagy az NV keveredik ki a mókából jobban, egyikkel leszerződnek majd a next-nexteg konzoljukra és kész.
Hardver oldalról is időszerű ám a váltás Unified Shaderre, mert a mai sok corssbaros (amikor az egyik oldal minden egységét összekötik a másik oldal minden egységével) felépítéseket már nem nagyon lehetne tovább szélesíteni, NV sem bír 24 PS + 16 ROP fölé mászni (ez crossbarban 384 összekötés). Az Unified Shader meg egyforma számolóiva, hatalmas regiszterével és egy jó gyors busszal köztük, nyerő lehet. Mekkora jó lesz majd egy 65 nm-es GPU 500 milla tranzisztorral, 20 MB beágyazott memóriával, 1 GHz-en -
rudi
nagyúr
Pontosan! ATI adja a vasat, M$ a szoftvert fölé, többiek meg magukra vessenek. Persze az NV csinálhat jobb DX10-es hardvert mint az ATI (bár nem lesz egyszerű), és akor akár az Xbox 360+n-ben mér is mét NV chip lehet, meglátjuk. Erről sokminden kiderül majd ősszel (hacsak az M$ és ATI nem egyezett meg hosszabb időre).
-
rudi
nagyúr
Joco, CocooN-z: eljutottunk a probléma gyökeréhez! Van-e létjogosultsága a PC-s jétéknak, játékos hardvernek? Kinek érdeke fenntartani?
Az M$ nem igazán folyt bele (eddig) a PC-s játékfejlesztésbe. Ha nem lenne PC-s game, akkor is vinnék az oprendszereit, alkalmazásait, azokon sokkal nagyobbat kaszál. Emellett ott van neki a konzol, ami szintén gigantikus bevélet.
Az ATI és NV alapvetően GPU-t és VGA-t fejleszt (ne gyárt!) szóval nekik is mindegy, hogy a cucc egy konzolba, vagy egy PC-s VGA-ba kerül. Ráadásul egy konzolgyártóval szerintem egyszerűbb és tabliabb is leszerződni (baromi sok chipet rendel, támogatja a következő generáció fejlesztését), mint halomnyi kisebb gyártóval.
Aki megszívhatja, az az Asus, MSI, Sapphire és társaik. Vajjon miért éppen ezek a cégek kezdik bővítgetni a termékpalettájukat mindenféle egyéb (jellemzően multimédiás) hardverrel. Azért mert a VGA-eladás, meg úgy átalában az egész komponensbiznisz, már nem olyan jó bolt mint korábban! Ez tény, elég csak a rohamosan növekvő notebook-eladásokra nézni!
Mi lehet a PC-s játék sorsa? Az MS csinál egy olyan API-t (DX10), ami KÖZEL kompatibilis az Xbox 360-nal hardveresen és szoftveresen is, ezzel kiterjesztheti az Xbox 360 játékfejlesztést PC-re. A DX10 és Vista ismertetőkben pl. sokszor előfordul, hogy mostantól sokkal jobban fognak egymásra hasonlítani a GPU-k mint eddig, ergo az ATI és NV sokkal hasnolóbb cuccot lesz kénytelen gyártani. Egészen pontosan arról van inkább szó, hogy az MS és ATI lepaktálhatott, rákényszerítik a PC-re az Xbox 360 szoftverét és hardverét, aztán akinek tetszik (pl. NV-nek, aki egyébként DX10 és Vista fronton is nagyon hallgat), próbáljon meg hardvert fejleszteni rá.
A szoftveresek sokkal könnyebb helyzetben vannak, mert ugye ott az Xbox 360 eszköztár, ami valszeg PC-re is jó lesz majd.
Az egészet összefoglalva, aki nagyon ráfaraghat, az az NV és áttételesen a Sony a PS3-mal. Mért? Mert az Xbox360 és PC gamer piac könnyen összefoghat ellenük.Klasszikus kiszorítósdi, ebben nagyon otthon van az M$... -
rudi
nagyúr
Kicsit (sokkal) árnyaltabb a helyzet, tényleg idealista vagy. Egyfelől senki nem mondta, hogy amit láttál, az játszható sebességgel fog futni. Másfelől ha tényleg DX10-es, akkor ugye csak DX10-es hardverrel (és Vistaval) lehet majd megnézni.
Húzós átmeneti időszak lesz, talán keményebb mint a DX8->DX9 váltásnál.
A fejlesztő azért nem fog örülni annyira mert meg kell csinálnia DX10-ben (még nincs hozzá hardver, csak tetülassú refrast.) és DX9-ben is (ha azt akarja hogy meg isvegyék).
A júzer azért nem fog örülni, mert egy DX10-es csúcskártya + Vista 200 000 forintos befektetás lesz, ami azért még nyugaton sem aprópénz.
Ja, és a másik oldal. Ezeket az új gamekat és motorokat már elsősorban konzolra (Xbox 360-ra) fejlesztik, ahol már ott figyel a fejlesztőkörnyezet (XNA) az Unified Shader felépítés (Xbox 360 GPU) és egy DX10-hez nagyon hasonló alkalmazás->...->hardver útvonal. Carmack sem hiába mondta, hogy Xbox 360-ra kényelmes, jobb fejleszteni mint bármire eddig. Olcsóbb mint a PC-s hardver, a DX10-es cuccal ellentétben, már kapható, valószínűleg nagyobb eladásokat is produkálhat. A PC-s játszósdinak akkor lehet értelme, ha valami nagyon hasonlót és kompatibiliset hoznak ki az Xbox 360-nal. Az M$ jelenleg éppen nagyon ezen van, lásd #144-ben a link. -
rudi
nagyúr
válasz
afterburner_ #153 üzenetére
Nolám, az első DX10 csúsztatás az M$ felől, amit említettem
Ez NEM BIZTOS, hogy DX10!!! Ahogyan a linklet fórumon is íták, ilyet DX9-cel is lehet csinálni, nagy kérdés, hogyan fog futni. Már ma, DX9-ben sem arról van szó, mit LEHET megcsinálni, hanem arról mit lehet mecsinálni, úgy, hogy fusson is.
-
rudi
nagyúr
Hát, ha ősszel kihoznak egy olyan Radeont, amin kissé megpiszkált Xbox 360 GPU vigyorog, akkor nem lesz hosszúéletű az Xbox 360 teljesítménybeli előnye (de persze olcsóbb lesz). Az tuti, hogy az új Radeon Unified Shaderes lesz, szerintem nagyon közel áll majd a Xenoshoz.
-
rudi
nagyúr
válasz
VaniliásRönk #138 üzenetére
Holnap megpróbálok fejtágítót írni a hírhez, de tuti nem lesz egyszerű. Eddig 3-szor futottam neki, soha nem jutottam semmire.
-
rudi
nagyúr
Hát, a most tervezettnél sokkal általánosabbat már nem nagyon lehet csinálni, legalábbis hardver téren. Ha úgy vesszük, a VS-GS-PS folyamat is pusztán elvi vagy szoftveres jelentőségű, hiszen ugyanott számolódnak, ugyanoda ''piszkolnak'' (tolják a regisztereiket). Ha ezt átszervezik, szerintem nem kell hardveresen belepiszkálni, elég az API-n csavarni egyet. Ha meg elfogy a kakaó, alávágnak még X számolót és Y regisztert és mehet tovább a tánc. A busz lehet még érdekes, és az értelmező/arbiter.
Igazából 2 dologra leszek kíváncsi. Először is, hogy ezek az új izék 300 milla tranzisztor körül mennyire lesznek hatékonyak a G71-hez képest (ezt a Rightmark lazán megmutatja PS-re és VS-re). Másodszor, hogy a fejlesztők most miért fognak könyörögni (érzésem szerint, most mindent megkaptak). -
rudi
nagyúr
Ja, architektúra: most szerintem olyasmi lesz, mint a klasszikus általános processzor séma, amit oskolában tanítanak: valami értelmező/arbiter + baromi nagy párhuzamos számolótömb (shaderek) + jó nagy registertömb mindet ráültetve egy veszett gyors (valszeg ring-bus) kommunikációs csatornára és megspékelve memóriával. Mondjuk nagyjából ez lehet az Xbox 360 GPU-ban is. Szóval egy ilyen lehet, hogy időtálló lesz.
-
rudi
nagyúr
Az overhead dolgot kicsit rtükkösen magyarázta az ATI embere, nem azt mondta, hogy így 20 %-kal gyorsabb lesz, hanem hogy több tere lesz a kódolóknak. Nem volt világos, hogyan értette. Míg nincs kézzelfogható Vista és megfelelő tesztprogramok (ez lesz a nehezebb), addig nem nagyon tudunk mint mondani az új API->driver->hardver út lehetőségeiről.
A nagy gond szerintem az lehet, hogy DX10 esetben mehet a fizika a DX10-es hardverre, de DX9-ben vajon mi csinálja meg, a GPU (lásd Havok) vagy a CPU? Ha csinálunk DX9-es utat, akkor a fizika mennyire fogja meg a rendszert, és ami még fontosabb, mennyire kell hozzá átszabni a kódot, motort. -
rudi
nagyúr
A DX10 már távolról sem a grafikáról szól, kicsit nézz utána (pl. ez [link]). Szerinted mikor lesznek játékban használhatóak azok a motorok amiket mostanában kezdenek DX10-hez átalakítani? Világos, hogy jövőre már DX10-re gyúrják a motorokat, de azok sem egy nap alatt készülnek el. Vrájt onliban az van, aki játékokról szóló megjegyzéshez motorokkal reagál LOL-ozik és valójában ugyanazt mondja (legalább 1-év motorfejlesztés + még egy a játékra).
Teljes pompájában a Gamebryo (pl. Oblivion), Reality Engine, TR Legend is megakat a legerősebb kártyákon, és átlagos gépeken nagyjábók 20 %-ra kell visszavenni a grafikát, hogy elszaladgáljon. Pedig ezek csak nyavalyás, DX9-es cuccok. Az ok, hogy konzolra gyúrják őket, úgy, ahogyan a ''DX10-es'' játékokat/motorokat is arra fogják.
Tudod mik lesznek az első NAGY DX10-es logós játékoknak a trükkjei? Pár halvány dolog a DX10 repertoárjából, amit szükség esetén (vagyis a helyzetek 90%-ában) DX9-ből is szimulálni lehet R2VB-vel vagy vertex textúrázással sokszoros multipassal, hasonlóan mint a DX8->DX9 esetében is volt. Ugyanaz a vakítás megy majd, hogy ráfogják egyes DX9-es hatásokra, hogy HŰ, DX10, pedig távolról sem lesz az. A pár ''Vista Exclusive - DX10'' játék meg lekérdezi, hogy van-e GS vagy DX10 és ha nincs akkor nem megy, kész. Ilyeneket az M$ (HALO2) és közeli hozzátartozói csinálnak majd. -
rudi
nagyúr
Ember, ébredjél!!! Hol a DX10-es SW?! Hol a DX10-es HW?! Ki a rák fogja megvenni azt a nagy sok DX10-es gamet majd úgy egy év múlva, amikor még a júzerek 90 %-ának DX9-es hardvere lesz? Nem ettek meszet a fejlesztők, nem azt keresik, hogyan a legegyszerűbb nekik, hanem azt, hogya keresnek vele a legtöbbet. Megsúgom neked, még jódarabig DX9-ben lehet majd nagyobb eladásokat csinálni.
Meg a másik oldal. Szerinted ha most még se HW se SW DX10-hez, akkor mikorra fejlesztenek ki hozzá épkézláb gamekat, ha egy ilyen fejlesztés pár évet vesz igénybe? -
rudi
nagyúr
Szerintd a DX9 megjelenésekor hányan dobálták el a GeForce 4 Ti-ket és Radeon 8500-akat? Aki megteheti, váltosn, aki nem, annak nem kötelező. Ahogyan már leírtam, nem verázsültésre lesz DX9-DX10 váltsá, ráadásul DX9-ben is megfelelően szépet és teljesítményzabálót lehet csinálni (lásd TR Legend, Oblivion és társai).
-
-
rudi
nagyúr
Ácsi! Nem ám úgy lesz, hogy ecceriben mindent DX10-ben csinálnak! A DX8-DX9 átállás sem ilyen volt. Eleinte majdnem minden játék meg lesz csinálva DX9-ben és a jobbaknak lesz DX10-es módja is, amiben domborít majd a fizika meg a sok új technika. Ahogyan írtam, bizonyos DX10-es dolgok kivielezhetőek DX9-ben is, persze lassabban (hogy mennyivel, az majd kiderül).
A Vista miatt az api->driver->hardver út a DX9-ben is feljavul, meg persze DX9 is lesz a Vistaban. Várhatóak Vista Exclusive játékok is, ezek sejtésem szerint annyira az új DX10-re építenek, hogy nem sok lehetőség van visszaültetni őket DX9-re (meg biztosan az M$ pénze is belejátszik a dologba).
Új hozzászólás Aktív témák
Hirdetés
- Bomba ár! Lenovo ThinkPad Yoga 260 - i5-G6 I 8GB I 256SSD I 12,5" Touch I W10 I Cam I Gari!
- Telefon felvásárlás!! iPhone X/iPhone Xs/iPhone XR/iPhone Xs Max
- KÖZEL FÉLÁR! Apple Magic Keyboard, Mouse, Trackpad, Pencil, Smart Magic Keyboard Folio, Watch szíjak
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RTX 5070Ti 16GB GAMER PC termékbeszámítással
- Quadro FX 570 eladó
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest