Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Leghamarabb a G300-tól lehet azt remélni, hogy visszaszerzi az AMD előnyét. A G200 és a rá épülő termékeknek annyira gyenge a tranzisztor/teljesítmény aránya, hogy az ég világon semmi esélye nem lesz az RV870 ellen. Csak abba kell belegondolni, hogy alig kell a jelenlegi RV770 be plusz tranyó a sebesség megduplázásához és a DX11 támogatáshoz, és 40nm-en a chip mérete is 200mm2 alatt tartható. Ezzel semmi nem veszi fel a versenyt. Valszeg az árakban is elszáll majd az AMD, mert majd egy generációnyi lesz az előnye.
A G300 az nagy kérdés. Ha új architektúra lesz akkor lehet számítani a versenyre, ha G80 lesz DX11-re felkészítve akkor kampec. Az a baj (az NVIDIA szemszögéből) az R600-zal, hogy statikus rendszer számos optimalizációval, a G80-nál és a G200-nál komoly tranyómennyiséget emészt fel a globális ütemezés. Ha maradnak a G80 alapjai a DX11-es chipnél is, akkor az R600 alapjaival az AMD feleakkora tranzisztorszámból is ki tudja hozni ugyanazt a sebességet. Innentől pedig az NV is fel tudja fogni, hogy végleg vége. Szóval reménykedjünk, hogy ezalatt a pár év alatt fejlesztettek valami új mikróarchitektúrát a háttérben, vagy ennyi volt a szereplés és jön az Intel a helyükbe, mint legfőbb rivális. -
Abu85
HÁZIGAZDA
válasz
rumkola #8049 üzenetére
Nem hiszem, hogy az FC2-ről volt szó ... arról beszélhetek. A többi DX10.1-es cím leírása tabu. Ezért is írtam, hogy nem árulhatok el többet.
A Far Cry 2-ban a DX10.1 módban mindig lesz colos és z subsample minta, ami azt jelenti, hogy a játék minden jelenetében el lesznek simítva az élek. A DX10 módban a color subsample mintákat nem lehet megszerezni, így előfordulnak majd olyan jelenetek amikor nem lesz élsimítás a DX10-es karikon függetlenül attól, hogy engedélyezve van az opció.
-
Abu85
HÁZIGAZDA
válasz
rumkola #8047 üzenetére
Az FC2-ről nem írtam ilyet, de nyilván én szívásnak tartom ha egy mai felsőkategóriás kártya nem AA képes.
Azt írtam még az FC2 topikba, hogy lesz még DX10.1 program idén, nem is olyan sokára. Erről majd lesz hír is, csak meg kell várni a megjelenést.Szokás szerinte a TWIMTBP címekből fog kikerülni a játék.
-
Abu85
HÁZIGAZDA
válasz
Iron Funeral #8044 üzenetére
Majd meglátjuk.
A Far Cry 2 szerintem a kései beépítéstől szenved. Azt tudom elképzelni (bár ez elég amatőr hiba), hogy a fejlesztés végén jöttek rá, hogy az AA hiányos a DX10-es módban, így gyorsan beépítették a Multisample Accesst. Így viszont nem lesz sebességelőny, mert a fázisok nem lesznek összevonva. Ez persze tesztelés szempontjából is probléma, mert a Radeon-ok AA alkalmazása mellett egy fázissal többet dolgoznak, mint a GeForce-ok.
-
Abu85
HÁZIGAZDA
válasz
tzsolesz #8040 üzenetére
Én nem érzem problémának ezt a Logo kérdést. Ha az Intelnek van pénze egy indulásnál felugró reklámot megfizetni akkor tegye. Ugyanez vonatkozik az NV-re is. Nyilván a TWIMTBP program hanyatlik, már csak a reklámért megy a pénz manapság. Nem csak a Far Cry 2 lett DX10.1-es annyit elárulhatok ... más elvileg NV-s címet is behúzott az AMD.
-
Abu85
HÁZIGAZDA
válasz
Motion_Blur #7752 üzenetére
Sokaknak ez van, nem egyedi eset. Majd jön rá a patch ... addig pedig dx9 a megoldás
-
Abu85
HÁZIGAZDA
4 GB fizikai memória alkalmazása esetén ugyanúgy lesz szétosztva a virtuális memória, mint a 32bit-es Windowsnál. Ha több fizikai memóriád van akkor már ténylegesen más a helyzet 64-bit-es winnel.
Én sem adtam el még a CF rendszeremet, mert működik ... A PH-s cikkekben is működik a dolog. Azt nem értem másnál, miért nem megy...
Az nV nagyon örülne, ha többen úgy gondolkodnának, mint te, de hát az eladások nagyon gyengék a GeForce rendszerek körül. Nem véletlen húzza az AMD a HD 4850 x2 kiadását. A HD 4870 x2 verziót veszettül viszik. -
Abu85
HÁZIGAZDA
32bit-es Vistával és SP1-gyel semmi lassulás az XP-hez képest. 64bit-es Vistán már más a helyzet ... de hát ki használ 64-bites visztát arra még nincsenek normális driverek.
Egy 280 GTX árából kettő HD 4850 kijön ... olyan dolgokat hasonlítasz össze amik árban nem egyeznek. -
Abu85
HÁZIGAZDA
válasz
schwartz #6198 üzenetére
Nehéz a PS3 Cell rendszerét belőni. Általános vélemény a fejlesztőktől, hogy egy olyan korba sikerült megjelennie ami nem tudja hasznosítani a benne rejlő lehetőségeket. Az Xbox360 tökéletesen a fejlesztések igényeire lett szabva ... ennek köszönhető, hogy a multiplatform programoknál elsődleges szerepet tölt be. De erről is lesz szó röviden a jövőheti cikkben.
Amúgy túlzottan elmentünk Off-ba érdemes a témával is foglalkozni. -
-
Abu85
HÁZIGAZDA
Pedig érdemes lenne a DX10.1-gyel foglalkozni, mert sokkal gyorsabb a rendrelés menete az új eljárásokkal. Egyrészt a Multisample Acces mellett gyakorlatilag teljesítményveszteség nélkül van működő Elsimítás (nem olyan, mint ami van az UE3-ban, vagy a Crysis Warhead-ban, hogy fele kép megvan csinálva, míg a másik fele hibás). A LOD utasításokkal lehetőség van Anizo szűrés mellett használni Parallax Occolusion Mapping-ot. Amit használ a Crysis is, csak nincs mellette anizo szűrés.
Én már visszafejlődésnek nevezem azokat a programokat amikben az ember nem használhatja a régen megszokott AA és AF eljárásokat. Ez akkor még elment amikor nem volt rá normális megoldás, de most már itt a DX10.1 amit illene használni. Nyilván az nV azért is ellenzi a dolgokat, mert a batár nagy GPU-it senki sem venné, ha minden program 4xAA-val futna alapból, hiszen Blending fázisokat lehet spórolni a dx 10.1-es feldolgozásnál.
Persze az igaz, hogy manapság már abban az esetben sem lenne biztos a DX10.1 támogatása a fejlesztők szempontjából, ha az nV is támogatná, mert eléggé szarunk a PC-re felfogás alakult ki mostanság.
A Mikroakadásokat az AMD letudta, a 8.8-as driverrel. Maga Demers nyilatkozta ezt. Több problémát orvosoltak a driverben, ami a jelenséget eredményezte. A tesztelés miatt húzodott el eddig az ügy, mert nagyon nehezen észrevehető a jelenség. Szerintem az nV is megoldja a problémát a 180-as driverre. -
Abu85
HÁZIGAZDA
válasz
Iron Funeral #6173 üzenetére
A Szoftver Rendering-gel nincs kötött logikai render futószalag. Egy teljesen programozható rendszert lehet kreálni. Több lehetőség a fejlesztőknek, mindenféle megkötés nélkül. Nyilván az első új generációs Szoftver Rendert alkalmazó motorok még több év múlva jönnek, de alapvetően a két top rendszer (UE és Carmack féle cucc) biztosan ilyen lesz, ami iránymutató lehet a jövőre nézve.
Ez a szoftver Render nem teljesen ugyanaz, mint a régi ... Carmack például a Voxeles grafikában látja a jövőt. -
Abu85
HÁZIGAZDA
válasz
Iron Funeral #6170 üzenetére
Az UE4 és az ID Tech 6 az Szoftver Rendering-et fog használni. Erre a Larrabee és a Fusion a legalkalmasabb. Persze ez dátum szerint 2014 után lesz leghamarabb, de irányadó előrejelzés.
Nem tudom, hogy a költségcsökkentés mennyire ideiglenes, de szerintem nagyon szűkre van szabva az a gatyó, legalábbis jelenleg. -
Abu85
HÁZIGAZDA
Világos, a Crysis nem támogatja se az AA se az AF-et. Amíg DX10.1-re át nem lesz írva addig nem is fogja.
Az Nv driver a másképp működik az AA szempontjából. Ezt már más, AA-t nem támogató játéknál is észre lehetett venni. Valszeg ez úgy van megoldva, hogy a nem kompatibilis dolgok nem lesznek lefuttatva az AA bekapcsolásakor. Persze ez félmegoldás hiszen a Crysis nem véletlen futtat Edge Detect-et.
Az én véleményem az, hogy az nV túlságosan is leszűkítette a GPU fejlesztések anyagi forrásait. Világos, hogy ők is látják, hogy ezen a piacon nem terem majd nekik babér, hisz az Intel és az AMD kitúrja őket, de alapvetően a Larrabee leghamarabb 2013 fele kezd majd működni, egyszerűen addig még bő 4 év van ami alatt az Intel nem nagyon tud majd beleszólni a GPU piacba. Tehát eleve logikátlannak tartom, hogy ennyire megvonták az anyagi forrásokat a GPU fejlesztő csapattól. Szvsz 4 éves ciklusba még egy új mikróarchitektúra is belefér, ami nyilván szükséges, mert a G80 alapja fényévekkel az R600 mögött kullognak. Az RV770 teljesítmény/mm^2 mutatóján ez meg is látszik. A következő generációban már a DX11 miatt a technikai hátrányt is le kell dolgoznia a zöldeknek, ha ezt a G80 alapjaira építik, akkor a DX11-es nV chip teljesítményét akár fele akkora tranzisztorszámmal is hozhatja a DX11 Radeon, ami valljuk be marha nagy gáz. -
Abu85
HÁZIGAZDA
válasz
schwartz #6137 üzenetére
Ez benne volt már az első Crysis-ban is, csak a Warhead alatt kiemelt figyelmet kapott a CrossfireX optimalizálás. A DX10 módban, viszont a multiGPU-s rendszerekre az 1-es parancsú metódust használja. A DX9-ben helyesen ismeri fel a dolgokat, az nV az 1-gyel fut, míg az AMD a 2-vel.
DX10 módban amúgy sem érdemes futtatni a játékot a GF karik 10-15%-ot, míg a Radeonok 20-30%-ot is lassulhatnak a DX9-hez képest. -
Abu85
HÁZIGAZDA
válasz
Kolondrum #5205 üzenetére
Annyira kaotikus, most a helyzet, hogy nehéz megmondani mennyire lesz támogatva aktívan a GeForce Physx. Szvsz előfordulhat, hogy meggyőznek egy-két fejlesztőt, de a konzol érdekei nem ezt szorgalmazzák. A Gamefest-en volt sok duma, hogy a PC-re nem éri meg a minimális portolási költségnél többet költeni. Szerintem most ha nem sürgős akkor kivárni érdemes. Úgy gondolom, hogy egy 8800GTX-szel az év végéig nem lesz komoly baj. Jövőre pedig sokkal többet fogunk tudni a fejlesztők elképzeléseiről. pl. Mennyire fogják a DX10.1 és a GF Physx-et használni? Esetleg az is kiderül, hogy tényleg rácuppan-e mindenki az Xbox360 féle tesszelatorra...
Talán a tesszelator használata a legelképzelhetőbb, mert abból a konzolok profitálnak, és a fejlesztési időre is jótékony hatással van ... meg elterjedt az a pletyi, hogy a következő GeForce-ban nem lesz DX10.1, de egy (15 tap) tesszelátort már raknak bele. -
Abu85
HÁZIGAZDA
válasz
Kolondrum #5185 üzenetére
A GTX260-ban van annyi extra tartalék, hogy önmagában is megbirkózik a Physx feladatokkal. Azt is érdemes még megemlíteni, hogy az a több, mint 20 darab Physx-es játék ami még év végéig megjelenik nem fogja igényelni a maximális élvezetekhez a Physx-es GPU-t. Ennek egyszerű az oka ... a konzolok nem elég erősek, így a Physx API-t használó programok bőven ellesznek egy kétmagos procival.
Nyilván az eddigi, GF Physx-et aktívan használó progik mellé (UT3, Warmonger, GRAW2) felsorakozik még pár játék a jövőben csak ezekről még nem mondott semmit az nV (Az új Alient emlegetik sokat, de hivatalosan még nem jelölte meg, hogy mely játékokon élveznek extra képességeket a GF karik). Nehéz már meggyőzni a fejlesztőket a PC amolyan extra befektetést igénylő támogatásról ... egyszerűen nincs pénz a piacban, így nincs értelme erőforrást pazarolni rá. Az AMD is csak 3 játék fejlesztőit győzte meg eddig a DX10.1 és támogatásról pedig biztos, hogy több céget is megkeresett.
Igazából ez annyit jelent, hogy ha valami nem éri meg a konzolnál akkor azt nincs értelme támogatni. Hát kb. ilyen a DX10.1 és a GeForce Physx a közeljövőre tekintve. -
Abu85
HÁZIGAZDA
Lol ... már ott tartunk, hogy a kereskedők Dx10.1-nek kamuzzák a GeForce karikat.
Amúgy tök egyértelmű, hogy a GTX280 éri meg. -
Abu85
HÁZIGAZDA
Hát ez gáz...
Annyit csinálhatsz amit leírtak az előbb. két 6pin-esből csinálsz egy 8pin-est és két 4 pin-esből egy 6pin-est. Az nV ajánlása az biztonsági szempont, az a lényeg, hogy a két 4pin-es csatit olyan ágról alakítsd át 6pin-essé amire semmi más eszközt nem kötsz rá. A 6pin-es csatik úgy is külön ágon vannak tehát az annyira nem szempont.
Bár elméletben működnie kellene a karinak két 6pin-es csatival is. Azt nem ártana leellenőrizni, hogy maga a kártya működőképes-e.
-
Abu85
HÁZIGAZDA
válasz
Csiborbogár #4382 üzenetére
Csak fel akarják venni a versenyt a HD4870-nel. Az történt, hogy a hibás chipek többsége nem hibás annyira, hogy az nV ne engedhetne meg magának plusz egy TPC-t. Árban nyilván ugyanott vannak, de teljesítményben javultak.
AZ 55nm-es chipek készülnek, valszeg októberben megkezdődik az átállás, év végére már 100 dolcsi alá is le lehet majd nyomni a G200b előállítási költségét. -
Abu85
HÁZIGAZDA
válasz
Beowulf_78 #4375 üzenetére
Miért? ... a felépítéstől függ a driver támogatás?
Már március óta magas hatékonysággal dolgozik a Complier, nincs semmi teljesítménybeli gond.
Hát a 8xAA-t azt le is szarhatod, mert a DX10.1-ben csak a 4x mintavétel van definiálva. Ergo csak 4 mintavételből lesz kalkulálva az elsimítás. -
Abu85
HÁZIGAZDA
A Deferred Rendering-et gyüjtőszóként használom, ez jelenthet Deferred Shadowing-ot, Shading-ot és lightning-ot. Ha Deferred Shadowing a program (UE3) akkor lehet hackolt AA. Ellenkező esetben nem igazán műxik a rendszer.
A "Dávid és Góliát" cikkben leírtam a Gamefest alapján, hogy mik a lehetőségek:Egyre több fejlesztő ír Deferred Rendering elven működő leképzési algoritmust. Márpedig az ehhez hasonló kódoknál a manapság használatos Multi-Sampling Anti-Aliassing nincs támogatva. Jelenleg három megoldás lehetséges:
A legjobb a D3D10.1 API-ba épített eljárás, a Multisample Access. Ennek segítségével az AA számításhoz szükséges szín- és mélységinformációk (Color Subsample, Z Subsample) bármikor elérhetőek, így lehetséges egyéni, shader alapú AA rutint írni a programba, ami akár a Deferred Rendering fázissal párhuzamosan is futhat (ez a sebesség szempontjából nagyon előnyös). A D3D10-ben csak a színinformációk érhetők el, ami megnehezíti a dolgokat, mert szükségesek a mélységinformációk is. Ehhez egy speciális kódot kell írni, ami kimenti a Z adatokat egy Render Target textúrába. Emellett persze külön fázist igényel a shader alapú AA számítása is. Az eredmény tulajdonképpen ugyanaz lesz mindkét megoldás esetén, csak a DX10 mellett a fejlesztőnek többet kell vele dolgozni, és lassabb is az eljárás sebessége az extra fázis végett. A harmadik opció egy kényszermegoldás. Ennek a neve Deferred SuperSampling. Lényege a dolognak, hogy éldetektáló shadert futtatnak a képkockán, és ahol él található ott blur shader lesznek elsimítva a „recék”. Az eljárás sajnos iszonyat teljesítményigényes, a rengeteg számítás közel 50-80%-os teljesítményvesztést is eredményezhet, azonban nem szükséges hozzá a D3D10 használata.
Mivel a G200 nem rendelkezik D3D10.1 támogatással, így a Multisample Access használata sem lehetséges a hagyományos úton. Ezt CUDA támogatással próbálják ellensúlyozni, ami lehetővé teszi a szín- és mélységinformációk elérhetőségét. A probléma azonban a PC-s játékipar helyzete. A fejlesztők egyszerűen nem látnak akkora pénzt benne, hogy a minimálisnál nagyobb erőfeszítés mellett írják át a konzolra kiadott programjaikat. Az egyes felmerülő problémákra mindenképp a lehető legegyszerűbb megoldást fogják választani, ami jelen esetben a D3D10.1 Multisample Access használata. -
Abu85
HÁZIGAZDA
Itt mondom, hogy nemmegdobálni engem, a konklúzió nem tetszik.
-
Abu85
HÁZIGAZDA
A G200b lesz szeptemberben ez az 55nm-es G200 változat, valszeg csak azért kerül kiadásra, mert sok pénz ment el vele a gyártástechnológiai fejlesztésre.
Ezután vélhetőleg nem lesz több nagyméretű monolitikus chip, egy DX11-es középkategóriás GPU tűnik a legvalószínűbbnek, majd abból egy Dual GPU-s kártya a High-End-be. -
Abu85
HÁZIGAZDA
válasz
-pooshy- #3829 üzenetére
Nem hiszem, hogy ezek a problémák a hőmérséklettel függnek össze. Ez inkább gyártási gond. Valószínű, hogy az nV a G200 esetében enyhített a tesztelési eljárások szigorúságán, hogy minél több chip átmenjen a szitán egy waffer-ből. Így viszont bőven előfordulhat, hogy viszonylag komoly mennyiségű hibás GPU van a piacon, ebből adódhatnak a gondok. De erre találták ki a garanciát amivel élhet a vevő.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz
Dark KillerX #3736 üzenetére
Az G80/G92 a Pipe GS kódoknál és a komolyabb Stream Out használata mellett nagyon vérzik. Ha ilyen lesz a programban akkor elég alacsony lesz a teljesítménye a kártyának (de nem valószínű, hogy ezek az eljárások gyorsan terjednének). Általánosabb az, hogy a játékok ALU:Tex aránya és a Vertex Shader terhelése megnő. Ez sem jó a G80-nak, de közel sem halálos. Minden chipnek van egy ideális ALU:Tex arány. A G80/G92-é elég alacsony, ezért magas ALU:Tex arány mellett már nem lesz olyan hatékony, mint most. Az R600/RV670/RV770 ALU:Tex aránya viszonylag magas, tehát ezek a chipek most kezdenek majd élni. Ugye a trend hatására a G200 ALU:Tex aránya is nőtt.
Ezek a dolgok annyiban rontják a 8800GTX helyzetét, hogy teljesítményben a HD2900Pro is be fogja majd érni az új játékokban. De mondom nem lesz játszhatatlanul lassú, csak akkor ha PipeGS kód és komoly Stream Out használat van.Az AA használat Deferred Rendering esetén attól függ majd, hogy a fejlesztő milyen algoritmust írt. Ha az AA számításhoz elég a Color Subsample adatai azt DX10 alatt is el lehet majd érni (ez a megoldás ritka, de a Call Of Juarez DX10 ilyet használ). Van még egy öszvér Edge Detect Shader alapú megoldás, de az elég komoly teljesítményigénnyel jár, szóval szerintem az felejtős.
-
Abu85
HÁZIGAZDA
válasz
Dark KillerX #3733 üzenetére
A legtöbb közeljövőben megjelenő játéknak DX10.1 mellett biztos lesz DX10, vagy DX9-es kompatibilítása, így nem lesz baj a G200-zal. Elsősorban a G80/G92-nel lesz baj, mert azok felépítése helyenként nagyon vérzik, a G200-at már kipofozták.
-
Abu85
HÁZIGAZDA
válasz
Dark KillerX #3723 üzenetére
Nem gyorsítja a DX10.1 az élsimítást. Hanem nem lesz nélküle elsimítás! Egy csomó Deferred Rendering algoritmusnak szüksége van a Z Subsample elérésére, hogy számoljon AA-t, erre csak a DX10.1-ben van lehetőség. Az egész pedig azért gyorsít, mert a Fragment Shader kimenetei a DX10.1-től több Render Target-be is írhatnak egy fázisban.
-
Abu85
HÁZIGAZDA
válasz
janos666 #3644 üzenetére
Ne feledd a másfél évvel ezelőtti nV konferenciát ... Az ott bemutatott tervezett szerint a Desktop PC-s High-End GPU üzletág gyakorlatilag megszűnik. A bevételek 30%-a fog a PC-s VGA piacból származni (főleg az alsó és középkategóriás Desktop chipek és a Notebook chipekből).
-
Abu85
HÁZIGAZDA
válasz
janos666 #3627 üzenetére
A Cuda támogatja a Multisample Access-t, de csak a G200-on működik, és annyira kevés a G200 eladás, hogy nem fognak spec GPGPU-s kódot írni csak az nv szép mosolyáért. Ezért mondták az E3-on páran, hogy az AA miatt szükséges a DX10.1 használata.
Az úgynevezett Deferred Supersampling meg szart sem ér. Közel 200FPS kell ahhoz, hogy a 64tap beállítás mellett legyen stabil 30 FPS-ed.Jó ha Tri-SLI-vel, vagy Quad Crossfire-vel bekapcsolhatod.
-
Abu85
HÁZIGAZDA
válasz
boogie84 #3590 üzenetére
Én egy középkategóriás DX11 chipet tartok a legvalószínűbbnek, év vége-jövő év eleje..
Emlékszem, úgy másfél éve volt egy nV konferencia ahol a vállalat jövője szerint a PC-s GPU fejlesztés mellékvágányra kerül, és a bevételek 30%-át hozzák majd (főleg Desktop PC alsó-közép kategória és mobil GPU-k). -
Abu85
HÁZIGAZDA
A DX10.1 hiányától elsősorban AA támogatása nem lesz a kártyának.
-
Abu85
HÁZIGAZDA
válasz
boogie84 #3579 üzenetére
Szerintem ez attól függ, hogy az a bepletyizett középkategóriás DX11-es chip fejlesztése milyen ütemben halad. Ha év végére kihozható akkor vélhetőleg a Desktop PC piacra nem fog jönni a G200b. Egyszerűen felesleges lenne kiadni. Ami most gazdaságilag megérné az nV-nek az egy 9800GX2+ az 55nm-es G92-kel.
-
Abu85
HÁZIGAZDA
Még ha augusztusban meg is jelenik akkor sem lesznek a G200b-vel kisegítve. Még azt is rohadt drága lesz gyártani, az RV770-hez képpest.
Szvsz a platykák közül az egyetlen reális, ami azt mondja, hogy jön egy DX11-es középkategóriás chip. DX10-es chipet már nem fognak kidobni hisz akkor év végén nem lesz AA támogatásuk. -
-
Abu85
HÁZIGAZDA
Kb. ez is lesz a trend... A DX10.1-et elsősorban a jobb, gyorsabb Deferred Rendering-hez használják fel. De tulajdonképpen ez realizálható, hiszen ép ésszel átgondolva lényeges előrelépés itt történt. Ezenkívül a DX10 használata is egy kicsit meglendül majd. Valszeg több helyen használnak majd Particle GS-t, megnő egy picit az ALU:Tex arány, és remélhetőleg látunk majd egy kis Indirect Lightning elvű feldolgozást is.
-
Abu85
HÁZIGAZDA
válasz
boogie84 #3420 üzenetére
Ebből a tesztből az jön le, hogy a 4870 jobb vétel. Főleg úgy, hogy a jövőben a programok felépítése inkább a Call Of Juarez-re és a Company Of Heroes-re fog hasonlítani, mint a Crysis-ra. Meg eleve ott van, hogy a DX10.1-ben van Multisample Acces és LOD Ins, amivel nem kell lemondani az AA és az AF szűrésről sem.
A pöttyök DX10-ben vannak, mert az AMD folyamatosan kísérletezik a kártyák paraméterezhetőségével. Három hónap alatt a Lost Planet közel 90%-ot gyorsult, míg az egyéb játékok is átlagosan 25-30%-ot profitáltak, most kezdik érezni az R600 működésének lényegét. Anno amikor kijött a G80 ugyan ez volt 5-6 hónapig tiszta bug volt a driver aztán minden javítva lett.
Év végére pedig kb. egy tucat DX10.1 gama jön ki, mert az AMD Game csoportjának is több pénz jut a lehetőségek kiaknázására.
-
Abu85
HÁZIGAZDA
Hopp elszámoltam... 160 mintavételező kell az nV-be 40 TA-TF mellé.
Ugye a DX10.1-ben kötelező előírás a Gather4, így egy címzőhöz minimum 4 mintavételezőt kell társítani. A 40 TMU-s adat gondolom TA:TS:TF 40:160:40-es arányt vázolna.
AZ AMD az RV770 textúrázóblokkjából kivágta a szűretlen mintákkal dolgozó csatornát. Az RV770 most már 40:160:40 arányt használ. Az RV670-ben még volt értelme a Vertex Fetch csatornának, mert logikusan hangzott, hogy megnő a VTF használata az R600 idejéban, most már lényegtelen a csatorna használata, mert a Geometry Shader helyettesíti a VTF-fel megoldható eljárásokat és nem mellékesen gyorsabb is. -
Abu85
HÁZIGAZDA
Van a Zlatan gyerek a Fud fórumán szerinte nem is lesz G200b PC-re, mert év végére kint lesz a G300. Taiwani fórumok szerint a G300 speckók: 320SP, 40TMU, 256bit GDDR5, 16ROP - DX10.1, but no DP support
Ez a spec szvsz reálisnak tűnik ... a 320SP-s változat hitelesebb, mert az jobban illik a G200 felépítéséhez, mint a TGD 384 SP-se, az nem hozható ki ebből az architektúrából. A 40TMU valszeg a Gather4 miatt van, mert ide már 120 mintavételező kell. Amúgy sem kő parázni, a kevés TMU láttán, az nV most tért vissza arra az útra amerre a technológia fejlődik (G80-as kitérő után persze) -
Abu85
HÁZIGAZDA
válasz
raskolnikoff #1659 üzenetére
Lenni lesz olyan játék, amiben bőven jobb lesz a 9800GX2-nél, de közel sem azért amit a Guru3D megkérdőjelezhető hozzáértője próbált taglalni.
-
Abu85
HÁZIGAZDA
Pár hejen azért kibaxta a biztosítékot nálam az nV marketing mondata:
Rage3D:
Geometry Shader
Internal Buffer structures have been upsized by 6x. This should provide a significant improvement to streamout performance.
Ez fasza ...De még mindig nem értem, hogy mi lesz azokkal a tulajokkal akik még a nem az "upsized by 6x" struktúrájú GF8-9 karikkal versenyeznek?
Ergo nem érik el a használható sebességet Pipe GS területeken.
Vagy ők már nem fontosak? Nem lett volna egyszerűbb eleve jóra tervezni a G80-G92-őt?
Elhiszem, hogy nem lett volna olyan kiugróan jó a jelen kor esetében, de legalább nem kellene kidobni őket, legalább futnának rajta a keményebb DX10 eljárások.
Talán a G80 az annyira nem gáz, de a G92 az nagy probléma... Elég sok eladó van belőle a boltokban és a G200 fejlesztéseinek iránya alapján az nV nyiltan bevalja, hogy sok homok van a gépezetben.
Tudom nem lehet elvárni az emberektől, hogy meglássák milyen korlátok vannak a rendszer architektúrájában, de akkor is marha nagy átbaszásak tartom az egészet. Megveszek egy kártyát Full DX10-re és ott fog behalni ahova tervezték. És persze nyilván jön a GeForce fan vérpistikétől, hogy mekkora szar ez a DX10, amikor pont, hogy az nV baszott ki a István barátunkkal...
Kiábrándító ez a mindent a pénzért üzletpolitika.
---
Anandtech:
"We support Multisample readback, which is about the only dx10.1 feature (some) developers are interested in. If we say what we can't do, ATI will try to have developers do it, which can only harm pc gaming and frustrate gamers."
Bezony szegény játékosok, mekkorát szívnának ha kapnának újra AA támogatást.
Mostantól a Hős nVidia lehetővé teszi a fejlesztőknek, hogy a szabványon kívül az új kariján is elérhető legyen a Multisample adatok elérése. Nem is tudom miért alkalmazunk szabványt?Minek is az, a játékos nem érez belőle semmit, a fejlesztő meg majd ír 10 vagy 20 render passt a különböző rendszerekhez. A hülyének is logikus, hogy ez az örök kánaánhoz vezet majd... Mindenki hihetetlenül boldog lesz, a fejlesztők dalolva kódolják a speckó rutinokat a programba, hogy minden rendszeren tökéletes legyen a működés. Most már látom, hogy a DX10 a legnagyobb átverés a történelemben... Ki volt az az idióta aki ezt kitalálta
... egyszerűen akkora marhaság az egész API alapelve ... még, hogy egyszer megírom a DX10-es kódot és az biztos, hogy fut minden olyan rendszeren ami támogatja az API-t, hát kinek kell ez könyörgöm, a kihívás hol marad.
Köszönöm nV, hogy felnyitottátok a szemem, most már látom, hogy mi a jövő... Ettől az állásponttól most erőre kap a PC-s piac, és a konzolt visszaverik a gettóba...
Új hozzászólás Aktív témák
Hirdetés
- MSI GeForce VENTUS 3X RTX 3070 Ti 8GB OC GDDR6X 256bit videokártya
- ASUS GeForce GTX 1660 SUPER OC 6GB ELADÓ
- Nvidia RTX 4070 Gainward ghost Video Kártya
- BESZÁMÍTÁS! ÚJ 4060Ti 5060Ti 16GB 4070 Super 5070 videokártya 3 év garancia 27% áfa akár részletre
- 4090 BESZAMITAS!! Gainward Phantom RTX 5090 32GB (Bontatlan, Garancia)
- Amazon Kindle 10th Generation ébresztős tok
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7600X 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- Xiaomi Redmi 12 Pro 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
- Apple iPhone 7 32GB, Kártyafüggetlen, 1 Év Garanciával
- Tablet felvásárlás!! Samsung Galaxy Tab A8, Samsung Galaxy Tab A9, Samsung Galaxy Tab S6 Lite
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest