Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz rumkola #209 üzenetére

    Nem ... a futtatott program felügyeli a frissítési frekit, kényszerítés nem lehetséges. Bármit próbálhatsz nem fog működni. Illetve ha írsz egy olyan monitor drivert, amiben a támogatott felbontásokhoz a max frissítést adod csak meg, akkor az lehetséges, hogy működik, hiszen akkor az alapértelmezett frissítés is magas.

    Egyébként erre a változásra a Vista bevezetett egy teljes képernyős ablak módot, akkor az asztal frekije lesz alkalmazva.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #207 üzenetére

    A frissítési frekvenciát a DX10 módban csak a futtatott program módosíthatja. Ha abban nincs ilyen opció, akkor a Windows alapértelmezett frekvenciája lép érvénybe, ami a legtöbbször 60 Hz.

  • Abu85

    HÁZIGAZDA

    válasz lovezsani #203 üzenetére

    Mert felraktad az új drivert ami már DDI 11-es, azaz tudja kezelni a DX11-es kód DX10-es részét. :)

  • Abu85

    HÁZIGAZDA

    válasz Raymond #187 üzenetére

    Tényleg ... tavasz óta visszatértek a nyolc dolcsiról. Amúgy mitől emelkedhetett ennyire a részvényárfolyam, hisz technikailag a fő profiljukban kiestek a versenyből. Mitől bíznak ennyire a részvényesek bennük. Év végére is csak belépő szintű DX10.1-es megoldásokat prezentálnak. Az új generáció meg sehol, rossz nyelvek szerint nemhogy GT300 nincs, hanem semmi nincs a kezükben. Vagy az MS-sel kötött Zune üzlet lehet az oka?

  • Abu85

    HÁZIGAZDA

    válasz smkb #183 üzenetére

    Részvények szempontjából az NV még jobban ingadozik mint az AMD. Most nagyjából mindkét cég stagnál egy bizonyos szinten. Az volta a különbség, hogy az AMD részvények a múlt és vége óta meredeken emelkedtek, míg az NV részvények értékei csökkentek.

    Ha pénzt akarsz keresni, akkor most AMD részvény a legjobb, mert megint beszart a nép és ez jó alkalom. :D

  • Abu85

    HÁZIGAZDA

    válasz BalaNce87 #181 üzenetére

    A cégek terv szinten közel tíz évre előre gondolkodnak. Egy külön csapat kutatja a lehetséges irányvonalakat. Világos volt, hogy 2010-2011-től a processzorokba egyre több egység kerül integrálásra, köztük a GPU. Az AMD-nek két választása volt lassan fejleszt egy ütőképes GPU, vagy belecsap a lecsóba és megvásárol egy GPU gyártót (illetve a harmadik lehetőség, hogy nem csinál semmit és az Intel befoghatatlanul elhúz a platform nélküli konkurensektől). Az ATI-val sikerült megegyezni, de tudvalevő, hogy az NVIDIA-val is folytattak tárgyalásokat. Nyilván a kanadai cég az akkori nyilvános áron ezekkel a technológiákkal jó választásnak bizonyult. Az NV gondolom túl drága volt, így csak a közös fejlesztés lehetett volna elképzelhető, amit az AMD nem akart.
    A saját GPU fejlesztése sem lett volna könnyebb. Látod az Intel tele van pénzzel és a Larrabee-t már Laughabee néven csúfolják. A fellengzős tervekről is letettek. Az új slideok már nincsenek tele Ray-tracinggel, és többnyire azt nyilatkozzák, hogy a harmadik generációs Larrabee lesz ténylegesen versenyképes a PC-s piacon.

    Az Intel egyelőre a Clarkdale-ben csinál olyan procit, ami MCM kialakítású és van a központi lapka mellett egy GPU-t tartalmazó vezérlő. A Sandy Bridge viszont már teljesen integrálva tartalmazza a GPU-t, és az AMD-s Bulldozer is.

  • Abu85

    HÁZIGAZDA

    válasz rocket #178 üzenetére

    Az NV-t érdekelné a diszkrét GPU piac. Csak a platformosodás ellen nem tud mit csinálni. 2010-ben jönnek az első olyan CPU-k amik GPU-val rendelkeznek. Ez konkrétan teljesen megöli az NV integrált GPU piacát. Az Atomról teljesen lemondhat, mert az új rendszerhez már nem kell külön chipset, csak a vezérlőhub lesz. Az Ion2 ennek megfelelően az ULV-s Intel rendszereket célozza, ez marad az egyetlen piac ahol lesz még alaplapra integrált GPU hagyományos értelemben.
    2011-től pedig a legnagyobb példányszámban eladott CPU-k tartalmaznak GPU-t. Ezzel teljesen ki lesz ütve a 100 dollár alatti diszkrét GPU piac. A drágább kártyákat pedig a gyártóhoz mérten érdemes venni, mert a teljesítmény összeadódik. Egyszerűen nem lesz hely egy önálló szereplőknek. A múlt héten építette le az NV a TWIMTBP programot, ez már több, mint intő jel ... Az egykori "big boss" Roy Taylor már a Tegra támogatására koncentrál. A zöldek most egy sötét alagútban vannak, és keresik a választ, hogy hogyan kapcsolják fel a lámpákat. A CUDA lehet az egyetlen mentsvár, de a nyílt platformok mellett már semmi esélye.

    A csökkenő R&D költségek sem azt mutatnák, hogy hátrányban vannak. Az AMD már prezentált működő DX11-es GPU-t, az NV-től még semmit nem láttunk. A Computexen nem is volt szó a GPU-król ... illetve folyamatosan jönnek a pletykák a nem létező GT300 tape out-járól, megvolt, nem volt meg, megvolt mégis ... :)

  • Abu85

    HÁZIGAZDA

    válasz rocket #174 üzenetére

    Máris vannak piaci részesedés adatok? Eddig csak azt írta meg az AMD, hogy 78%-kal felfuttatta a GPU termelést.

    Ezt a slideot linkelted be, ez nagyon régi előrejelzés 2007-ből származik. Már van 2009-es is ami 2012-re 51%-ot ad a Tegrának. 20-at a Tesla rendszernek, 5-öt az egyébnek és 24-et a teljes GPU üzletágnak (Quadro, notebook, desktop). A Jen-Sen Huang ez alapján nyilatkozott úgy, hogy 2012-ben a Tegra fogja a bevételek több mint felét hozni. A desktop GPU piacon irreális lenne a 2014-re tervezett 33%-os bevétel. 2014-ben minden CPU GPU-vel érkezik, és az alaplapokon is több foglalat lesz, így nem a dedikált célhardverekkel, hanem a plusz procik irányában lesz bővítve a gép.
    2012-re reális a 24%-os teljes GPU részesedés, abból valszeg a Quadro teszi ki a legnagyobb arányt, mivel azt érdemes venni az integrált GPU-s procik mellé is.

    Dirk Meyer azt mondta, hogy Q4-re lesz nyereség. Az elemzők prognosztizálták a Q3-at az első negyedév alapján. Valszeg most már ők is a Q4-re tippelnek.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #170 üzenetére

    Miért? Van valami az NV kezében a saját zárt megoldásain kívül. Októberben hozzák be a DX10.1-es GeForce-okat az asztali szegmensbe. Ez nagyon kevés már. A GT300-ról meg egy ideje tudvalevő, hogy nem létezik, soha nem is létezett. Egy Fermi nevű cGPU-n dolgoznak a Teslába, aminek egyszer lesz GPU változata.
    Az Intel Larrabee-je egyelőre nagy és lassú, de nyilván nem vártunk tőle sokat.

    Padisah: A majd csak egy hónap múlva derül ki, de az NV nem csak a GPU üzletágból áll, sőt hamarosan a GPU üzletág kiegészítő lesz a bevétel szempontjából.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #167 üzenetére

    Az első negyedévben nyereséges volt a részleg. Amúgy a fejlesztésre komoly pénz megy el. Nyilvánvaló, hogy az AMD a lehető leghamarabb egyeduralkodó akar lenni, mert az NV már nem nagyon játszik, míg az Intel nagyon kevés lesz a Larrabee-vel. Nyomni kell a fejlesztést, mert később ez a pénz kamatostul jön nekik vissza. Ez alapján bőven belefér ilyen veszteség, ha egyeduralkodókét negyedévente 200-300 milla plusz jön majd be. Valahol ez is cégérdek. :)

  • Abu85

    HÁZIGAZDA

    válasz Raymond #162 üzenetére

    Ez önmagában annyira nem vészes, a teljes veszteségnek a töredéke. A raktárakat pedig ki kell söpörni. A Q4-ben konkurencia nélkül (*) a DX11-es rendszerek aratni fognak. Éves szinten a VGA üzletág még pluszban is kiköthet.

    * nem tekintem konkurenciának a sima és dual GT215-öt. :)

  • Abu85

    HÁZIGAZDA

    válasz ashot #157 üzenetére

    Az NV szerintem semmit nem akar kihagyni, csak nincs fény az alagút végén. Egyszerűen akárhogy erőlködik a teljes platformok ellen esélytelenek. Az felsőkategória pedig önmagában nem tud eltartani egy ekkora céget, így új piacok után kell nézni. Az én meglátásom szerint magába a GPU piacban nem fognak túl sok zsetont invesztálni. Fejlesztenek időnként egy chipet a GPGPU szegmensbe és azt betolják a csúcskatba, majd évente vesznek egy-két címet, amivel majd megpróbálják eladni a hardvert.

  • Abu85

    HÁZIGAZDA

    válasz schawo #152 üzenetére

    Szerintem senkinek sem tetszik ez a jövőkép, de kicsik vagyunk ahhoz, hogy megváltoztassuk.
    Az Intel meg folyamatosan erősíti az Imagination-nel való kapcsolatát. Márpedig a vállalat technológiái nagyon érdeklik az Intelt. Őket jó ötlet lenne felvásárolni, anyagilag sem viselné meg az Intelt.

    D4rkAv3ng3r: A VIA-t soha nem akarta megvenni az NV. Nem is lenne értelme, ha valaki 50%-nál nagyobb részesedést szerez a vállalatban, érvényét veszti a keresztlicensz szerződés. Az NV-nek x86 licensz kell, nem a VIA. Az Intelnek meg felesleges az NVIDIA, egyrészt maga a cég rohadt drága lenne (kb. 20 milliárd az az ár amire Huang bácsi rábólintana), a technológiáik pedig nem fontosak az Intelnek.

    D4rkAv3ng3r (156): Az Imagination gpu-kat fejleszt és azokat lehet liceszelni a gyártóknak. Az Intel GMA500 Imagination technológia.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #149 üzenetére

    A belépő szintű processzorok GPU-i kb annyira lesznek képesek, mint a mostani integrált GPU-k (az inteles megoldásokat most ne nézzük). A alsó-középkategóriás CPU-k GPU-i a jelenleg vásárolható 10 ezer forint körüli GPU-k teljesítményét hozzák majd, míg a középkategóriás egységek a 20 ezer forintos dedikált GPU sávot törlik el. Ezek melle lesz egy új belépőszint a GPU-kból. Érdemes a CPU gyártójához választani GPU-t mert az azonos architektúrák teljesítménye összeadódik.
    Egyedül a felsőkategóriában lesz érdemi harc. Ahol nem lesz hátrány, ha valakinek nincs CPU-ja.

  • Abu85

    HÁZIGAZDA

    válasz rumkola #147 üzenetére

    Ez nem járható út a profit szintjén. Gyakorlatilag a teljes haszon elveszne. Ha egy AMD és egy NV kari x teljesítményű és azonos árú, akkor az AMD karit fogják választani, mert az integrált GPU teljesítménye hozzáadódik az x teljesítményű AMD karihoz. Az NV-nek azonos áron legalább az integrált GPU teljesítményével többet kell kínálnia. Kétlem, hogy ez tartható, főleg úgy, hogy az AMD architektúrája jelentősen kevesebb tranzisztorral hozza ugyanazt a szintet, fejlettebb felépítéssel. Az NV továbbra is a GPGPU vonalra fog koncentrálni, így kis GPU-k továbbra sem várhatók tőlük.

    Az egyetlen esély a PC-s piacra a saját X86 licensz és a saját CPU. Illetve a CUDA szabvánnyá tétele is jó az NV-nek, hiszen szoftverből manipulálható lenne az Intel és az AMD rendszerek teljesítménye.

  • Abu85

    HÁZIGAZDA

    válasz ashot #143 üzenetére

    A tesztek alapján nem. Mellesleg miért nem lehet a Radeon HD 4890-et házilag húzni?

    Egyébként érdekelne, hogy mit vártok az NVIDIA-tól. Tehát most azonkívül, hogy reménykedik mindenki a nagy visszatérésben. Mi az a racionális magyarázat, amiért érdemes az NV-nek továbbra is a GPU piacra koncentrálnia. Most konkrétan nézzük a tényeket. Az AMD és az Intel 2011-től olyan CPU-kat fog kínálni (a felsőkategórián kívül), amik rendelkeznek beépített GPU-val. Tehát konkrétan az olcsó OEM gépek piaca, a netbook és a notebook szegmenssel helyből kiesik. Az Apple-től sem véletlen jön folyamatosan az a pletyka, hogy megmutatták a zöldeknek merre van az ajtó. Csak Intel holmit akarnak az almások kínálni.
    A középkategóriás CPU-k jó teljesítményű integrált GPU-t kapnak, csak nézd azt, hogy az AMD GPU-k milyen brutális teljesítmény/mm^2 aránnyal rendelkeznek, és a fejlesztési ütemtervben az arány állandó duplázása a cél. De legyen úgy, hogy az OEM gyártók számára kevés lesz a teljesítmény, akkor az CPU gyártója (Intel, vagy AMD) is kínál dedikált GPU-t, melyhez 2011-re lesz olyan MultiGPU megvalósítás, hogy a teljesítmény összeadódjon (AMD oldalon biztos, Intel oldalon ez architektúrafüggő, de megoldható). Ezért jó a platformszintű elgondolás, mindent elbírsz adni egybe, mert teljesítmény szempontjából egyben utolérhetetlen megoldásokat kínálhatsz. Tehát Intel CPU-hoz Intel GPU lesz a jó választás, az AMD-hez, meg AMD. És akkor a nyilvánvaló teljesítménybeli hátrányok mellett ki fog NV-t rakni az OEM gépekbe?
    A felsőkategória nyilván reális, hiszen azokba a CPU-kba csak 2012 fele építenek integrált GPU-t, így ott lehet keresnivalója az NV-nek, de ez a piac túró a cég eltartásához, maximum kiegészítő bevételt hozhat amit a 2012-re tervezett bevételmutató 7%-ra tett. Bár ez első hangzásra túl optimista megközelítés, de legyen úgy. Végül is a GPGPU piacra mindenképp lesz chip, az meg eladható PC-re is a top szegmensbe.

    Most látva a tényeket, még egyszer kérdezem. Mi az a racionális érv, amiért az NV-nek (mint profitorientált vállalatnak) erre a piacra kellene koncentrálnia. :)

  • Abu85

    HÁZIGAZDA

    válasz antikomcsi #135 üzenetére

    Mi értelme drágább kártyával példálózni, amikor van olcsóbban gyorsabb Radeon. Racionális érvek alapján érdemes összehasonlítani. Én is linkelhetek 9800GTX+-ot 40k környékén, de logikátlan, mert olcsóbban van nála jobb GeForce.

  • Abu85

    HÁZIGAZDA

    válasz antikomcsi #133 üzenetére

    Abba nem gondoltál még bele, hogy ez nem elfogultság, csak jobban átlátom az egész helyzetet, így könnyebben meg tudom ítélni a felhasználók érdekét? :)
    Ha elfogult lennék, akkor régen sem ajánlottam volna az NVIDIA kártyákat, pedig amikor az NV-nek volt jobb technikája, akkor az Ati-sokkal vitáztam. :D [link] - valszeg akkoriban azért álltam az NV mellett, mert jobbat kínált. :)

  • Abu85

    HÁZIGAZDA

    válasz schwartz #128 üzenetére

    Az Edge Detect segít a recéken, de ne feledd, hogy ez nagyon megnövelte az ALU erőforrásigényt. [link] - A HD 4870 512 MB alá csúszik a GeForce GTX 260 teljesítménye (nem is kevéssel), holott az árban többet kell érte fizetni. A DX10 és a DX10.1 móddal mindkét oldal nagyobb sebességre lenne képes. Neked mint felhasználónak az az érdeked, hogy a lehető legjobban legyen a kártya erőforrása kihasználva. Persze a CoJ: BiB így is jól fut, de lehetne szebb is és gyorsabb is.

    rumkola: Nem ... a DX10 mód volt tervezve, de az Ubi szűkös határidőt szabott meg, ezért lett csak DX9. Maga a motor amúgy támogatja a DX10/10.1-et és a Xenos tesszellátort. Az AMD-nek partnerkapcsolata van a Techland-el (a stúdió mindig megkapja a legújabb AMD hardvereket, amiért az AMD reklámot kér a kiállításokon, továbbá segítséget ad a legújabb technológiák kihasználására), a cég soha nem vesz támogatást, főleg nem a jelenlegi helyzetben, amikor konkrétan nincs konkurencia.

  • Abu85

    HÁZIGAZDA

    válasz FireGL #122 üzenetére

    Amik normálisan külön optimalizált DX10 móddal rendelkeznek, azok jól mennek. PL.: Far Cry 2.

    Az igazi gyorsulást az eljárások szempontjából lehet nyerni, amit a DX10.1 már bizonyít. [link] - a cikkben is említettem a DX11-es Lokal Data Share-t, ami további 10-15% pluszt eredményez.

    rumkola: De miért PR a játékok AA támogatása. 2009-ben nevetséges, hogy nincs. Ami meg még nagyobb vicc, hogy van rá megoldás. :) A másik, hogy a DX10.1 nagyobb sebességet eredményez, ami szintén a felhasználók érdeke. Az NV is jön a DX10.1-es karikkal. Eddig csak azért mentek szembe a szabvánnyal, mert próbálták a CUDA elterjesztését, mivel ez az egyetlen esélyük a GPU piacon. Most, hogy belátták, hogy ez veszett ügy beállnak a szabványt támogatók sorába és szép lassan leépítik a Desktop GPU üzletágat, mert tulajdonképpen semmi esélyük az Intel és az AMD platformszintű megoldásai ellen. Minden zseton ami a PC-s GPU üzletágba megy ezentúl kidobott pénz számukra.

    Dark KillerX: Mivel a Tegra még nem tudja eltartani a vállalatot, így a fejlesztők támogatása. A Capcom reklámszintű szerződést kötött, ami megpróbálja palástolni a problémákat. (Amúgy nincs minden rendben ott sem a Terminátor és a Bionic Commando ugye GeForce PhysX-nek volt beharangozva, jelenleg egyik sem használja a GPU alapú fizikai gyorsítást, mert az NV nem fizetett. A Bionic Commandohoz már sose fog a PhysX mód elkészülni, míg a Terminátorhoz már kész van a patch, a GRIN arra vár, hogy az NV utalja a megbeszélt pénzt. Az NV-nek az a problémája, hogy a Capcommal szóban a Bionic Commandora és nem a Terminátorra egyeztek meg, és ezt a zöldek sérelmezik. Ami érthető a Terminátor hatalmas bukás, a Bionic Commando pedig ha nem is az év játéka, de kellemesen szórakoztató.)
    A jövőben a Geforce eladásokat pedig abból szeretnék szerezni, hogy kilóre megvesznek évente egy-két játékot. Idén a Darkest Of Days, és a Shattered Horizon lesz a full NV támogatott játék, amely gyakorlatilag Geforce-ot követel. Kérdés, hogy az emberek ezt a két játékot választják-e, vagy élvezik a többi játékban a DX10.1 és a DX11 előnyeit. :)

    antikomcsi:
    HD 4850 512 MB [link] - 26,5k <-> GeForce GTS 250 512 MB [link] - 28k

    HD 4850 1 GB [link] - 29k <-> GeForce GTS 250 1 GB [link] - 34k

    HD 4890 1 GB [link] - 52k <-> GeForce GTX 275 1 GB [link] - 54k

    Az NV karik nem tudják a DX10.1-et, ez súlyos érvágás. Lehet, hogy ezt egy átlag felhasználó nem látja, de azért vagyok itt, hogy felhívjam rá a figyelmet. Elmagyarázzam az egészet halandó nyelven. :)

  • Abu85

    HÁZIGAZDA

    válasz antikomcsi #120 üzenetére

    Mi a nem igaz. Racionális érvekkel mondj valami előnyt az NVIDIA mellett, mert ár/teljesítményben és szabvány technológiák támogatásában le vannak maradva. Nem is látom, hogy annyira kapkodnák magukat a fejlesztéssel (ami persze jó eséllyel tervszerű, hiszen az üzleti előrejelzés 2012-re már csak 7%-os bevételt jelez a Desktop GPU-kból). Az NV TWIMTBP programja a múlthéten épült le. A csapat több mint fele Roy Taylorral az élen mostantól a Tegra rendszerekre keres támogatást. Vak aki nem látja mi történik. Én már jeleztem ezt régebben, de akkor csak röhögtek rajtam. És lám ... :U

    A DX11-nek előnyei vannak, gyorsabb lesz a feldolgozás. Miért ne érné meg ezt kihasználni. Ráadásul DX9 alatt egy csomó eljárás nem kompatibilis egymással, amire a DX10.1 jelent megoldást. Szerinted nem az a felhasználó érdeke, hogy legyen AA Deferred Rendering mellett, csak hogy a legegyszerűbb problémáról beszéljünk. De említhetném az anizotróp szűrés kompatibilítási problémáit a parallax occlusion mappal, amire valami hihetetlen okból a DX10.1 szintén kínál megoldást a LOD utasítások formájában. Ezek alapján nem nevezném meglepőnek, a fejlesztők nyitását a DX10.1 felé, éppen eleget szívtunk a DX9-es AA mentes játékokkal. :))

  • Abu85

    HÁZIGAZDA

    válasz Gomezz #117 üzenetére

    Az AMD-nek erre nincs szüksége, hiszen azonos áron gyorsabb megoldásokat kínál, mint az NVIDIA. Az, hogy fejlettebb is csak rátesz egy lapáttal. DX10.1-es játék is van már év végére egy tucat lesz, míg DX11-esből kettő-három. :)
    Az meg szomoró, hogy a DX9-nél leragadt a többség, látszik, hogy 2009-es DX9 programokban már nincs elsimítás. :(

  • Abu85

    HÁZIGAZDA

    válasz Raymond #88 üzenetére

    Aha ... valószínűleg tényleg ez az igazság. Találtam egy régebbi MS doksit a DX8.1-ről és PS 1.3 van követelménynek írva. Az 1.4 csak ajánlás. :)

  • Abu85

    HÁZIGAZDA

    válasz Raymond #86 üzenetére

    Van erről valami hivatalos dokumentum a Microsofttól? Nekem az ATI-s és az NV-s anyagok vannak. Megnézve ezeket ellentmondanak egymásnak, az ATI követelményként említi a PS1.4-t, míg az NV nem is ír róla (ellenben az 1.3-at említi követelménynek).
    Most már engem is foglalkoztat mi a hivatalos tényállás. :)

  • Abu85

    HÁZIGAZDA

    válasz Padisah #84 üzenetére

    A DX8.1 követelménye a Pixel Shader 1.4 volt. A GeForce 4 Pixel Shader 1.3-at tudott. Ergo DirectX 8.0 a rendszer függetlenül attól, hogy a gyártók mit írtak a kártya dobozára. :)

  • Abu85

    HÁZIGAZDA

    válasz K21_overlord #58 üzenetére

    A linket beraktam.

    A játék fejlesztése minden esetben PC-re kezdődik meg, még akkor is ha konzol exkluzív. Mindhárom konzolhoz van belső használatra tervezett emulátor. Ezután optimalizálják a kódot a konzolok képességeihez, a grafikai eljárásokat is az elemzéseknek megfelelően írják. Amennyiben lesz PC-s verzió, akkor választható az az út, hogy a PC képességeire szabják a játékot, tehát plusz effekteket raknak bele, hogy minél szebb legyen.
    Az Xbox 360-ban és a PS3-ban is van még egy rakás tartalék. Az új játékok már rá is álltak ezek kihasználására.

    smkb: A DX11 fejlesztésre lehet jelentkezni az AMD-nél. Amennyiben a vállalat úgy véli, hogy szükséged van DX11-es hardverre, akkor ad. Már május óta le vannak szállítva a partnereknek a DX11-es vasak, annyi a különbség, hogy a paramétereik nem véglegesek, de funkcionalítás tekintetében DX11-esek. A Computexre egy ilyen karit vittek.
    Az infókat felesleges kirakni a netre, mert még az AMD sem döntött a végleges paraméterekről. A másik dolog pedig, hogy itt nagyon komoly titoktartás megy, ha valaki ezt megszegi, akkor az AMD támogatását is elveszti. Mivel a DX11-re csak az AMD-nek vannak felkészült programozói ezt nem nagyon kockáztatják meg a stúdiók.

    Sotho (69): A compute shader elsősorban az általános célú programokért jött létre. Technikailag nagyon jó képességű, így a közeljövőben számos program fog rá érkezni. Bár itt a fejlesztők véleménye megoszlik. Az OpenCL is reális alternatíva, illette többen szeretnék a CUDA-t ipari szabványnak, de erre kevés az esély, így az NV rendszere idővel visszaszorul.

    orbano (75): De truformmal lényegében a kocka geometriai váza eltorzul, nem lesz többé kocka, ez a rendszerrel a probléma. Ahhoz, hogy abból kocka legyen az alapmodellnek nem szabad kockának lennie. Persze van némi vezérlés a truformban, de a gyakorlatiban nem igazán működik. Maga a truform ötlete nagyon jó, csak a megvalósítás gyenge. A Xenos tesszellátor elve sokkal jobb.
    A Xenos elvekre épülő tesszellátor Displacement Map segítségével dolgozik, tehát nem kell speckó modell. A DX11-es verzió ennél kifinomultabb, az elv ugyanaz, de két shader szakasz van tökéletes programozhatósághoz.

    flugi: Az AMD ugyanúgy támogatni fogja az OpenCL-t, de a Compute Shader is hasonlóan fontos számukra. A fejlesztők majd eldöntik melyik a kedvezőbb nekik. Az OpenGL sem véletlen szorult mára vissza. Össze sem lehet hasonlítani a megreformált DX10-zel, az MS rendszere mára sokkal jobb. Persze nyilván az OpenGL-nél a kompatibilitás elsődleges szempont, így reformról itt szó sem lehetett.

  • Abu85

    HÁZIGAZDA

    válasz Med1on #47 üzenetére

    Még a COJ-t is ideírhatjuk DX10 patch-el. :)

    szuper-t (50): Amiket Med1on írt azok tökéletesek.

  • Abu85

    HÁZIGAZDA

    válasz radírfej #42 üzenetére

    Riddick az speciális eset. Az a játék a jelenlegi játékokhoz viszonyítva marha sokat mintavételez, a HD 2000/3000-nek dedikált texture fetch csatornája van, nem véletlen virgonc ilyen környezetben.

    Kb. ez a helyzet átlagfelhasználói leírásban. :)

  • Abu85

    HÁZIGAZDA

    válasz fagy53 #38 üzenetére

    Jah csak ott az a fricska, hogy a CoJ 2 DX9 kódja nem támogatja az élsimítást. Ha lenne valamilyen SBAA kód benne, akkor felzabálná a hardvert.

    dezz: Mivel a DX11 erre a rendszerre épül elvben ... érdemes megemlíteni főleg, hogy bekerül a PC-s grafkarikba is, így a támogatás érinti a jelenlegi Radeon tulajokat is. A Xenos féle tesszellálás teljesen hardveres megoldás, és minden on-the-fly megy legalábbis a Xenos-on.

  • Abu85

    HÁZIGAZDA

    válasz juliabrilke #30 üzenetére

    A DX10.1 előtt ment ilyen szöveg és láss csodát. [link]
    A DX10 előtt az egyszerűsödésről volt szó, és az újragondolt alapokról, amik például lehetővé teszik a manapság DX9 alatt nem működő AA-t. :)

    dezz: Ez nem reklám. A Xenos rendszer elvére alapoz a DX11-es tesszellátor. Ezért van ez a rendszer megemlítve. A Truform speciálisan készített modelleket követelt. Sokszor találkoztam truform-os játékban olyan dobozzal aminek kocka formát kellett volna önteni, de inkább valami ívelt izé volt.
    A Viva Pinata és a Mass Effect használja a Xenos tesszellátort Xbox 360-on. Mindkettő a teljesítmény növelése céljából, mert az alacsony poligonszámú modellek memóriát szabadítanak fel.

  • Abu85

    HÁZIGAZDA

    válasz belaazallat #11 üzenetére

    Amit el lehet mondani, az a DiRT2. Illetve jön egy BattleForge DX11 patch. Emellett még jön egy pár, de azok még NDA-sak (nem adhatok infót róluk). [link] - ez a videó talán segít. :)

    tdd587: Az én nyugodt éjszakáimat is ez a kérdés zavarja. ;]

Új hozzászólás Aktív témák

Hirdetés