Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Löncsi

    őstag

    válasz Hakuoro #8436 üzenetére

    But the murmurs suggest Nvidia has been dedicating a lot of resources to get physics and fluid dynamics operating properly, which has so far, allegedly, taken half of its gaming engineers and six months to get right.

    Húha, itt úgy néz ki érdekes dolgok fognak jönni, kíváncsian várjuk.

    Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28

  • MarcZ

    senior tag

    válasz Hakuoro #8436 üzenetére

    Várjuk a fejleményeket! \o/ Jónak ígérkezik.

    A man's got to do what a man's got to do.

  • Abu85

    HÁZIGAZDA

    válasz Hakuoro #8436 üzenetére

    Ez erős spekuláció szvsz, még többszöri olvasásra is nagyon kockázatos. Nem kérdés, hogy az Ageia hardvere anno jobb volt a fizika számítására. Sőt még ma is az, csak nem élvez terméktámogatást. A gond itt az, hogy megéri-e tranzisztorok százmillióit egy olyan egységre költeni, amit pár játék tud kihasználni. 2011-ben két olyan játék jelent meg, mely GPU-s PhysX-et támogat. A többi megjelenéshez viszonyítva, ez durván kevés. Ráadásul vedd hozzá, hogy az apple-to-apple összehasonlítás érdekében a PhysX-et szinte minden tesztben inaktiválják.

    Az kétségtelenül tény, hogy manapság nagyon nehéz olyan GPU-t tervezni, ami minden egyes felmerült szempont szerint maximálisan megfelel a potenciális igényeknek. Ezek tipikusan a cGPU-k, amik hát olyanok, mint a GCN Radeon, vagyis a tranzisztor/teljesítmény aránya, sehol sem a legjobb, de szinte minden feladatban jó eredményt fog produkálni. Tipikusan grafikus számításra fejlesztett GPU-k a VLIW4/5 Radeonok. A Fermi valahol a kettő között van úgy félúton.
    Nyilván a fejlesztések kihívása jelentős, mivel a mostani generációval olyan igényeket is le kell fedni, ami csak 2012-ben, vagy 2013-ban merül fel, és mindezt tedd meg úgy, hogy jó legyél grafikában, compute számításban, legyen a rendszer úgy ahogy gazdaságos, illetve készítsd elő az integrálásra. Na most ilyen elvi követelmények mellett én nem tartom jó ötletnek, hogy egy dedikált, kifejezetten egy adott körülményhez illesztet egység foglalja az értékes tranzisztorokat. Ha pedig ez csak a PhysX-et fogja gyorsítani, akkor egyértelműen pazarlás. Legalábbis a gamer szinten, mivel évente egy kézen meg lehet számolni az ezt támogató játékokat. A profi szinten a PhysX eléggé elterjedt, ott ennek nagy jelentősége lehet.
    Azt tudom még elképzelni, hogy az NVIDIA már nem csak a PhysX-et veszi számításba, hanem a Bullettet is, amire egyre jobban építenek a konzolgyártók. Ez gyorsítható OpenCL-lel és DirectCompute-tal is (illetve a korábbi verziók mentek CUDA-n, talán ennek a beépítése nem megoldhatatlan feladat az új verziók esetében sem). Ennek viszont szerintem akkor lesz csak értelme, ha a CPU-magok mellé kerül be a GPU. Persze simán elképzelhető, hogy az NVIDIA a Keplerrel már erre készül, hiszen a VGA-k már nem számítanak nagy üzletnek. Sokkal fontosabb, hogy az integráció nagyon erős legyen. Ez opció lehet, csak nem biztos, hogy megéri most bevállalni, mert 2012-ben azért még elég nagy bevétele lesz az NV-nek a VGA-kból. Ok ... itt lehet azzal jönni, hogy a felsőkategória következmény nélkül feladható piac a maga 1-2%-os eladási rátájával, és ez igaz. Az is igaz, hogy főleg a notebookok piaca hozza majd a pénzt, de ott meg az IGP-k erősödése jelenti a kockázatot. Azt persze nem tudni, hogy az NVIDIA hogyan számolt a Tegrával, amikor a Keplert elkezdték fejleszteni. Lehet, hogy úgy kalkuláltak, hogy mára a Tegrának kellene eltartania a céget, de ez egyelőre nem történt meg. Tény, hogy növekszik a bevétel mobil vonalból, de nyereséget itt még nem láttak. A GPU-piac mondjuk abból a szempontból jól áll, hogy a nyereség zöme a 3D Visionből és az Intel negyedévenkénti komoly licencpénzéből van. Előbbi nehéz helyzetben van, mert az LG és a Samsung már nem támogatja, és kérdés, hogy a fejlesztők meddig fognak fizetni az SDK használatáért, látva, hogy egyre kevesebb olyan 3D-s monitor jelenik meg, ami kezeli a 3D Visiont, vagy esetleg felhozva a Windows 8-ban található Sztereó 3D SDK-t, mely egy szabványos megoldás. Itt érdemes feltenni a kérdést, hogy a 3D Vision meddig maradhat fizetős. Az Intel pénze persze megmarad.

    Egy szó, mint száz ... én ezt az Ageia integrálós dolgot nem tartom logikusnak. Megtörténhet, de nagyon sokat kellett inni a tervezés előtt, hogy a kockázatokról megfeledkezzenek a mérnökök.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák