Hirdetés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Loha #10057 üzenetére

    Ez a probléma, hogy jelenleg nincs semmi, amiért VGA vásárlásra adná a fejét a piac. Ezért csökken az eladás. A probléma persze nem a programokban keresendő, vagy magában a VGA-kban, mert a asztali PC-k eladása is meredeken csökken. Ahol nő az eladás, az a mobil piac, és a kisméretű, vagy monitorba szerelt PC-k. Ezt a cégek látják, és a fejlesztéseket is ide fogják koncentrálni.

    (#10058) gbors: Nem tudhatták, de sejthették. Az biztos, hogy egy ~600 mm2-es lapkát képtelenség olyan feltételek mellett gyárni, mint amit most a TSMC-vel kötöttek. Ahhoz, hogy legyen rajta nyereség 1500 dolláros árcédula kell minimum. Ha a kihozatalt is rászámolod a mennyiségre, akkor 2000 dolláros ár is kellhet. Ez a HPC- és a professzionális piacon nem gond, de egy GeForce-ért senki sem fog ennyit adni.
    Egyébként annyira radikálisan nem gondolkodik már senki, hogy na most megverjük őket. Vannak növekvő piacok, amikre építeni kell. A GCN-nek meg van a helye az integrációs projektben. A kis Kepler architektúra megy a Tegrába, míg a nagy Kepler profi célra jó, és fejleszthető tovább az NVIDIA integrációs projektjébe. Minden döntést amit meghoztak a cégek, azért tették, mert az adott architektúrával egy értékesebb piacra akarnak betörni. A VGA-k azok vannak, de a pénz már nem itt van. El lehet persze adni a termékeket, sőt jó teszt a VGA-piac, hiszen valós körülmények között látod, hogy mennyire működik a rendszer, de semmi több. A tervek túlmutatnak ezen a szegmensen.
    Másképp mi értelme lenne belerakni egy csomó pénzt, ha nem remélnének tőle eladást. :) Azt persze nagyon nehéz kideríteni, hogy ennek tényleg volt-e valós eredménye, de igazából lényegtelen is. Attól, hogy valaki SLI-t vesz, még a tömeg marad IGP-n, így sok lényegi szempontja ezeknek az akcióknak nincs, ugyanakkor minden alkalmat meg kell ragadni az NV-nek, mert nekik már/még nincs IGP-jük, így a baráti gépigényben jelenleg egyáltalán nem érdekeltek.

    (#10059) Löncsi: A kisebb fejlesztések jellemzően azért menők, mert nincs benne akkora kockázat, mint az AAA címekben. Budget az ár, és budget a befektetés is. Persze ettől lehet nagyon jó a játék, és sikeres is, sőt, jellemzően azok, de ugyanúgy benne van a bukás lehetősége. Ha ezek kerülnek előtérbe, akkor az csak a kisebb kockázat miatt lesz.

    (#10072) Löncsi: A tesztprogram az specifikus környezetet teremt. A valós környezet teljesen más. Ott nem lehet mesterségesen felépíteni egy terhelést. Kivéve, ha ez a cél, lásd Crysis 2, de ezzel ez is teljesen használhatatlan lesz a teljesítmény mérésére. Korábban már leírtam, hogy ezek a helyzetek mesterségesen születnek. [link] - rendszerit az a jobb, ahol az adott mesterséges terhelés jobban fekszik a hardvernek. Tessmark és Heaven esetében az NVIDIA megoldása, míg a Crysis 2 és a 3DMark 11-ben az AMD GCN tesszellátora.
    Az NVIDA tesszellátora rendszerint akkor teljesít jól, ha kevés az objektum a jelenetben (Tessmarkban egy azaz egy darab), vagy akkor, ha az adott tesszelláció kevésbé reagál jól a vertex re-use teljesítményre. Az AMD tesszellátora akkor teljesít jól, ha sok az objektum a jelenetben, és a vertex re-use funkció jól hasznosítható. A faktorra lebontva, az AMD úgy 1-20 faktorig jelentősen gyorsabb, míg 20-40 faktorig egál, majd 40-64-ig jobb az NV. Raszterizálás mellett persze ez erősen változik, mert nem csak a tesszellátor számít, hanem a raszter motor teljesítménye is. Itt mindegyik rendszer büntizik elég sokat, így 1-30 faktorig az AMD teljesít jobban, ám magasabb faktorszám mellett a raszter hatékonysága 50% alá esik, vagyis kivégzi a teljes tempót. 50 faktor felett 10% is lehet a hatékonyság, ami vicc. Ezzel egyetlen GPU sem tud mit kezdeni, limitáló lesz a setup oldalon a rendszer. Innentől mindegy, hogy mi mennyire gyors, mert a limit a működésben születik. Az AMD tesszellátora még annyiban bekavarhat ezekbe az elméleti helyzetekbe, hogy képes felületeket menteni, vagyis 40-64 faktor mellett egyszerűen elment részeket, és amíg az hasznosítható, visszatölti az L2 cache-ből, vagy a VRAM-ból, ha jobb oda lementeni. Itt az AMD szintén óriási előnyre tesz szert, mert nem számolja újra minden képkockánál a bonyolult felületeket, amivel felszabadul az erőforrás a többi feladat feldolgozására. Jellemzően ezt az AMD nem alkalmazza szintetikus benchmarkban, ha a fejlesztő megkéri a céget. Nyilván ez a megoldás alapvetően ellehetetlenít minden szintetikus mérést pl. a tessmark esetében, mert nem fog a rendszer számolni. Egyszerűen az első képkocka után lementi, és visszatölti a VRAM-ból a teljes objektumot. Gyakorlatilag nem dolgozik az első képkocka után semmit.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák