Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #67 üzenetére

    A Larrabee-t vagy MIC-et az Intel csak részben fejlesztette supercomputingra. Valójában egy sokkal nagyobb terv része az egész. [link] - ez az Intel belépője a heterogén érába.

    (#68) zoltanz: Ray-tracing dinamikus jelenetben lassú. Úgy nyolc-tíz évre vagyunk még az alkalmazásától. Egyelőre a raszterizálás hatékonysága magas, és semmi sem ér fel a minőségi szinthez viszonyított erőforrásigénnyel. Idővel persze ez megváltozik, mert a raszterizálásnak a mikropoligon render véget vett.
    A megatextúrázás számára mindegy a leképzés.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #64 üzenetére

    Tekintve, hogy mindegyik cég az APU irányába megy, így teljesen általános az egész hype. Azt mindegyik vállalat látja, hogy a CPU+VGA kombonak nincs túl nagy jövője, és a heterogén éra elkerülhetetlen. Lehet húzni az integráció lépcsőit, de rövid időn belül mindenki ugyanott köt majd ki.

    Az Intel a Larrabee-vel sosem akart VGA-t. Ez az idióta marketingesek szüleménye volt a ray-tracinggel együtt, a média erre figyelt, ha tudományos számításokat mutogattak volna, akkor sokkal kevesebb reklámot kapott volna. A Larrabee alapját a heterogén éra adta. Az Intelnek szüksége volt erre a fejlesztési irányra. Azt a 2%-os piaci részesedést, amit a 300 dollár fölötti asztali VGA-k töltenek be hidd el nem irigylik. Inkább az AMD és az NV irigyli, azt a részesedést, ami az Intelnek van a GPU-k piacán. A Larrabee másik lényeges területe a HPC szerverek piaca lett volna. Illetve lesz is, csak nem Larrabee néven, hanem MIC jelzéssel.

    Fordítsd meg a kérdést. Hogyan fogsz egy külső buszon 5-10 adatmozgatást csinálni? Amikor ez a koncepció megszületett, akkor ez volt a lényeges szempont. Gyakorlatilaga heterogén módon történő programozás alapja ez. Használd aktívan az erőforrásokat, de ezt csak úgy lehet, hogy a CPU-magok és a GPU-magok között sok lesz a kommunikáció. Persze most lehet jönni azzal, hogy az AMD meg akarja változtatni ezt a modellt, de szvsz nem fog sikerülni. A magok között, mindig lesz adatátadás. Az AMD elképzelése csak egy utolsó remény a dGPU-k piacának megmentésére.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #62 üzenetére

    Ilyet mégis ki mondott? A mostani APU nagy előnye az extrém alacsony fogyasztáshoz mért teljesítmény. De ha jól tudom mi a jövőről beszéltünk, nem a 2012-esről, és nem is a 2013-asról. Kezd egyértelművé válni, hogy a konzolok merre fejlődnek, és ezt a PC-n is le kell követni. Mindegyik cég leköveti. A VGA-k ilyen szinten max. post-processre lesznek jók.
    Teljesen mindegy, hogy minek tartod az integrálást. A gyártók döntenek ezzel kapcsolatban. Ha nem tetszik, akkor maximum azt teheted meg, hogy nem veszel többet PC-t.
    Az ARM annyira nem más terület. Most jelentették be az ARMv8-at. Arra fog építeni az NV később. Nem értem őket miért kell lebecsülni azért, mert nincs x86 licencük. Ott az ARM ugyanolyan jó lesz, ha jönnek rá a programok.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #59 üzenetére

    Ezek alapján egyik gyártó sem épeszű, hogy heterogén irányba megy ... én nem gondolom azt, hogy infantilis idióták dolgoznak az Intelnél, az AMD-nél, az NV-nél, és az ARM-nál, de elfogadom, ha valaki így gondolja. Azt viszont vedd észre, hogy az APU nem az AMD ötlete, hanem globális dolog. Az APU csak egy elnevezés erre, de az elvet ez nem befolyásolja. Mindenki ezt látja a jövőnek. Ha nem lenne ennek jövője, akkor az Intel sosem kezdett volna bele a Larrabee-be, vagy az NV sosem kezdett volna bele a Project Denverbe. Sőt, az AMD sosem vette volna meg az ATI-t. Egyszerű integráláshoz szimplán elég egy licencelt GPU és kész, de látható, hogy szoros integráció kell, amihez házon belül kell csinálni mindent.

  • havasa

    aktív tag

    válasz Jack@l #39 üzenetére

    "Ettől is lesz a recesszió, amit tulajdonképpen maguknak okoztak a gyártók a fejlesztőkkel karöltve, szóval inkább kitalálnak valami dumát, mert jobb lesz a langyos trutyiba elleni pár évig beépített szutykokkal meg konzolokkal, hogy nagymértékben lefaragják a k+f kiadásokat...
    Viszont ez csak egy ideig fog menni, amig nem jön valaki aki elkezd fejleszteni, aztán majd csak pislognak mint hal a szatyorba... (lásd kína most rakta össze első saját fejlesztésű szuperszámítógépét, saját procival)"

    +1
    Az elmúlt 4 évben a csúcs VGA-k nyers számítási teljesítménye csak alig több, mint a kétszeresére nőtt, (G92=624 GFLOPs --->>> GF110=1581 GFLOPs) ez pont amiatt lehet, amit Te is fejtegetsz: a PC-s játékok piaca gyak. nulla a konzolos piachoz képest, alig van AAA PC only fejlesztés, ezért nincs igény brutál VGA-kra. (Keplert-től sem kell sokat várni...)
    Az MS és a Sony 2050-ig is ellennének a mostani generációval, mert kb. több pénzt hoz nekik így, mintha kiadnának egy nem kevés fejlesztési és gyártási költségű Nextgen-t.
    Ha kis hozzák valamikor, nem lesz akkora durranás, mint az Xbox360/ PS3 volt anno, mert a piaci részesedésük elég stabil. Akkor lesznek sz.póágon, ha belép egy harmadik tőkeerős gyártó (Apple???) és csinál valami brutál gépet... akkor ugyanaz fog lejátszódni, mint amikor az MS belépett és a Sony azóta elvesztette a piacának a nagyobb részét.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #49 üzenetére

    A driver persze, hogy ott van, hiszen az API-hoz kell a driver. Ha nem lenne API, nem kellene driver sem. A mai driver ezen semmit sem javít. Ami szutyok az a texture pop-in, de ez nem a drivertől függ. Ha mondjuk Llano APU-d, vagy Sandy Bridge-ed van, akkor a pop-in elképesztően minimális, ez ugye onnan ered, hogy nincs PCI Expressen keresztül kommunikáció, hanem a lápkán belül megtörténik egy nagyságrendekkel gyorsabb összeköttetésen.
    A Rage egy nagyon előremutató motort használ a megatextúrázással. Természetesen ez nagyon nem fekszik a mai PC-k nagy részéhez, hiszen a procinak ki kell kódolni a tömörített textúrát, majd azt visszaírni a rendszermemóriába egy olyan formátumban, amit a GPU kezel. Ezután a GPU betöltheti a textúrákat a rendszermemóriából a VRAM-ba. Ennél jobb modell erre nincs.
    A Frostbite 2.0 egy fantasztikus motor, de ott semmi olyan dolgot nem használtak a fejlesztők, ami nem fekszik a PC-nek. Sőt kifejezetten PC-re tervezték.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #39 üzenetére

    [link] - Carmack
    [link] - Huddy
    Mindketten vázolják, hogy mennyire korlátol az API. Ha 5% lenne, nem lenne semmi baj, de felfoghatatlanul magas a korlátozás már. Carmack ugye 10000x-es különbséget mért a konzol és a PC között textúrafrissítésben. Ezt az API+driver adja.
    Semmiképp sem rossz dolog az API, vannak nagyon nagy előnyei, de nem szabad elhanyagolni a hátrányokat.

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #20 üzenetére

    PC-re sokkal nehezebb fejleszteni. Konzolon egyszerűbb az egész, mert fix a hardver. Az erőforrás nem sokat számít. A PC-s hardverek számottevően erősebbek, de az API lekorlátozza a lehetőségeket. Mindegy, hogy mi az ami korlátoz, a hardver, vagy az API.
    Az IGP-k eladásai magasan a dGPU-k felett járnak. Úgy háromszor több IGP fogy.
    A tendencia az az, hogy a dGPU-k piaca esik. Idén -33%-ot vár a JPR. Ez sok. De igazából nincs gond, mert készül az NV is erre. A Kepler architektúra az utolsó GPU-nak tervezett lapkája a cégnek. A Maxvell már APU-nak tekinthető, hiszen ARM magok lesznek benne.

    Én tudom, hogy ezt nehéz elfogadni, nekem is az, de a gyártók döntenek erről nem mi. Ha ők integrálni akarnak, akkor az lesz. Mi maximum nem vesszük meg az új termékeket.

  • #19617792

    törölt tag

    válasz Jack@l #20 üzenetére

    de nem kell húszmillió hardverre egyszerre fejleszteni, ami inkább szopás, mint egy adott hardver erőforrásait kiaknázni...

    a diszkrét vga-k piaca kisebb, mint az integrált csodáké és diszkrétek közül is legtöbbet az alsószegmensből adnak el, a felsőbb régiókból jóval kevesebbet adnak el, mert kinek kell az... diszkrétek közül legfeljebb a felső-csúcskategória marad meg, többi meg megy a CPU-ba.

Új hozzászólás Aktív témák

Hirdetés