Keresés

Új hozzászólás Aktív témák

  • dezz

    nagyúr

    válasz Bici #60 üzenetére

    Persze, az vili. Ebben a "0. generációs" formában nem is lesz komolyabb sorozatban gyártva. Főleg fejlesztőknek szánják, hogy mire kijön egy saját chipes típus, már legyen hozzá szoftveres támogatás, pl. a jelentősebb rendererek részéről. (Most olvastam, a Brazil nevű renderer készítőjét meg is vették ennek érdekében -- szóval van mögöttük némi tőke...)

  • dezz

    nagyúr

    válasz Bici #58 üzenetére

    Az FPGA használata (így első körben) egy szokásos 22-es csapdája szituból mentette ki őket: amíg nem bizonyított a technika, senki sem ad nekik elég tőkét egy saját chip megtervezésére és legyártására -- de amíg nincs hw, bizonyítani sem tud. Így most demonstrálni tudják a potenciált. Mint el is mondták, egyelőre ez volt a cél, illetve az ismerkedés. Aki ért hozzá, ebből már láthatja, mit lehet kihozni belőle, ha megvan az a bizonyos egyedi chip (ASIC) is.

    Az Ageia egyébként valamilyen meglévő DSP-féleséget alkalmazott a PhysX kártyákon. Az elég volt ott némi eye-candyhoz, és így az ára is mérsékelt lehetett. De nem volt, mert nem is nagyon lehetett elég forradalmi ahhoz, hogy túl sok embernek kelljen.

    Ide viszont nem lett volna elég valamilyen létező chip.

    Az API-s dolgot nem én írtam, és nem is gondolnám, hogy csak az API számít. Midnenféle fantáziadús API-kat lehet kitalálni, de ha nincs mögötte valami, ami azt meg is tudja valósítani, akkor nem sokat ér.

    Az már majdnem mindegy, hogy ha "tetszik a dolog a szakmának", pénzhez jutnak, és ők maguk hoznak majd ki egy chipet, vagy felvásárolja őket valaki, és majd az.

  • dezz

    nagyúr

    válasz Bici #54 üzenetére

    Még a nagyobb multik sem terveznek és gyárta(t)nak le egy külön chipet többtíz- v. százezres darabszám alatt, a költségek miatt. Bár az FPGA IC-k sem olcsók (az áruk többszázezer forintig terjed, bár a legnagyobbakat már inkább csak prototípusokhoz használják, ill. chipervek legyártás előtti tesztelésére), de még így is olcsóbbra jöhet ki a dolog. (Pl. a Sony első, kis sorozatban kereskedelmi forgalomba került mini OLED tévéjében is ott csücsül egy kb. 60eFt-os FPGA.) Itt is lehetséges, hogy a 4000 dolláros ár jelentős része a két FPGA IC ára.

    A komolyabb FPGA-k áramköri bonyolultságban felveszik a versenyt az ugyancsak komolyabb chipekkel (az igazán nagyok kivételével), csak órajelben szerényebbek.

    A nagyobb gyártóknak jobbak a lehetőségeik, de ők sem tudnak egyik napról a másikra teljesen új dolgokkal előállni. Inkább megveszik készen a nem teljesen az ő profiljukba tartozó fejlesztéseket. (Főleg, ha jópár szabadalom is védi azt.)

    A Physx kicsit más eset, mint ez, mert a GPU-nak viszonylag jól fekszik a fizika. Azonban a ray-tracing már kicsit megfekszi a gyomrát. (Pl. a Cell proci 6x gyorsabb RT-ben, mint a 2x nagyobb peak FLOPS-sal bíró G80.)

    Szóval itt vagy egy teljesen újszerű GPU-ra lenne szükség, aminek a raszter grafika és az RT is ugyanolyan jól megy (ha ez megvalósítható), vagy egy olyan chipre, aminek a fele ezt csinálja, a másik fele meg azt. Úgy tűnik, a Caustic távlati célja is valami ilyesmi. Persze ezt a chipet nem ők csinálják majd már, hanem aki majd felvásárolja őket jó pénzért... :)

  • cousin333

    addikt

    válasz Bici #54 üzenetére

    "ami akkor jön jól, ha az adott programozónak, vagy cégnek nincs lehetősége saját IC-t tervezni és gyártatni. "

    Ezt teljesen jól látod. Bár nem olcsó (darabja), de még mindig sokkal jobban jön ki egy cég, ha nem dollárszázezrekért rendel chip-et. Nem mellesleg ezen lehet fejleszteni, egy-egy apróbb hiba kijavítása alig tart tovább, mint egy program debuggolása. Egy specifikus áramkört adott esetben át kéne tervezni, és újra legyártani. Az FPGA-k kis szériák esetén a végső termékben is életképesek lehetnek.

    Valóban nem a leghatékonyabb, a programozhatóság miatt, de a lemaradásuk nem annyira jelentős, lévén a főbb gyártók általában a legújabb technikákat használják (pl. 40 nm-es gyártástechnológia).

    Tehát a fentiekből az látszik, hogy már most is túl nagy ahhoz, hogy egyszerű co-processzorként betegyék (a hatékonyságnak is van határa, ma úgy hívják, hogy 40-45 nm..). Ha meg úgyis kiváltja a GPU-t, akkor miért ne lehetne az egész chip RT-motor? Ráadásul a sebessége kellemes, de még nem az igazi, ami nagyobb órajeleket és/vagy több feldolgózegységet tenne szükségessé, aminek pláne nem jut hely.

    Hosszútávon persze lehet, hogy nem ez lesz a jövő, de miért ne próbálhatnák meg? Különben is, mi dönti el, hogy minek kell integrálva lennie, és mi lehet külön kártyán? Ez mindig is változott. Például ma már kaphatsz integrált VGA-t, nem is értem, miért van piaca a külön kártyás megoldásoknak... :F :U

  • cousin333

    addikt

    válasz Bici #47 üzenetére

    Éppen az a lényeg, hogy a feladatra célhardver kell, az API-val önmagában kitörölheted, ha nincs meg a nyers erő. Szerintem ha minimális kompromisszummal megoldható lett volna, akkor inkább a mai GPU-kat programozzák, de nem ez történt.

    A két IC-szörnyet elnézve ezt a technikát értelmes sebességek mellett nem fogják a mai GPU-k egyik sarkába eldugni, ahhoz túlságosan sok szilíciumot igényel. Ettől függetlenül a későbbiek során még az is megeshet, hogy egy VGA-n, a GPU mellett egy új chipként jelenik meg.

    Különben is ez csak egy demonstrációs kártya, amit jól példáznalk a felhasznált áramkörök is. Az ASIC-el megcélzott 350MHz sem tűnik valami soknak egy párhuzamosításra építő (tehát alapvetően "egyszerű") rendszernél, lehet, hogy a gyártástechnológiája is elmarad majd a mai csúcstól (mondjuk 90, esetleg 65nm), tehát a legújabb technikákkal még további gyorsulást lehetne elérni.

  • bteebi

    veterán

    válasz Bici #1 üzenetére

    Biztos, hogy nem csak te, de én pl. nagyon szép jövőt látok ezelőtt a társkártyák előtt :D. Remélem igazam lesz :). Azt mondjuk nem hinném, hogy 3-4 éven belül bármilyen szinten is elterjednének, és hát annyi idő alatt nagyon sok dolog megtörténhet/történik. Láttunk már mi Bitboys-féle Glaze 3D-t meg Duke Nukem Forever-t is :DDD.

    Amúgy meg: ray tracing 4 the people! ;)

  • Horbal

    őstag

    válasz Bici #43 üzenetére

    Nyilván, ahhoz, hogy ez emészthető legyen átlag júzer számára erősen csökkennie kell az árnak, vagy magának az API-nak/HW-nek rá kell költöznie a VGA-ra, vagy egyenesen bele GPU-ba pl. ez nem kérdés, de első lépésnek szvsz biztató a real time RT-hez...

  • mephi666

    nagyúr

    válasz Bici #39 üzenetére

    emlékszem, hogy kb 10éve, amikor jött a quake3, akkor "húdebrutál volt a gépigénye", mert pl televolt mindenhol lekerekített felületekkel... többek között ezzel reklámozták és abban az időben kegyetlenül nézett ki... (pl q3dm7 :R ) évekig az egyik fő benchmark volt, mert kellett azért a procinak is számolnia meg a vga is melegedett alatta :) sokan az ut motorját jobban dícsérik, de a q3 motor szerintem profibb munka... csak azért hoztam ezt fel, mert nagynak tűnhet most a crysis gépigénye még mindig, meg magas poligonszám/sok effekt/nagyfelbontású textúrák/stb... de úgyis lesz majd olyan hw, amin fsaa-val röhögve elmegy :)

  • cousin333

    addikt

    válasz Bici #31 üzenetére

    "Azért ez az 5 millió háromszög elég vicces egy mai játékot nézve. Szerintem a tizede, ha összejön a legdurvább jelenetben."

    Azért nem egészen. Ha nézegetsz Crysis screenshot-okat (amely játék ma grafikailag talán a legszebb, de mindenképpen a legjobbak között van), akkor bizonyos esetekben vannak rajtuk ilyen jellegű infók is. Ezek alapján általában egymillió környékén van ez a szám, de van 1,5 is, vagy - promó képen - 2,5

  • G.A.

    aktív tag

    válasz Bici #8 üzenetére

    Talán akkor lehetne értelme, ha sokkal jobb ár/érték arányt, és/vagy jobb fogyazstás/teljesítmény arányt tud ez a chip felmutatni, mint a mai, vagy jövőbeli GPU-k, de akkor sem hiszem, hogy önálló kártyaként elterjed.

    Ahmm, nem nagyon értek hozzá, de ha jól szűrtem le akkor:
    az RT kártya egy célhardver kb mint Physix volt
    20W-ot "zabál"
    kb 10x gyorsabb mint a GPU (ebben a feladatban)

    szóval a fogyasztás/teljesítményére nem lehetne panaszod vagy mégis?

    Am szvsz tök jó hogy van. Ha nem is tudjuk még használni talán valaki majd megveszi, integrálja a VGAba és piacképes is lett.

    GA

  • Male

    nagyúr

    válasz Bici #8 üzenetére

    Az még messze van :)

    Ha bejön nekik, akkor sikeres lehet a kártya... ha nem annyira, de az API terjed akkor meg felvásárolja valaki... Szerintem ez utobbira játszanak, de ezt nem lehet úgy felvezetni, hogy nincsenek hosszútávú terveik. (Persze ott a harmadik eset, hogy bukik az egész.)

  • Male

    nagyúr

    válasz Bici #1 üzenetére

    Az az értelme, ami a hírben is van: "elsősorban a fejlesztőknek készült, hogy próbálgassák a CausticRT rendszert."


    "Nemrég számoltunk be az Apple volt mérnökeiből megalakult Caustic Graphics CausticRT névre keresztelt rendszeréről, mely a CausticOne gyorsítókártyából és a CausticGL API-ból áll."

    Ennél többször ki tudja a Caustic-ot beletenni a mondatba? :DDD
    (Nem voltak túl fantáziadúsak a marketingeseik.... vagy csak így akarják ismertebbé tenni a nevüket.)

  • cousin333

    addikt

    válasz Bici #1 üzenetére

    Ennyi erővel minek külön VGA kártya (meg GPU) a gépbe? :) Bár különösebben nem értek hozzá, de technikailag a raytracing jobbnak tűnik, mint a most használt 3D megoldások, csak eddig éppen az volt vele a gond, hogy döglassú, és nagyon messze van a real-time-tól.

    Ergo egy ilyen kártya idővel kiválthatná a GPU-t is, de célhardverként amúgy is jól jöhetne mondjuk a számítógépes animátoroknak, rendereléshez... stb.

Új hozzászólás Aktív témák

Hirdetés