Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz gV #12 üzenetére

    Azé a Larrabee-sen iszonyat felröhögtem. :D Azt eltalálták. :) A többi erőltetett.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gV #24 üzenetére

    Nem csodálkozom. Előre látható volt, hogy ez a felépítés DX11-re gyenge. Remélhetőleg a Fermi azért megússza, mert durván hajaz a Larrabee-re.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gV #26 üzenetére

    A Haswell-ben már Larrabee alapú GPU mag lesz. 2012-ben szerintem láthatunk diszkrét megoldást is. Ha jól számolom az a harmadik generációs fejlesztést lesz. Esetleg van remény 2011-ben a második generációs Larrabee-re asztali fronton, mindenképpen jó lenne valami előzetes modellt kihozni, hogy tanulják a fejlesztők a felépítést. Az sem baj, ha nem tudja hozni a konkurens megoldások sebességét.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gV #31 üzenetére

    A következő generációs Larrabee már úgymond új alapokra épül.
    A mostani törölt rendszer nem azért lassú a rendszer, mert nincs benne kraft, hanem, mert rengeteg dolgot emulál a DX futószalagon. Nyilván felesleges egy 600 mm^2-es chipet a Juniperrel versenyeztetni, mikor az előállítási költség köszönőviszonyban sincs. Ellenben ha ez a két érték közelebb kerül, akkor már megéri kiadni a chipet, hiszen az árral lehetne konkurálni. Ha a harmadik generációs lapka nem lesz kint, akkor nagyon nehéz lesz az AMD ellen, mert úgy alakítja a piacot ahogy akarja.
    Az OpenCL szempontjából már most szarban van az Intel, mert az ATI Stream 2.0 lehet az általános platformszintű fejlesztőfelület. Ugye az Intelnek van a legjobb C compliere, és abból szerez némi előnyt a processzorainak. Az OpenCL kapcsán az AMD ugyanezt csinálja, hiszen az ATI Stream 2.0 támogatja az Intel processzorokat is, csak durván optimalizál az SSE4A-ra és később az SSE5-re. El kellene kezdeni a fejlesztéseket az OpenCL-re és a heterogén környezetre, amihez a Larrabee fontos alap.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #36 üzenetére

    Ja tényleg az AMD implementálja az AVX-et. Így még nagyobb gáz lesz az ATI Stream terjedése. Nem tudom, hogy az Intel miért nem tekinti az OpenCL-t komoly alternatívának. Az egy dolog, hogy nincs GPU-ja, de CPU felületet írhatna, különben nagyon le lesz maradva. A Larrabee a példa rá, hogy a pénz önmagában nem elég.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gV #39 üzenetére

    Azzal, hogy most a jelenlegi generációs törölve lett a megjelenés 2011 végére, vagy inkább 2012-re csúszott. Ekkorra már 22 nm-es gyártástechnológiára lehet kialakítani a lapkát. A felépítés is jelentősen eltérhet. Ha a pletyik igazak, akkor a harmadik generációs, még élő Larrabee, már nem sokban hasonlít az elbukott első és második generációs megoldásra.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz cwn #42 üzenetére

    Ez teljesen jogos. 4 thread egy Larrabee magnak kevés. A Fermi itt előnyben van.

    Én őszintén szólva csak a Larrabee lekommunikálását nem értem. Ki volt az aki ezt a projectet gaming GPU beütésre alakította. Ray-tracing meg hasonló hülyeségekkel etették a népet. Nem hiszem, hogy egyetlen mérnök nem volt, aki elmondja a marketingnek, hogy ez a stratégia rossz. Persze látva, hogy a lapka is problémákkal küszködik legkisebb gondjuk is nagyobb volt ennél.

    A Fermi féle marketing sokkal jobban van felépítve ... ott mutogatják a rendszert, ami a célpiac lesz.
    Mindegy majd talán a következő generáció.

    gV: Nem ... ez a mostani Larrabee generáció teljesen tipli. Ettől függetlenül amolyan nulladik generációs terméknek felhasználható ez a Larrabee is. Fejlesztők biztos igényt tartanak rá.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dare2Live #66 üzenetére

    És akkor 2016-ra előállnak az első közös fejlesztéssel. :N Az NV-t már most késő megvenni. A technológia önmagában megérné, de akkora anyagi befektetés lenne, hogy az elgondolkodtató. Az időt, mint tényezőt bekalkulálva, itt már jobb a saját megoldás.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dare2Live #68 üzenetére

    A Fermit a HPC-ben és a workstation szegmensben lehet majd hasznosítani. A PC-s GPU piacra inkább nyűg a termék mérete ... itt sok nyereség nem lesz belőle. Ezen a fronton nem biztos, hogy megtérülne a beruházás.
    A PC-s piac a rendszerszintű integráció felé halad. Az Intelnek a GPU CPU-ba építése a fontos. Ha most megvennék az NV-t, akkor leghamarabb 2016-re készülne el egy olyan processzor, ami IGP szinten az NV megoldásait használja. Gyakorlatilag ezzel nincsenek kisegítve. A Haswell-be mindenképp Larrabee-t kell rakni, mert már nincs elég idő változtatni. Saját kút főből könnyebb az egészet kivitelezni. A keresztlicencel szereztek egy csomó technológiát, az AMD-től ehhez.

    A Tegra lenne még opció az Intelnek, de láthatóan arra törekszik a cég, hogy az x86 legyen mindenhol, így ne lehessen esélye a konkurenseknek betörni. A Tegra ARM alapú, így ugyan versenyképesebbek lennének a fogyasztás és a szolgáltatások tekintetében, de a konkurenseknek nem nehéz szerezni ARM licencet, így állandó csatározásra lehetne számítani.

    Az NV felvásárlása már késő. Iszonyatos pénz, ami nem biztos, hogy megtérül.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Dare2Live #71 üzenetére

    Nem kérdés, hogy a Fermi előny lenne az Intelnek a HPC-ben, de az már az, hogy az ezzel járó nyereség megéri-e azt a több tízmilliárdos beruházást, amibe az NV kerülne. Nem dölt annyira össze a világ az Intelnél, hogy rögtön dobálják a zsetont a cégek felvásárlására. Nyilván kellemetlen a Larrabee kipukkanása, de ettől a kényelmes helyzetük csak egy fokkal lett rosszabb.
    A CUDA nem az NV töketlensége miatt nem terjed. Egyszerűen ez a dolgok rendje egy zárt rendszerre fejleszteni sületlenség, főleg úgy, hogy van nyílt alternatíva. :)

    Az Intel eltérő gyártástechnológiákat alkalmaz az NV-hez képest. Ahhoz, hogy a prociba beintegráljál egy NV GPU-t, teljesen újra kell tervezni a felépítését. Az ilyen copy-paste módszer nem alkalmazható. A Sandy Bridge már kvázi kész. A jövő évi startig már csak kisebb módosításokat lehet végrehajtani. Az IGP lecserélése minimum 2 éves csúszást eredményezne.
    Az AMD LIano féle rendszer csak az első lépés. Az olyan, mint a Sandy Bridge. Egyszerű CPU+GPU. A jövőben sokkal összetettebb lesz az egész. Kicsit hasonlítani fog a Cell koncepciójára. Nyilván az NVIDIA fejlesztéseivel ezt tervezőasztalra kell vinni, aztán ki kell fejleszteni, majd megfelelően gyártható piacképes terméket kell belőle kreálni. Ezek évek. A Haswell már bőven tervezőasztalon volt egy vagy két éve, és a megjelenés 2012 közepe vége felé esedékes.

    A diszkrét GPU piac nem érdekli az Intelt. Max akkor lenne üzlet neki, ha olyan kisméretű DX11-es lapkái lennének, mint az AMD-nek. Azon még lehet keresni valamit. Az NV fejlesztéseivel csak alamizsna lenne az innen szerezhető haszon.

    Sajnos nem jól látható a kiszivárgott LIano képről az SP szám. a 480 csak tipp. Én komolyabb áttanulmányozás után inkább 240-re tippelnék, de meg kell várni a hivatalos adatot.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Oliverda #75 üzenetére

    Onnan, hogy én a képből hat darab 40 utas tömböt látok. Egy olyan kis téglalapféleség szerintem 20 utas (négy darab 5 utas szuperskalár). Ebből jön ki a 240 SP. Persze nem tudok tranyóból olvasni, de látszólag SIMD motoronként két darab négyes shadercsoport van, alatta a textúrázóblokkal.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #94 üzenetére

    Intel GPU találgatós topik?

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #45185024 #104 üzenetére

    Egy túrót kémkedett, csak rossz helyre dugta. ;]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #222 üzenetére

    Az Intel, csak marha sok hátránya van ám az ilyennek grafikai feldolgozás során. Nem véletlenül jön erre egy külön grafikus API.

    Úgy meg lehetne csinálni, hogy lenne egy vezérlőlapka, és akkor arra csatlakoznának a segédlapkák a multiprocesszorral, de annyira a konkurens folyamat, hogy egy rakás link kellene, és ezek a linkek lehet, hogy jó ötletnek tűnnek az EPYC-en, de egy GPU esetében legalább tízszer több kellene belőlük, vagyis egy rakás tranyót erre lősz el, és legalább a TDP büdzsé 20%-át. Nem véletlen, hogy ezt csak CPU-ban alkalmazzák, ahol azért nem minimum tízezer, hanem csak 100 körüli konkurens szál fut, ráadásul jól alkalmazható a lokalitási elv. Egy GPU ennek pont az ellentettje. Előbb kellene egy olyan API, ami segít egy chipletre particionálni a feladatokat, hogy minimalizálni lehessen a chipletek közötti kommunikációt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz awexco #278 üzenetére

    Egyáltalán nincs pariban. A 4800U a CPU-erőben kb. 40-50%-kal gyorsabb úgy, hogy 1 GHz-cel alacsonyabb órajelen járnak a magok. Tehát bőven számít, hogy duplaannyi van belőlük.

    [link]

    Sok minden nem változik, legkorábban majd akkor lehet itt valami, ha az Intelnek kész lesz a 7 nm-je.

    Az IGP-nek amúgy tényleg van egy 10-20%-nyi előnye azokban a programokban, amelyekben sokszor tudja alkalmazni a 4+4 co-issue-t. Azokban a programokban, ahol nem, ott olyan 20-30%-os hátránya van.
    Szóval itt-ott verseny lesz ez. A 4+4 co-issue-hoz az Intelnek el kell kezdeni vadul cserélgetni a játékok shadereit. Az ismert címekre megcsinálják, de ez az ismeretlen címeken nem segít, és ha nem cserélnek, akkor abból lemaradás lesz.
    Ugye itt az a lényeg, hogy az IGP-ben van 768 darab ALU. Ha a shadereket kicserélik olyanokra, hogy a 4+4 co-issue működhessen, akkor mind a 768 ALU elérhető. Ha nem, akkor a shaderek 384 ALU-t tudnak csak igénybe venni. Tehát nagyon fontos lesz most, hogy ne csak a 3DMarkra, meg más tesztprogramra legyenek ilyen optimalizálások, hanem szépen be kell készíteni több hónapnyi hideg élelmet, és sorban végigmenni több ezer játékon, átírva azok shadereit. Ha meglesz, akkor tényleg tudni fogja azt a Tiger Lake IGP-je, amit a 3DMarkban látsz fentebb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák