Hirdetés

Új hozzászólás Aktív témák

  • Petykemano

    veterán

    Ez már a sokadik gyorsító, korábban a hpc területre jött ilyen noname, most a AI.
    8bit 128tops, 16bit 64tflops @80W (16nm)

    Jó, hát ez persze úgymond csak "tensor" core, dedikált célhardver.
    Ehhez képest az nvidia titán v 8bit 110tops @250w elég energiaigényes, az AMD Vega 16bit 25tflops @250w pedig kanyarban sincs.

    Talán csak az Intel vásárolt gyordítóját, a nervanat nem söpri el, de hát az armnak is lesz machine learning gyorsítója, meg a facebooknak is, googlenek már van. Úgy tűnik, ML gyorsítót nem olyan nehéz készíteni, mint gput.

    Afelől njncs kétségem, hogy az nvidia tranzisztort ws mérnököt nem kímélve megoldja majd a kihívást. De vajon milyen esélyekkel indul ezen a piacon az új radeon intinct Vega20, ami csak 64 bit kiterjesztést kap, dedikált ML funkciókat nem?

    A cambricon 7nm-es chipje 8biten a jelenlegi 1.5tops /W helyett 5Tops /w-t ígér. (A cikk szerint az arm 3tops /w lesz) tételezzük fel, hogy a Vega20 kicsit emel az órajelen és már nem is 25, hanem 30flops 16 bit számítást tud. Legyen képzeletben 8biten 60tops, mert valahogy megoldják a super -rapid super-packed math kérdést. És extrém energiahatékony módon csak 150W fogyasztás mellett. Akárhogy is nézem, ez csak 0.4tops /W, ami hát épp eléri a titán V jelenlegi szintjét (tegyük hozzá, az ellen készül), de messze elmarad a következő 1-2 évben várható dedikált ML gyorsítóktól.

    Kicsit azért ugyanez volt a HPC területen is, ahol a Pezy átvette a green toplistát. (Persze a v100 és a p100 se rossz)

    Nem lehet, hogy a gpu más célú (általános HpC gyorsító, ML gyorsító ) felhasználásának ilyenmód befellegzett? (Marad a bánya)

Új hozzászólás Aktív témák