- Samsung Galaxy S21 FE 5G - utóirat
- Itt az első kép a 2024-es Nokia 3210-ről
- Motorola Edge 40 - jó bőr
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
- Na, még egyszer, csak ezúttal OnePlus Open néven
- Honor Magic5 Pro - kamerák bűvöletében
- Poco X6 Pro - ötös alá
- Asus Zenfone 8 - komplett kompakt
- Apple Watch Sport - ez is csak egy okosóra
- Telekom mobilszolgáltatások
Hirdetés
-
Dragon Ball: Sparking! Zero - Mester és tanítvány
gp Egyelőre még mindig nem kaptunk megjelenési dátumot a játékhoz.
-
Kicsit extrémre sikerült a Hyte belépője a készre szerelt vízhűtések világába
ph A cég megoldása centralizált vezérelhetőséggel, masszív radiátorral és robusztus ventilátorokkal igyekszik vásárlásra csábítani.
-
Új Beats fej- és fülhallgatók jelentek meg
ma Frissítette a Solo termékcsaládot az Apple házi audiomárkája.
Új hozzászólás Aktív témák
-
E.Kaufmann
addikt
válasz sajti_pajti #2 üzenetére
Vannak olyan algoritmusok, pl kép és hangfelismerés, de már képtömörítés és képjavító algoritmusok is használják, amiket tanítással hoznak létre (pl sok hangminta és jelentésük páros), mely során keletkezik egy mátrix (egy táblázat) amit egy úgynevezett neurális háló (idegrendszer mintájára) dolgoz fel
A neurális hálóban több kis feldolgozó egység, neuron egymással szorosan van összekötve, amelyek működését a mátrix befolyásolja, és GPU-val jól szimulálható, mert a GPU -ban is több kis számítási egység, egyszerűbb utasításkésletű mag van és egy neuron működése egy GPU-n belül számolóegységen szimulálható. Sok kis magon meg egyszerre sok kis neuron futtatható.
Eddig is volt amúgy lehetőség GPU-t használni, de próbálják szabványosítani ezen neurális hálók szimulációját és a Google féle programozási felülethez készített a Microsoft egy fordítót, hogy ne kelljen külön a Microsoft saját API-jára is átírni egy ilyen mesterséges inteligenciát használó programot.Le az elipszilonos jével, éljen a "j" !!!
-
E.Kaufmann
addikt
válasz sajti_pajti #4 üzenetére
Itt, az a nagy szám, akik beálltak a Gugli féle API használatába, azok most jól járnak, mert Windows-on lesz rendes HW gyorsítás hozzá a Directx12/DirectML fordítónak köszönhetően.
Le az elipszilonos jével, éljen a "j" !!!
-
szabomihaly2
csendes tag
válasz sajti_pajti #2 üzenetére
Gyakorlatban a fejlesztőkön kívül szerintem egyelőre senki, semmire... Legalábbis nem hallottam eddig olyan alkalmazásról, ahol (rendszeres használatra) a felhasználó gépén kellene tréningelni ML algoritmust.
Egyébként eddig ott volt AMD oldalon a ROCm, Nvidianál a CUDA erre a célra és a Tensorflow mindkettőt támogatta. Kíváncsi leszek, hogy ez a DirectML teljesítményben hoz-e bármit is, mert tudtommal a magasabb szintű kód hordozhatósága eddig sem volt olyan nagy probléma.