- Eleglide C1 - a középérték
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Megérkezett a Google Pixel 7 és 7 Pro
- Véroxigénszintet is mér a Honor Band 5
- Termékoldal buktatta le a Huawei Watch Fit 3-at
- Magisk
- Xiaomi Mi 9T Pro - tizenegyes!
- Apple Watch Sport - ez is csak egy okosóra
- Samsung Galaxy S21 és S21+ - húszra akartak lapot húzni
- Samsung Galaxy S23 Ultra - non plus ultra
Hirdetés
-
A franciáknak elege van abból, hogy minden gyerek mobilozik
it Vissza akarják szorítani a gyerekek és tinédzserek közösségi média- és okostelefon-használatát.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Képeken az egyik kameráját elvesztő Sony Xperia 10 VI
ma Részletes anyag került fel az internetre a Sony idei középkategóriás telefonjáról, három helyett két hátlapi kamera várható.
Új hozzászólás Aktív témák
-
E.Kaufmann
addikt
Helyes.
Le az elipszilonos jével, éljen a "j" !!!
-
sajti_pajti
tag
Azt azért elárulhatná nekem valaki, hogy ezt a gyakorlatban mire és mi módon lehet használni?
-
E.Kaufmann
addikt
válasz sajti_pajti #2 üzenetére
Vannak olyan algoritmusok, pl kép és hangfelismerés, de már képtömörítés és képjavító algoritmusok is használják, amiket tanítással hoznak létre (pl sok hangminta és jelentésük páros), mely során keletkezik egy mátrix (egy táblázat) amit egy úgynevezett neurális háló (idegrendszer mintájára) dolgoz fel
A neurális hálóban több kis feldolgozó egység, neuron egymással szorosan van összekötve, amelyek működését a mátrix befolyásolja, és GPU-val jól szimulálható, mert a GPU -ban is több kis számítási egység, egyszerűbb utasításkésletű mag van és egy neuron működése egy GPU-n belül számolóegységen szimulálható. Sok kis magon meg egyszerre sok kis neuron futtatható.
Eddig is volt amúgy lehetőség GPU-t használni, de próbálják szabványosítani ezen neurális hálók szimulációját és a Google féle programozási felülethez készített a Microsoft egy fordítót, hogy ne kelljen külön a Microsoft saját API-jára is átírni egy ilyen mesterséges inteligenciát használó programot.Le az elipszilonos jével, éljen a "j" !!!
-
sajti_pajti
tag
válasz E.Kaufmann #3 üzenetére
Köszi, de ezekkel, ha nem ennyire precízen is, de tisztában voltam.
A gyakorlatban a Luminr Video Enhancement AI-t próbáltam is már - de ezt ők tanították be.
A Topaz AI-val is elszórakoztam már, helyenként egész ügyes - de ez (feltételezésem szerint) megint csak a saját neurális hálóját használja.... -
E.Kaufmann
addikt
válasz sajti_pajti #4 üzenetére
Itt, az a nagy szám, akik beálltak a Gugli féle API használatába, azok most jól járnak, mert Windows-on lesz rendes HW gyorsítás hozzá a Directx12/DirectML fordítónak köszönhetően.
Le az elipszilonos jével, éljen a "j" !!!
-
szabomihaly2
csendes tag
válasz sajti_pajti #2 üzenetére
Gyakorlatban a fejlesztőkön kívül szerintem egyelőre senki, semmire... Legalábbis nem hallottam eddig olyan alkalmazásról, ahol (rendszeres használatra) a felhasználó gépén kellene tréningelni ML algoritmust.
Egyébként eddig ott volt AMD oldalon a ROCm, Nvidianál a CUDA erre a célra és a Tensorflow mindkettőt támogatta. Kíváncsi leszek, hogy ez a DirectML teljesítményben hoz-e bármit is, mert tudtommal a magasabb szintű kód hordozhatósága eddig sem volt olyan nagy probléma. -
consono
nagyúr
válasz szabomihaly2 #6 üzenetére
Igazán szerintem ezzel az MS a linuxtól próbál elcsábítani ML fejlesztőket. Mikor utoljára ilyennel foglalkoztam a CUDA+Python duó elég nyögvenyelős volt Windowson, de én csak hobbyból játszottam vele. Meg persze az is jól jön, hogy nem csak Nvidia támogatás van, főleg most, mikor a combosabb kártyák nehezen elérhetőek (ha jól tudom a DirectML nem csak Nvidia, AMD, hanem akár Intel meg Qualcom chipeket is támogat).
"In God we trust. All others must bring data"
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Promenade Publishing House Kft.
Város: Budapest