- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Eltűnhet a Dinamikus Sziget
- Xiaomi 14 - párátlanul jó lehetne
- Samsung Galaxy A56 - megbízható középszerűség
- Google Pixel topik
- Poco X6 Pro - ötös alá
- Bemutatkozott a Fairphone 6
- iPhone topik
- Samsung Galaxy Watch6 Classic - tekerd!
- Megjelent a Poco F7, eurós ára is van már
Új hozzászólás Aktív témák
-
DarkByte
addikt
válasz
5leteseN #558 üzenetére
Eddig sem a ROCm-el volt gond. Hanem hogy az egész ML világ leginkább a CUDA körül forog és fasorban sincs a támogatás. Remélhetőleg ez változik. Bár így nehéz lesz.
-
-
moseras
tag
válasz
5leteseN #558 üzenetére
Hát,
AMD Instinct MI25 End of LifeROCm release v4.5 is the final release to support AMD Instinct MI25. AMD Instinct MI25 has reached End of Life (EOL). ROCm 4.5 represents the last certified release for software and driver support. AMD will continue to provide technical support and issue resolution for AMD Instinct MI25 on ROCm v4.5 for a period of 12 months from the software GA date.
szerintem nem. Az LM Studio az 5.7 ROCM verzióval működik jelenleg. A leírás szerint ez már nem támogatja az MI25 gyorsítót.
-
Geller72
veterán
válasz
5leteseN #552 üzenetére
..Egy ilyen elférne nálam is itthon kifullozva..leszarnám, ha csak DDR4 support van benne.
.
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #457 üzenetére
Azért ezt elég erős jó magyarnak nevezni de valamit válaszol (LLaMa 2 13B chat q5_0):
Jó napot, barát! Ha egészséget keres a maival, akkor itt van egy egészséges menüjecskékkel, amelyeket könnyen elkészíthet és meg is szíveszteni fogtok. Az ételek között nem találhatóak drágák, és mindannyian Magyarországon előforduló ingrediensek.
Félévestől kezdve:
Friss zöldséges saláta (karalabé, kelkács, zeller) - A zöldségekben gazdag saláta friss és ízlést szeret, míg a karalabé és a zeller betegségellenes tulajdonságúak. Töltött káposzta (töltött krumplinac, borsonyaleves) - A töltött káposzta a szívújságokban gazdag, míg a borsonyaleves a vérrögállító tulajdonságú. Gomboccsalámi (gomboc, sajtwurst) - A gomboccsalámi az egészséges zsírsavakat tartalmazza, míg a sajt a vérrögállító tulajdonságú.
-
alton1978
tag
válasz
5leteseN #442 üzenetére
Szia!
Az van fent, igen, de most frissítem éppen az 546.29-re.
A VRay miatt mindig a legfrissebb van fent.
Python, PyTorch, Anaconda is fent van.
Esetleg az lehet a hiba, hogy még Win10-be ragadtam? Melós gép, így ezt nem igazán updatelném. RAM van 64GB, a CPU meg AMD 3900x.Jó lenne, ha sikerülne munkára fogni...
-
bbmt
senior tag
válasz
5leteseN #404 üzenetére
Én elengedtem egy időre, nekem működik csak baromi lassú. Mondjuk játszadozni jó.
A egyik fejlesztőt aki hozzáadta az amd támogatást, megtaláltam a Reddit-en, de ő alapból linuxon használja, nem nagyon fog reszelgetni a windowsos változaton.
Amúgy minél kisebb a s/it szám annál jobb? Neki 2s/it a sebessége. -
5leteseN
senior tag
válasz
5leteseN #403 üzenetére
Nem futott ismét! Be akartam tenni, hogy mi a probléma, de nem látom értelmét, mert akárhány Fooocus-os AMD problémának néztem utána a Net-en, a végén egyik sem volt sikeres.
A Fooocus-os csapat elengedte az AMD-ket?
Sok ezzel foglalkozó fórum-szál megoldás nélkül van lezárva valamelyik fórum-gazda által.Eredményre szerintem az vezetne, ha elég sokan írnának nekik(és más fórumokra is) a helyzetről és akkor a közösségi nyomás hatására: talán.
A jóval gyengébb, és fele VRAM-os GTX 960 a Fooocus-on egy képet készít sokszoros(5-6-szorosra becsülöm) idő alatt, mint a Krita egy (végleges, nem Live)képet! Szívesen összehasonlítottam volna a két programot ugyan azzal a GPU-val, de nem akar sikerülni ez az összehasonlítás.
-
5leteseN
senior tag
válasz
5leteseN #402 üzenetére
A kis-ördög(nagy?
) nem hagyott békén, a dolgozó programmal is próbát tettem az AMD-s kiegészítésű run.bat-ot futtatva, ahol jött a szokásos hiba üzenet a végén:
" ... Fooocus\python_embeded\lib\site-packages\torchsde\_brownian\brownian_interval.py", line 234, in _randn
return _randn(size, self._top._dtype, self._top._device, seed)
File "C:\Users\Fontoska\Desktop\AMD Fooocus\python_embeded\lib\site-packages\torchsde\_brownian\brownian_interval.py", line 32, in _randn
generator = torch.Generator(device).manual_seed(int(seed))
RuntimeError: Device type privateuseone is not supported for torch.Generator() api.
Total time: 7.31 seconds "... de ezt már tudjuk( ...tudjuk?), hogy az ezen a helyen
(...Fooocus\python_embeded\lib\site-packages\torchsde\_brownian\brownian_interval.py", line 32) lévő, vastaggal szedett állomány 32. sorában kell törölni a zárójelben lévő device szót, és semmit nem tenni a helyére.
Ezek után elméletileg jó lesz(jó volt legalábbis annak, akitől idéztem ezeket Gugli barátom segítségével).Gyors teszt után megosztom a tapasztalatokat.
-
5leteseN
senior tag
válasz
5leteseN #401 üzenetére
Számok az alábbihoz, hogy ne "nyúl-bogyóval gurigázunk":
" Fooocus>.\python_embeded\python.exe -s Fooocus\entry_with_update.py
Already up-to-date
Update succeeded.
[System ARGV] ['Fooocus\\entry_with_update.py']
Python 3.10.9 (tags/v3.10.9:1dd9be6, Dec 6 2022, 20:01:21) [MSC v.1934 64 bit (AMD64)]
Fooocus version: 2.1.824
Running on local URL: http://127.0.0.1:7865
To create a public link, set `share=True` in `launch()`.
Total VRAM 4096 MB, total RAM 65458 MB
Trying to enable lowvram mode because your GPU seems to have 4GB or less. If you don't want this use: --normalvram
Set vram state to: LOW_VRAM
Disabling smart memory management
Device: cuda:0 NVIDIA GeForce GTX 960 : native
VAE dtype: torch.float32
Using pytorch cross attention
Refiner unloaded... "Tehát az nV-s változat kapásból látja az összes VRAM-ját a GTX960-nak és rendben elindul:
" ...Fooocus V2 Expansion: Vocab with 642 words.
Fooocus Expansion engine loaded for cpu, use_fp16 = False.
Requested to load SDXLClipModel
Requested to load GPT2LMHeadModel
Loading 2 new models
App started successful. Use the app with http://127.0.0.1:7865/ or 127.0.0.1:7865 "Az idézett jó kezdet és idézett sikeres befejezés között 50-100 sor a telepítésről, nem érdekes, nem volt benne hibára utaló rész, a fontosnak tartottat raktam be csak.
-
5leteseN
senior tag
válasz
5leteseN #400 üzenetére
Amikor másnak is támad ilyen (nálam Fooocus-nál, ezért így is kezdődik, vastaggal a lényeg: Fooocus error AssertionError: Torch not compiled with CUDA enabled) CUDA-t hiányoló gondja, akkor meg kell keresni az aktuális(éppen használt, mert több is lehet) Python könyvtárat, ott kiadnia " cmd " terminál indító parancsot(erre és sok mindenre a Total Commander javasolt), bemásolni ezt (mindig idézőjelek nélkül):
" python -m pip install --upgrade --force-reinstall --no-cache-dir --no-deps torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 "...és elméletileg egy friss telepítéssel a szükséges helyre meg is oldja a gondot a hsz időpontjában friss 1.18-as CUDA-val.
Ez egy erőltetett(... force...) telepítés. Javasolt előtte a hibával jelentkező saját AI/MI programnak azért utána nézni! A lusták vessenek magukra!
Nekem meggyógyult a beágyazott(saját magába telepített) Python-t használó Fooocus programom.
Hasonló (akár jobb
) eredményt mindenkinek...
-
consono
nagyúr
válasz
5leteseN #396 üzenetére
Azt még próbáld ki, hogy ezt beteszed a run.bat elejére, hátha:
set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.5,max_split_size_mb:128
set COMMANDLINE_ARGS=--opt-split-attention --precision full --always-batch-cond-uncond --disable-nan-check --api --lowvram --no-half --no-half-vae --sub-quad-q-chunk-size 256 --sub-quad-kv-chunk-size 256--sub-quad-chunk-threshold 75 --use-cpu interrogate clip --no-hashing
set SAFETENSORS_FAST_GPU=1HA így megy megpróbálhatod kicserélni a --lowvram -ot --medvram -ra
-
consono
nagyúr
válasz
5leteseN #392 üzenetére
Szerintem ezt a sok kapcsolót egybe kellene, nem külön sorokba, szóval a --directml mögé tedd be , hogy --use-split-cross-attention.
Vedd ki az utolsó sort és így módosítsd az előtte levőt:.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directml --use-split-cross-attention
A --normalvram-ot elengedheted, utána is csak 1GB-t mond...
A Fooocus nálam is ilyen és működik, ikon nélkül, szerintem az nem para.
-
-
-
-
bbmt
senior tag
válasz
5leteseN #353 üzenetére
Igen, beleraktam.
A CPU 16%-on volt a GPU meg 99%-on, ezek szerint nem a procit használta.Most nincs cpu sor csak ennyi:
[Parameters] Adaptive CFG = 7
[Parameters] Sharpness = 2
[Parameters] ADM Scale = 1.5 : 0.8 : 0.3
[Parameters] CFG = 4.0
[Parameters] Seed = 3753901617140569632
[Parameters] Sampler = dpmpp_2m_sde_gpu - karras
[Parameters] Steps = 30 - 15 -
bbmt
senior tag
válasz
5leteseN #349 üzenetére
Nekem ezeket írja ki:
Total VRAM 1024 MB, total RAM 32604 MB
Set vram state to: NORMAL_VRAM
Disabling smart memory managementFooocus Expansion engine loaded for cpu, use_fp16 = False.
Requested to load SDXLClipModel
Requested to load GPT2LMHeadModel
Loading 2 new models
[Fooocus Model Management] Moving model(s) has taken 0.13 seconds
App started successful. Use the app with http://127.0.0.1:7865/ or 127.0.0.1:7865Nincs hibaüzenet a VRAM-ra.
RX6800XT a kártya.
edit: ez van a végén:
RuntimeError: Device type privateuseone is not supported for torch.Generator() api.
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #345 üzenetére
A Fooocuhoz nincsenek pluginek hiszen ez a lényege, hogy egy nagyon egyszerű felületen tudjál képet generálni. Van egy forkja ami bővített változat és több mindent be tudsz állítani. Ott lehet, hogy találsz upscaler módszert.
Amúgy meg sok videót tettem ki ilyen módszerekről én is amivel Automatic vagy ComfyUI, Chainner hasznlatával fel tudz skálázni egy már meglévő fotót.
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #342 üzenetére
egyet ne felejts el. A Live funkciót ha kikapcsolod akkor ott a generálás és azzal szinte ugyanazt a minőségű képet le tudod generálni mint a Foocusban. A beállításokban a generáláshoz külön állítod a lépésszámot, mintavevő nevét, stb. Azaz ha kész a Live-ban megalkotott képed akkor kapcsold át Live-ról és generáld le rendesen.
-
User_2
tag
válasz
5leteseN #325 üzenetére
jelenlegi tudásod alapján a legmegbízhatóbb megoldás, ha dualboot-ban felteszel egy minimal linux-ot, mondjuk a puppy linux-ot, arra telepítesz python ha nem tenné fel önállóan, és ezután az openinterpretert.
ennél csak szofisztikáltabb megoldások vannak, amibe mai fejeddel garantáltan beleőszülnél, legkésőbb akkor amikor szeretnéd legyalulni az egészet és feltenni helyette valami mást. -
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #319 üzenetére
Az AI programok kb 99%-a Python az mindenféleképpen kell a géepdre. Csak úgy ne telepítgess egymás mellé Python appokat mert összeakaszkodnak egymással a Python könyvtáraik (nem mappára gondolok). Ezért kell az Anaconda programot használni mielőtt bármit telepítesz. A legtöbb videómban mindig ezzel kezdem.
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #313 üzenetére
Szerintem ez tudja. Nézd meg: Open Interpreter
-
User_2
tag
válasz
5leteseN #313 üzenetére
meg akartam tartani magamnak, de pont egybevág,
a meta lama-ja se tud helyes választ erre a kérdésre, az amit a brave-be integráltak a múlthéten.
de valami olyan vállalhatatlan stílusban nem tudja a választ. buta, fennhéjázó, a végletekig ragaszkodik a nyilvánvaló ellentmondáshoz, udvarias szavakat használva rettentő udvariatlan.
erről a pontról beláthatatlan távolságra van még a chatgpt3.5 is. -
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #270 üzenetére
Teljesen magyar fejlesztés. Elég aktív az egyik tulajdonos az AI csoportokban. Hihetetlenül nagy melót ölnek bele és nagyon komyolyan gondolják. Elképesztő gyorsan fejlődik a szolgáltatás. Külföldi piacokat is megcélozzák.
Igazából egyre több és több webes felületű szolgáltatás van már. Egy idő után ez olyan lesz mint a Adobe Premiere vagy Final Cut verseny.
Azt fogod választani ami a te preferenciáidnak jobban megfelel. Jobban tetszik a felület vagy kedvezőbb az előfizetési modell (tengr.ai jelenleg ingyenes). -
5leteseN
senior tag
válasz
5leteseN #244 üzenetére
Az előző INTEL-es AVX2/... emuláció témában idézett YT-videóban kicsit összevissza módon adta elő a srác, hogy hogyan kell az INTEL AXV2/AVX512/... emulátorát bedörrenteni, de EZEN a videón ez sokkal érthetőbb az emulátoros indítás, ha valaki szintén érintett még ebben a kérdésben rajtam kívül.
Érdeklődve várom a tapasztalatokat!
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #232 üzenetére
Te adod meg, hogy milyen modellt szeretnél használni. Az alap SDXL modell nem tökéletes. Nyugodtan lecserélheted a Google Colabon illetve tehetsz mellé még LORA modellt is. Így sokkal jobb végeredményt fogsz kapni.
Ez pl nagyon jó:
https://civitai.com/models/133005/juggernaut-xl -
Geller72
veterán
-
consono
nagyúr
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #192 üzenetére
Keddig nem vagyok gépközelben. Addig használd a Google Colab verzióját. Annál mindegy milyen géped van csak egy böngésző kell. (Img referencia megadás nem megy)
Itt a videó róla:
Képgenerálás ingyen bármilyen számítógépen a Google Colab segítségével
https://youtu.be/VVU2aPhxHW4 -
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #167 üzenetére
1. A Fooocust git repobol tedd fel és ne töltsd le a zip fájlt.
Ilyenkor a frissítés mindig csak pár kbyte vagy MByte lesz.
2. run.bat fájlt írd át erre:
.\python_embeded\python.exe -m pip uninstall torch torchvision torchaudio torchtext functorch xformers -y
.\python_embeded\python.exe -m pip install torch-directml
.\python_embeded\python.exe -s Fooocus\entry_with_update.py --directml
pause3. Nem tudom mire gondolsz. Link?
-
5leteseN
senior tag
válasz
5leteseN #170 üzenetére
A modul könyvtár patch.py állomány 489-es sorában megadott érték miatt tekinti korruptnak hibásnak az állományt, ezért töltögetné újra mindig az alig 6GB-ot.
Vmi korábbi verzió mérete lehet ott, amit az AMD-s rrun.bat változat használna, csak azóta ömlenek a javított változatok és mivel viszonylag kevés AMD-svan, nem bukott ki a hiba.
Emiatt a hiba miatt az AMD-ken nem fut, ezért még kevesebb AMD-s lesz. -
5leteseN
senior tag
válasz
5leteseN #167 üzenetére
AMD-seknek: Ezek a hibaüzenetek nem érdekesek, mert az AMD-hez módosított run.bat szedné le ezeket, de nincsenek is telepítve ezért írja a hiba üzenetet, lényegtelen! Helyettük a torch-directml-t telepíti.
Közben szerintem elvész vhol a VRAM beállítás, mert miután ezeket befejezi, csak 1GB VRAM-ot lát a Vega 56 8GB-jából, és további összetevők indításai után végül mindig corrupt lesz a refiner...safetensor 6GB-os file és töltögetné újra századszor.Szerintem a két hiba összefügg.
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #152 üzenetére
Az kicsit hosszú lesz
"3D animációkat(rövidet:5-25mp)"
Animációra ezek jelenleg a legjobb eszközök: Runway, Pika Labs, Deforum, AnimateDiff, Zeroscope
Ezekkel inkább rövid 2-5 másodperces animációkat hozol létre amit összefűzöl nem kicsi utómunkával.
Klasszikus itt egy 3D modell és csinálj belőle 30seces konzisztens animációt még nincsen. -
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #148 üzenetére
Mac->Windows->Linux
Azaz a legtöbb mindent Linuxon tudod futtatni de ott tényleg!! jól kell értened a rendszerhez mivel Windows alatt is van olyan telepítés ami jó ideig eltart.
Teljesítményben nem nagyon lesz különbség.
Van jó pár Githubos projekt ami jelenleg még csak Linux és egész ígéretes de ezeknek rövid hatéridőn belül meg szokott jelenni a Windows telepítési lehetősége is.
Itt természetesen soha sem egy EXe fájl futtatásáról van szó (legritkább)
Szinte mindig github clone. -
consono
nagyúr
válasz
5leteseN #152 üzenetére
Valahol itt kell elkezdened a Vega miatt: [link] itt pedig a Reddit beszélgetés hozzá: [link]
A legtöbb tutorial sajnos nvidia vidkarit feltételez... Ahogy látom itt Linux alól oldották meg a Vega használatát, nem tudom Windows alatt megy e ez."3D" videóhoz meg talán ezt lehet használni: [link]
Amúgy majdnem mindenhez GUI-nak az AUTOMATIC1111 a legelterjedtebb, érdemes ennek a telepítéséről nézni valami tutorialt.
Kicsit szkeptikus vagyok, hogy a Rába Steigert le tudod e generáltatni vele, az eléggé Hungarikum -
consono
nagyúr
válasz
5leteseN #148 üzenetére
Hát, ha nagyon lecsupaszítjuk a dolgokat, szerintem mindennek kell Python, meg az nvidia driver. A legtöbb GUI, amit letöltesz is Python scriptet indít... Persze vannak appok, amik csak Windowson mennek, most hirtelen az Nvidia Canvas jut az eszembe.
Kezdetnek szerintem jobban jársz, ha Win-en játszol és ha már tudod, hogy milyen programokat akarsz használni, kiderül, hogy tudsz e Linuxra váltani. Vagy hogy még mindig akarsz e
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #133 üzenetére
Nálam a 3060-as végzi a munkát. A lista végére még odaírtam. A CPU-n történő bármilyen AI feladat kb 5-50-szer lassabb mintha az NVIDIA kártya dolgozna. Az RTX-et pedig azért mondtam mert a modern kártyák sokkal jobban teljesítenek.
Ahogy consono is mondja, az egyik legfontosabb elem a memória mérete. 12 alatt LLM futtatásába saját gépen nem érdemes belevágni. Persze a RunPod futtatásának lehetősége még mindig ott van ha nem csak időszakosan van rá szükéged.
Ha kifutok a VRAM-ból egy LLM futtatása esetén a win11 besegít a RAM használatával de azt nem köszönöd meg. A 20-40 i/s-ből lesz 1-2
A legtöbb AI ki tudja használni a 2 kártyás rendszereket. -
consono
nagyúr
válasz
5leteseN #131 üzenetére
Ha LLM-et fogsz esetleg helyben futtatni, akkor a sok VRAM-mal jobban jársz, mint a nyers sebességgel, mert elfér egy nagyobb modell is teljesen a GPU-ban. Gondolom videó generálásnál sem hátrány a több, de azzal kicsit sem foglalkoztam
Nekem egy 4GB-s 3050 van a gépemben, az sokra nem elég...
Itt azt mondják, hogy ha nem tanítani akarod a modellt, akkor nem biztos, hogy a P40 a jó választás, de itt is csak 1 vs 1-ről van szó:[link]
-
Mp3Pintyo
HÁZIGAZDA
válasz
5leteseN #128 üzenetére
Pár hónapja raktam össze egy gépt. Jelenleg ezt használom minden AI teszteléséhez és a videók elkészítéséhez:
64GB 5600MHz DDR5 RAM Kingston Fury Beast CL36 (2x32GB) (KF556C36BBEK2-64)
https://aqua.hu/64gb-5600mhz-ddr5-ram-kingston-fury-beast-cl36-2x32gb-kf556c36bbek2-64-1323013.html
Be Quiet! Dark Rock Slim univerzális CPU hűtő (BK024)
https://aqua.hu/be-quiet-dark-rock-slim-univerzalis-cpu-huto-bk024-788918.html
EVGA SuperNOVA 850 GT 850W moduláris tápegység (220-GT-0850-Y2)
https://aqua.hu/evga-supernova-850-gt-850w-modularis-tapegyseg-220-gt-0850-y2-1160832.html
ASUS PRIME B650-PLUS alaplap
https://aqua.hu/asus-prime-b650-plus-alaplap-1280681.html
Be Quiet Pure Base 500DX Black táp nélküli ablakos ház fekete (BGW37)
https://aqua.hu/be-quiet-pure-base-500dx-black-tap-nelkuli-ablakos-haz-fekete-bgw37-916451.html
AMD Ryzen 5 7600X 4.7GHz Socket AM5 dobozos (100-100000593WOF)
https://aqua.hu/amd-ryzen-5-7600x-47ghz-socket-am5-dobozos-100-100000593wof-1252063.htmlVideókártya: minimum 3060-as 12GByte
Ennél gyengébbet nem ajánlok ha tényleg komolyan érdekel a téma.
-
Új hozzászólás Aktív témák
Hirdetés
- Kedvenc zene a mai napra
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Eltűnhet a Dinamikus Sziget
- Epson nyomtatók
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Hegesztés topic
- OLED TV topic
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Gitáros topic
- PlayStation 3
- További aktív témák...
- VÉGKIÁRUSÍTÁS - REFURBISHED - HP Elite / ZBook Thunderbolt 3 docking station
- AZONNALI SZÁLLÍTÁSSAL Eladó Windows 8 / 8.1 Pro
- Csere-Beszámítás! AMD Ryzen 7 7700 Processzor!
- Bomba ár! Dell Precision M4800 i7-4800MQ I 16GB I 256SSD I 15,6" FHD I K1100M I Cam I W10 I Gari!
- Bomba ár! Lenovo ThinkPad T490s - i5-8GEN I 16GB I 512SSD I 14" FHD I Cam I W11 I Gari!
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest