Keresés

Új hozzászólás Aktív témák

  • freddirty

    senior tag

    válasz S_x96x_S #2113 üzenetére

    Hm, és a Maxsun gyárt majd dual gpu-s B60-at is. Az 48GB VRAM, mintha két kártyád lenne. Ha viszi majd az ollama, akkor beleszuszakolom az itthoni homelab szerverbe és lesz egy állandó AI gyorsító megoldás. Ígéretes, majd meglájuk mit hoz a q4.

  • freddirty

    senior tag

    válasz aprokaroka87 #1576 üzenetére

    Akkor az már eléggé pöpec AI. A legtöbb mindenféle hülyeséget hord össze a földbe döngölve így a megbízhatóságát. Nagyjából itt van ma a határa az AI-nak az alkalmazások nagy részénél. Ha kérdezek és a válasz nem 100%-osan jó akkor inkább nem is kérdezek. Mondjuk egy programrészletet a válaszban ki tudok javítani a használat során (mert időt spórol nekem az ai nem szakértelmet), de ha egzakt 100%os válaszokat akarok mert a tudásom nem elegendő akkor ma még nem megoldás az AI.

  • freddirty

    senior tag

    @Mp3Pintyo: Láttam a videóidban hogy postgres vector adatbázist használsz RAG-hoz.
    Idáig az anythingllm és webui RAG funkcióit próbálgattam és egyszerűbb inputokkal hasonlóan működnek mint mondjuk a Te Rejtős példád az n8n használatával.
    De komolyabb doksiknál már megfekszik az AI, halucinál, kevés valóságtartalommal, hülye válaszokkal jön vissza. /több száz oldalas IT specifikációk/
    Megpróbálnám az n8n-el is, hátha. Nálam picit más az IT környezet, homelab szerver amin a konténerek/szolgáltatások futnak, az egyetlen lokális a desktopomon az ollama mert ugye a videokártya a gaming gépben van :)
    Na de a kérdés, hogy milyen postgres szerver kell a RAG-hoz n8n mögé? Van egy rakat konténer amit rá tudok tenni a szerverre, kböző verziók, official/non official image-ek.

  • freddirty

    senior tag

    válasz sh4d0w #1380 üzenetére

    Általánosságban local ai-ra kompatibilitás/ár/vram tekintetében a használt 3060 12gb tekinthető sweet spotnak. Menni fognak rajta a képgenerátorok, lora tréning, llmek.
    P40/m40 kártyák is hasonlóan olcsók vonzóan sok vram-al de nagyon lassúak.

  • freddirty

    senior tag

    válasz DarkByte #1081 üzenetére

    Az exo-t kipróbáltam hogy másnak ne kelljen.
    Csak forrás áll rendelkezésre, tehát bármilyen gépen csak teljes feljesztői környezet felállítása után fordulhat le! Bináris nyista. Dokumentáció a fejlesztői környezetről nem elérhető.
    Windows masinán egy ideig próbálkoztam, de dependency probléma hegyén hátán. Meguntam egy óra után. WSL-re nem akartam átállni, van két linux szerverem is, de oda bármit csak konténerben rakok fel ez meg full fejlesztőkörnyezet. Akkor inkább Android mert az fenn van a támogatottak között és láttam hogy s23 ultrán már futtatták.
    Nosza feldugtam dokkolóra az enyémet majd tmux letölt. Ott is egy rakás fordítási dependenciát nekem kellett trial-error alapon megtalálni. Kb. 1 óra tökölés után, discordjuk böngészése után végre eljutottam tényleges fordítási hibákhoz ami már nem dependency. Pl. invalid function pointer. Hát voltam én programozó, de talán ennek nem fogok már nekiállni.
    Nincs ez még kész messze sem, ha valakinek véletlenül lefordul akkor lefordul. A fejlesztők látom apple eszközökön dolgoznak ott lehet jobb a szitu. De hogy legyen egy rakás elfekvő apple eszköz az elosztott llm-hez valakinek otthon az azért kevéssé valószínű :)
    Szóval egyenlőre nem ajánlott, csak time sinker. Majd ha kész lesz, és lesz bináris/gyári konténer (ha egyáltalán valaha...)

  • freddirty

    senior tag

    válasz DarkByte #1000 üzenetére

    Igen pont az az ami nagyon meglepő a fluxban, hogy elsőre egy jól megírt prompt alapján egy nagyságrenddel jobb képet generál mint a szokásos. Egy SD 1.5, 2.x, XL bárminál a workflow kb. az, hogy belövöd kb. a promptot sok-sok próbálkozással (és nem leíróan, hanem szabak vesszővel elválasztva, fontossági sorrendben csökkenően), aztán generáltatsz egy nagyobb batch-el sok-sok képet, majd kiválasztod ami leginkább jellemző arra amit szeretnél, majd azt dolgozod tovább, inpaint, scale, etc... Na itt ez a munkamenet lerövidül egy jó leírópromptra, amiben egy LLM fél perc alatt segít, majd azt átírva már az akár első generálás után mehet az utómunka. Akár órákkal is kevesebb lehet egy kép elkészítése.
    Így az SD el is felejtheti, hogy valaha létezett, ha nem tesz le egy hasonlót az asztalra, akkor át fog állni minden fejlesztő és AI hobbista erre.

  • freddirty

    senior tag

    válasz DarkByte #994 üzenetére

    Hm tényleg nagyon jó, sokkal jobb eredményt értem el az első prompt-al mint egy Stable Diffusion-al.
    Még nem lokálisan csak próbaképpen az online generátorukban, github accountommal:
    https://fal.ai/models/fal-ai/flux/schnell?ref=blog.fal.ai
    Utánanézek mi az lokális futtatásnak a feltétele.

  • freddirty

    senior tag

    válasz consono #941 üzenetére

    A 3090 tényleg jó kártya, ha valaki nagyon komolyan akar otthon local AI-al foglalkozni akkor vesz kettőt használtan, és az már elég sok mindenre elég.
    De azért megvannak a kockázatai. A 3090-en a vramok a kártya hátoldalára fértek már fel csak, ergo nem hűti a CPU hűtő blokk. Thermal padok kötik össze a backplate-el és hát az nem sokat ér. 90-100 fokon mennek. Játék közben nem annyira gáz, de ha bányászva volt vele akkor ott 100 fokon pörgött a vram 7/24-ben. Ergo eléggé kérdéses mikor adja fel a kártya végleg. Meg persze használt kártyánál kérdéses az még, hogy hogy volt beszerelve, meg volt-e támasztva, lógott-e, mert a böszme kártyák hajlamosak elrepedni a csatlakozó végénél. Szóval használt kártyánál azért van rizikó, ki kell fogni olyat ami tényleg nem volt f**sá bányászva (de nyilván egy eladó sem fogja a igazat mondani hisz nem érdeke).
    A 40-es széria nem annyira bányászott már, de ott meg az áramfelvétel a probléma, 4090-esek power csatlakozói előbb utóbb mind elégnek.
    Szóval ha kell a vram és komolyan benne van vki a local ai-ban akkor 3090/4090 max ha elég akkor mehet javításra, vagy lecserélésre. Hobbira meg egy 3060 vagy 4060 bőven elég.
    De kíváncsi leszek milyen lesz az nvidia 50xx széria. Lesz-e normális 256 bites 16gb+ 5060-as kártya?

  • freddirty

    senior tag

    válasz 5leteseN #932 üzenetére

    LLM-es összehasonlításom nincs, de a tomshardware stable diffusion benchmarkot csinált tavaly:
    https://www.tomshardware.com/pc-components/gpus/stable-diffusion-benchmarks

    De itt van belőle a lényeg:

    Az a baj LLM-nél. hogy a 24Gb is kevés egy 70b modell betöltéséhez. Ahhoz kellene két 3090 (48GB VRAM) és 64GB RAM. De ha csak hobbizik az ember akkor nem biztos hogy egy ilyen power hungry gépet építene csak azért hogy beférjen az a 70b modell.
    Részemről 4060 16gb van az egyik gépemben és 3060 12gb a másikban. Kb. azonosak sebességben. (A 4060 újabb ugyan de szűkebb a vram sávszélessége)

  • freddirty

    senior tag

    válasz fecus #840 üzenetére

    Én tennék egy próbá a helyedben local AI megoldással, megetetnék próbából pár doksit és kérdeznék az llmtől jól körülírva az igényemet. Ebből kiderül mennyire jó lenne ez neked. Kellene hozzá egy pc 16-32gb ram, videokártya mondjuk 8-12gb vrammal. Ollama windows-ra van, llama3 jó lesz llmnek, frontendnek RAG doksi adatbázissal meg elég kész megoldást ad egy anythingllm konténerben. Kell némi IT tudás azért.
    Nekem vegyesek a tapasztalataim, valamikor jó válaszokat kapok valamikor nem. Van olyan doksi amit képtelen jól megérteni bárhogy is próbálkozom darabolni áírni, valamit igen. Szerintem elég niche technológia. Mindig oda jutok végső következtetésnek mint az utóbbi években sokszor az AI területén, hogy jó-jó de valahogy mindig még messze van az a megoldás amit elvárnánk vs. ahogy most működik. A legjobb szó rá még mindig a weak AI.

  • freddirty

    senior tag

    válasz Mp3Pintyo #718 üzenetére

    ez jól hangzik, rápróbálok a Devinre, meglátjuk mit tud.

  • freddirty

    senior tag

    válasz scream #715 üzenetére

    na pont arra lennék kíváncsi, hogy vagyunk-e már ott, hogy egy adott speciből képes-e már az AI használható kódot generálni, amihez annyira már nem kell hozzányúlni hogy minden egyes sort át kellene néznem mert annak nincs értelme.
    De ezek szerint akkor szerrinted nem.
    És igen pont az olyan problémákra lenne ez jó ami, csak egyszer használatos vagy akár ideig óráig aztán ha változik/cserélődik a speci akkor úgyis neki kell esni a megoldásnak újra.
    Nyilván business crritical szolgáltatásokban, meg ahol a biztonság fontos, nincs keresnivalója ilyen alacsony minőségű kódnak, de sok problémára viszont jó megoldást nyújthat, és nagyságrendekkel csökkenthetné a ráfordított (felesleges) időt.
    Na mindegy akkor elengedem megint egy időre a dolgot, de remélem sikerül még fejlődnie a világnak ebbe az irányba is.

  • freddirty

    senior tag

    Aki AI-al segített kódolásban jártas, az meg tudná mondani, hogy jár-e már a technológia ott, hogy mondjuk specifikáció alapján leszállít az AI egy szar minőségű kódot/library-t amit már csak javítani és tovább fejleszteni kell?
    Csak azért kérdezem, mert régen voltam már fejlesztő (90-es évek, 2000-es évek eleje) és nem sok időm/kedvem van manapság soksok órát rádobni 1-2 feladatra, főleg ha annak a nagy része mondjuk "favágás".
    Pl. ha van egy custom (nem json, nem standard, stb...) file vagy protokol leírásom többszáz mezővel, akkor le tud-e szállítani egy parsert hozzá. Nyilván technikailag meg tudnám írni hobbiból de ez pure favágás nézni a specit és számolgatni a mezőget, javítgatni ha elcsúsztam vhol a számításban stb...Biztos nem tolnám el ilyenre a szabadidőmet. Erre pont jó lenne egy AI által generált akármi, amit aztán át lehetne szervezni más funkciókba/library-kbe. Mondjuk pythonban, azt még az én öreg fejem is felfogja :)

  • freddirty

    senior tag

    válasz hiperFizikus #672 üzenetére

    a szokásos AI képzelgés, megfelelési kényszer stb...
    Én a lokális AI-al játszogatok mostanában, abban látok végre fantáziát. Pl. le lehet venni a "kreativitását" paraméterrel és meg lehet adni neki egy körítést, hogy hogy viselkedjen. Pl én bankkártya elfogadás/kibocsátás környékén dolgozom 20+ éve, és ha megadom neki hogy akkor most ő egy payment expert ilyen olyan protokolokban jártas (MC/Visa stb.. ), majd egy RAG adatbázisban mellétolok pár hivatalos MC doksit, plus leveszem a kreativitást 0.1-re, akkor szépen lehet kérdezni tőle, hogy akkor szerinte ebben vagy abban a mezőben az intefészen milyen adatoknak kell lenni ilyen olyan szituban. Szóval végre hasznos munkára lehet fogni és nem egyszerű beszélgetésekre jó csak. De hasonlóan hasznossá tudtam tenni amikor a mai elszabott keresők már nem tudtak értelmest választ adni. Pl. kerestem lokálisan futtatható website editor/publisher megoldást ami nem wordpress. A kböző keresők idiótábbnál idiótább válaszokat adtak vissza nyilván egy csomó hirdetéstől befolyásolva. A local AI alacsony kreativitással egyből kiköpött négy tökéletes alternatívát. Szóval nem véletlenül parázik a google, hogy a keresői no1. poziját úgy ahogy van elveszti.

  • freddirty

    senior tag

    válasz consono #668 üzenetére

    Igen alapvetően érdekes a kérdés, de inkább filozófiai. Jelenleg oda jutott a tudomány a weak AI-al, hogy lemodellezte ahogy az agy tárol adatokat. De ettől függetlenül az agy még sokkal bonyolultabb működésű és nem is biztos hogy szükség volna egy teljes modellre. De még a letárolt nyelvi modell "visszahvása" is másképp működik, pl. az agyunk annál gyorsabban tud dönteni minél több input áll rendelkezésére, ez egy jelenlegi llm-nél pont fordítva van minél több input van annál több erőforrást(CPU/GPU) fog megenni.
    Szertintem jelenleg elég parttalan ez a vita, jobb arra koncentrálni, hogy a jelenlegi weak AI-t hogyan lehet hasznosítani a legjobban.

Új hozzászólás Aktív témák

Hirdetés