Hirdetés
- Xiaomi 14T Pro - teljes a család?
- Xiaomi 15T - reakció nélkül nincs egyensúly
- Milyen okostelefont vegyek?
- Fotók, videók mobillal
- iPhone topik
- Bemutatkozott a Poco X7 és X7 Pro
- Samsung Galaxy A54 - türelemjáték
- Samsung Galaxy A56 - megbízható középszerűség
- Külföldi prepaid SIM-ek itthon
- Garmin Instinct – küldetés teljesítve
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
-
S_x96x_S
addikt
> Pedig szinte biztos, hogy az ilyen jatekok online lesznek,
> es az llm szerveren fog futni, nem localban.Ha csak az nvidián múlna - akkor igazat adnék ...
de szerencsére - nem csak rajta múlik.és már manapság is vannak kísérleti/Indie játékok ,
amelyek Lokál LLM -el tudnak futni. -
S_x96x_S
addikt
> hogy lehet-e elvezetesen jatszani 5050 8 GB-tal a kovetkezo par evben,
> es szerintem eddig kb. minden azt tamasztja ala, hogy lehet.Az LLM - annyi mindenre kihat az életünkben,
hogy szerintem a játékok se lesznek kivételek.A jelenlegi trend :
hogy a grafika és az LLM/ágensek
nem tudnak együtt futni egy 8GB-os GPU-npersze az nVidia -ilyen esetekre ajánlja a saját vagy mások felhős szolgáltatását.
de remélem a lokálisan futtatható game-ek aránya nem szorul vissza.
( 4GB minimum kell egy Lokális LLM-nek - és akkor az még nem is az élvezetes szint )
https://developer.nvidia.com/blog/build-more-accurate-and-efficient-ai-agents-with-the-new-nvidia-llama-nemotron-super-v1-5/ -
S_x96x_S
addikt
valahol meg húzni a kompromisszumot ...
> Aztan ha lejebb veszed a grafikat, akkor 4 GB-on is 60 fps-sel fut,
> szoval 5050-nel siman lehet jatszani.inkább az a kérdés,
hogy miért alakult ki egyesekben az a benyomás,
hogy elég a 8GB -is csutka max grafikával.
mert erre válaszoltam:"Pedig kerek perec ott vannak a review-ek ahol kb minden esetben csutka max grafikával tesztelnek és mégis ott lihegnek a 16GB-os nagytesó nyakán csupán pár fps-el lemaradva."
és ebben egy picit - a gpu gyártók és a tesztelők is sárosak.
Mert a teszteredmények csak a teszt konfigokra vonatkoznak,
és az eredményből nem mindig pontosan lehet következtetni egy másik konfigra.
( persze a kevés infó is jobb mint a semmi )pl.
a techpowerup - RTX 5060 8GB - tesztje
egy csúcs konfig - csúcs CPU-val és PCie Gen5-el.
- AMD Ryzen 7 9800X3D
- MSI X870E Carbon Wi-Fi ( PCie Gen5 képes ! )
- 2x 16 GB DDR5-6200 MHz 28-36-36-76 UCLK 1:1
- Arctic Liquid Freezer III
- 4 TB M.2 NVMe SSD
és itt a "Dragon Age Veilguard" - teszt,
1920x1080 - on átlagosan 65.0 FPS -t ér el.és a szokatlan infó sokaknak,
hogy a PCIe kapcsolat szűk keresztmetszet tud lenni, hogyha kevés a VRAM.
és egy PCIe Gen4 -en egész más az eredmény. -
Én most már úgy vagyok, hogy saját véleménye lehet bárkinek, ha valaki már az 5050-re is 12 vagy 16 giga vramot kérne, miközben maradjon az ár 100k alatt.
Sok sikert neki, amíg kijön egy olyan kártya, ami olcsó, jó és sok vrammal rendelkezik.
A valóságban meg ez van: a háromból válassz kettőt
-
Hát, az "érdemes" definiálásával el lehet tölteni néhány órát, egyszerűsítsük le úgy, hogy "lesz, akinek hasznos lesz, ha elolvassa". A darabszámmal nyilván igazad van, de gondolom ha valaki kellőképpen felb***ta magát a témán, akkor terápiás hatása van, ha kiírja magából

A 4GB-os 1050 (1050Ti) arra volt jó, hogy med-high preset mellett lehetett ultra textúrákkal játszani vele. Az 1060 3GB meg fordítva, ultra preset mellett helyenként vissza kellett venni a textúrákat.
-
Hát, ez ilyen ízlésbeli dolog - nekem a széthúzásba beletartozna a value proposition megőrzése vagy a változás nyílt(abb) kommunikálása. Hívhatjuk sunnyogós széthúzásnak

A fanyalgás onnan jön, hogy pl. a 4060-as kártya jóval gyengébb ajánlat volt, mint az 1060-2060-3060 vonalon bármi (pedig már a 3060 sem volt hardcore acélos), és ha összeveted akár a 4080-nal, akkor látszik, hogy az inkább egy átpozícionált 4050, csak több fogyasztással, miközben ugyanazokat a marketing-üzeneteket rakták mellé, mint a korábbi 60-asoknak. Nyilván a 4090-nel összevetve sokkal hangzatosabb %-okat kapsz, és jobban clickelt cikkek készülnek belőle

Most meg ugyanez az 5070-nel.Nekem az 5050 8GB VRAM-mal és egy egyszerű aktív hűtéssel is jó lenne, szintén 70-80W fogyasztással. De egyre inkább úgy fest, idén bringát veszek

-
Igen, csak ez nem széthúzás, hanem a korábbi SKU-k újrapozícionálása és új nevek bevezetése - gondolom ezzel próbálják eltakarni, hogy valójában mekkora áremelés is történt.
HD casual gamingre az 1060 bőven sok volt, és most a 4060 is bőven az. Én pont azért szeretnék egy értelmes 50-es kártyát, mert fullHD-ben mindenre elég lenne. -
Azért írtam, hogy sokkal kevésbé ordító. De lehet, hogy félreérthető volt - azt akartam mondani, hogy a csökkenés megfigyelhető, de jóval kisebb mértékben. Ill. ha messzebbre mész vissza, akkor:
5070 - 57.1 %
4070 - 60.5 %
3070 - 67.6 %
2070 - 78.2%
1070 - 75%
970 - 81%
670 - 87.5%Azaz 6 generációváltás alatt a relatív xx70 "ALU-tartalom" 2/3-ára csökkent az xx80-hoz képest, ami generációnként átlagosan 7% visszavágást jelent. Ezalatt a 70-es kártya MSRP-je 37.6%-kal nőtt, a 80-asé pedig 100%-kal, tehát az átpozícionálást az árak is tükrözik bizonyos mértékben.
-
Ha a 80-as az alap, akkor is jól megfigyelhető ez a trend, főleg, ha a Keplertől indulsz el, de persze sokkal kevésbé ordító a dolog. Most nincs időm / kedvem óriási táblázatokat készíteni, de valahogy így néz ki az átpozícionálás 8-10 év távlatában:
80 helyett 80 (ha ez az alap)
70 helyett 70Ti
60 helyett 70
50 helyett 60A vásárlónak persze az az érdekes, hogy mennyi pénzért mennyi teljesítményt kap (legalábbis a racionális vásárlónak
), és ha az 5000-es kártyák elérhetőek lennének MSRP áron, akkor nem lenne ez a generáció annyira tragikus. -
DudeHUN
senior tag
Az, hogy miből mennyi van egy chipben az attól függ mekkora. Főleg azonos csíkszélen. Ha kisebb a die és azonos az átlag tranzisztorsűrűség...
Btw. én nem írtam, hogy a legnagyobb kategóriát kell nézni. Az most az átlagnál nagyobb is. De, az tény rtx estén ez 400mm2 pár éve még a 70-es széria volt. A TDP meg nagyot nő, mert gyárilag meg vannak tolva. A GTX 9x, 10x volt még ekkora, viszont ott a többi rendben volt és nem volt extra feldolgozó.
Pl. RTX 2070 445mm2 volt 175W mellett, RTX 5080 378mm2 360W mellett. -
DudeHUN
senior tag
Pedig az érdekes. És ezért van szó arról, hogy kevesebbet kapsz arányaiban többért. Ezért is érződik kisebbnek egy-egy generációs ugrás. Plusz mellé eléggé túljáratva jönnek, hogy minél jobbnak hasson a teljesítmény. Nagyobbat lehet UV-val nyerni, mint OC-zni a kártyákat.
-
DudeHUN
senior tag
? De nem ez a lényege. Hanem, hogy arányaiban az elérhető képességéhez képest generációk óta kevesebbet kapsz a pénzedért. Ez a fogyasztó szemszögéből nem jó trend.
Persze itt is okohaltó a verseny és a többi túl jól menő ágazat. Egyrészt még mindig nagyobb teljesítményre képesek kb. azonos die méret esetén (tehát árazhatják és ponzícionálhatják magasabbra), plusz nekik már sokadlagos piac a desktop.
Viszont szóba kell ezt hozni és kell valami legalább minimális fék erre a trendre. Legalábbis (gondolom) nekünk az a jó, ha minél többet tudunk kisajtolni a pénzünkért. -
KRoy19
őstag
Nincs itt fanyalgás, ezek nyers adatok és mindenki eldöntheti, hogy milyen konklúziót von le belőlük.
Ha te elégedett vagy a fejlődés mértékével/milyenségével és a hozzá tartozó árazással, akkor tök jó, de nem kell mindenkinek azt gondolnia mint neked.Szerintem itt is ugyan az a shrinkflation folyik mint bármelyik más piacon, hogy fogják és eladják például a 90g-os csokit a régi 100g-os árán és örülünk, hogy nem lett drágább.
-
DudeHUN
senior tag
Miért hasonlítanád a 80-as szériához? Szerintem, ha már belekötünk a die méret alapján is nézhetnénk a dolgokat, mert az is ugrál generációnként.
Az is durva, hogy az Nvidia közel akkora chipet (nagyobb teljesítményt is tud azért) mennyivel drágábban adja, mint az AMD (9070XT vs RTX 5080). GDDR7 ide vagy oda. -
X2N
őstag
A feszültségesés mértéke lenne érdekes nem? Csak a hibás érintkezőn túl sorba kötött alkatrészek ellenállásának összességét nem tudjuk, így nem lehet feszültségesést se számolni, mérni kellene. Ezt pár milliOhm ellenállást az érintkezőnél "labor körülmények között" párszáz mA-es áramnál adták meg az adatlapban szobahőmérsékleten, nem 80+fokon 7-8A árammal. Nem igazán láttam nagy áramú méréseket, de van több adatlap is.
Bennem az se keltett sok bizalmat hogy 105fokot írnak a csatlakozóra mint elméleti maximum, és 80 fokos környezetben működik az egész kártya nyákostul mindenestül. Egy ekkora nyákon ahol minden melegít mindent lehetnek érdekes dolgok? -
X2N
őstag
Én itt a példánál 1db vezetékre számolok, ha többi vezeték és csatlakozó van párhuzamosan, jobban fog melegedni a többi vezeték is a(1db hibás érintkező miatt) többlet áram miatt amit el kell vezetnie, a legtöbb esetben valamelyik szélső oldalon ég szét az érintkező, mert itt elfűti ezt a teljesítmény veszteséget a megnövekedett ellenállás miatt az érintkező, mert feszültségesés van az érintkezőn?
-
X2N
őstag
Valóban, de annak csak form factor okai vannak, a legtöbb GPU 3U rackban pont 3U széles, így már nincs hely bedugni a tápkábeleket oldalt, szükségből kerül fel a kártya végére a csatlakozó. Ez a csatlakozó elhelyezés nekem is szimpatikusabb, mint a 90 fokos ATX tápcsatlakozó egyes alaplapoknál.
GEIL- A Hardcore OC-videokártyáknál már eddig is normális volt hogy 4x8 pines GPU tápcsatlakozó vagy 2x12vhpwr csatlakozó kerül, ott már 600W felett fogyasztanak a kártyák.
-
nem tudom mennyire igaz ha nem akkor ő utána mondtam valótlant. de 15 milliós megtekintéssel és a Foxcon/ Apple konkrét említésével nem hinném, hogy fent lehetne a YT-bon. Ebben a videóban láttam. [link]
Állítólag 0.2 dollár a munkaerő költsége, minimális a kézi munkaerő hozzá.
Más oldalon azt mondták mikor ezt a videót cáfolni akarták, a kijelző és az akkumulátor 10-10 dollár bele 1000 darabos minimum rendeléssel,de az apple gyári szintű megrendeléssel 5 dollár körüli költségekkel kapja az akkut +kijelzőt.( nem külön külön) -
Komplikato
veterán
Biztosan nem igaz. Még sok sok éve, amikor volt BB* telefon, akkor valamelyik iPhone alkatrész árlistája kiszivárgott, akkor a kijelző volt olyan 80 USD? Szerintem csak összeszerelés árára se jön ki a 10 dollár. (*A BB csak azért érdekes a témában, mert nekik a 320x240-es kijelzőjük is kétszer ennyibe került és már akkor találgatta mindenki mikor mennek csődbe.)
-
S_x96x_S
addikt
> de hogy egyertelmu legyen a reszvenyek szerintem tularazottak,
> a geforce-ok nem, 'quadro'-k enyhen,
> datacenter gpuk nagyon. Na akkor egyetertunk?
Ha még hozzáteszed azt is,
hogy a verseny összességében jót tesz az nVidiának,
mert ...
- ösztönzi az innovációt,
- növeli a piac méretét,
- segít elkerülni a szabályozási kockázatokat,
- és hosszú távon fenntarthatóbb növekedést biztosíthat,
akkor úgy tűnik, hogy sokkal közelebb áll a véleményünk.És ha a verseny végső soron jót tesz az nVidiának,
akkor az már nem "szopás".
Vagyis amikor ezt írtad korábban:> de te azt mondod, hogy egyreszt azert fog szopni az nv,
> mert a konkurencia is felno a feladathoz
> es kicsavarjak a kezebol a businesst, masreszt
> meg nagysagrenddel kevesebb koltsegen is lehet ezt csinalni,
> azert is szopni fog.
> ez a ketto egyszerre nem lehet igaz. Vagy van business az ai-ban, vagy nincs.
Akkor egyrészt: én biztos nem használtam a "szopás" szót.
Másrészt: a verseny nem szopás, hanem a piac természetes működése,
különösen egy olyan dinamikusan fejlődő területen, mint az AI.
Az, hogy valaki a versenyt támogatja,
nem jelenti azt, hogy az nVidia ellen lenne - épp ellenkezőleg, a verseny hosszú távon még az nVidiának is előnyös lehet.
---------------------
kapcsolódva ...
... egy economist cikk.
"Nvidia is in danger of losing its monopoly-like margins"
draft gépi fordítással:
"""
A Szilícium-völgyben közismert nézet, hogy egyetlen vállalatnak sincs nagyobb védelmi árka, mint az Nvidiának, amely a világ vezető mesterséges intelligencia (AI) chipbeszállítója. Ez igaz volt egészen január 27-ig, amikor egy DeepSeek nevű kínai vállalat – egy AI-modellt bemutatva, amelynek állítása szerint kevesebb mint 6 millió dollárba került a betanítása – közel 600 milliárd dolláros rést ütött a félvezetőóriás értékében, ami az amerikai tőzsde történetének legnagyobb egynapos vesztesége volt. Ezt tekinthetjük a 21. századi megfelelőjének egy trebuchet lövedékének, amely a középkorban képes volt kőfalakat romba dönteni. Vajon az Nvidia védelmi vonalát véglegesen áttörték?
A vállalat számára nem idegenek a tőzsdei kilengések, akár felfelé, akár lefelé. Az AI-kapcsolatú őrület több mint két éve alatt piaci értéke nemcsak meghaladta a 3 billió dollárt, hanem elszenvedte a tőzsde történetének tíz legnagyobb egynapos árfolyamzuhanásából nyolcat is. Ez egyfajta kötélhúzást tükröz két befektetői tábor között: az egyik hisz Jensen Huangban, az Nvidia bőrdzsekis rockstar vezérigazgatójában, és abban, hogy képes fenntartani a vállalat monopolprofitját a végtelenségig; míg a másik szerint a cég termékeinek és részvényeinek magas árai az AI körüli túlzott felhajtás jelei, és hamarosan csökkenni fognak.
Jelenleg a szkeptikusok állnak nyerésre. A DeepSeek képessége arra, hogy szinte ugyanolyan fejlett AI-modelleket hozzon létre, mint az amerikai élvonalbeli modellek, látszólag kevesebb és kevésbé fejlett grafikus processzorral (GPU-kkal), megkérdőjelezi azt a hiedelmet, hogy az AI-verseny megnyeréséhez dollármilliárdokat kell önteni a chipekbe. Az utóbbi hetekben olyan óriások, mint a Microsoft, a Meta, Elon Musk xAI nevű cége, valamint az OpenAI-t (a ChatGPT készítőjét) is magában foglaló Stargate nevű vegyesvállalat, mind hatalmas adatközpontok építését jelentették be, amelyek tele lesznek GPU-kkal. Azonban egy nagy Nvidia-ügyfél belső embere szerint a DeepSeek tanulsága az, hogy a modellek betanításához és futtatásához valószínűleg sokkal kevesebb számítási kapacitás is elegendő lehet. Ez rossz hír az Nvidia számára, amelynek legfejlettebb chipjei több mint 90%-os bruttó árrést biztosítanak – állítja Jeffrey Emanuel befektető, aki két nappal a piaci zuhanás előtt közzétett egy Nvidia ellen szóló előrejelzést.
A helyzetet tovább rontja a verseny erősödése a rivális chipgyártók részéről. Az Nvidia GPU-i szinte nélkülözhetetlenek a nagy nyelvi modellek (LLM-ek) betanításához. Az úgynevezett inferenciában – vagyis a modellek lekérdezésében – még mindig előnyt élvez, de egyre több vetélytársa akad. A Groq nevű startup például kifejezetten villámgyors inferenciára optimalizált chipeket tervez. Az Nvidia legnagyobb ügyfelei – a felhőóriások, mint az Amazon, a Google és a Microsoft – szintén saját chipeket fejlesztenek, hogy csökkentsék a GPU-któl való függőségüket. „A piacok gyűlölik az egyetlen forrásból származó beszállítói kényszert” – mondja egy felhőszolgáltató vezetője. Ráadásul a DeepSeek és az OpenAI legújabb „okoskodó” modelljei nem a betanítás során nyújtanak kiemelkedő teljesítményt, hanem az inferenciára fordított nagyobb számítási kapacitás révén (ezt nevezzük „tesztidőbeli számításnak”), ami a rivális chipgyártók malmára hajthatja a vizet.
És ott van a hype kérdése is. Mióta a ChatGPT 2022 végén elindította az AI-aranylázat, az Nvidia vált a végső „csákány és lapát” szereplővé ezen a piacon. Azonban, akárcsak az internet hőskorában, az AI-boom eddig inkább azon a hiten alapult, hogy mindent megváltoztat majd, mintsem konkrét bizonyítékokon, hogy valóban megtérülést hoz.
Sok befektető továbbra is optimista az AI chipóriásával kapcsolatban. Egyesek azt gyanítják, hogy a DeepSeek eltúlozta takarékosságát, hogy hazájának presztízst szerezzen Amerika felett, bár mások szerint állításai valósak lehetnek. Még ha a DeepSeek kevesebb erőteljes GPU-t is használt, egyes spekulációk szerint egyszerűen az amerikai modellek eredményeiből tanult, amelyeket a legmodernebb chipekkel építettek.
A DeepSeek sikere ugyanakkor arra késztetheti az amerikai riválisokat, hogy fokozzák AI-beruházásaikat – legalábbis egy időre. Az OpenAI, amely hatalmas GPU-kapacitást fogyaszt az AI-fejlesztés határainak feszegetésére, gyors válaszként „sokkal jobb modellek” kifejlesztését ígérte vezérigazgatója, Sam Altman.
A verseny tekintetében az Nvidia hívei elismerik, hogy a rivális chipgyártók fenyegetése valós, különösen az inferencia területén. Azonban az Nvidia vezető pozícióját tovább erősíti CUDA szoftvere, amely széles körben használt az AI fejlesztésében, valamint a hálózati berendezések, amelyek lehetővé teszik chipei összekapcsolását az adatközpontok maximális hatékonysága érdekében. „Az árka nagyon széles. Ez egy rendszerépítő vállalat, nem pusztán egy chipgyártó” – mondja Umesh Padval, a Thomvest befektetési cég képviselője.
Összességében az Nvidia piaci részesedése és árrése csökkenésre van ítélve, talán gyorsabban is, mint ahogy a befektetők a DeepSeek megjelenése előtt gondolták. Ennek ellenére továbbra is bőven van esély arra, hogy meghatározó szereplő maradjon, ami magyarázatot adhat arra, miért pattant vissza a részvényárfolyama több mint 8%-kal január 28-án. És még mindig ott van az ismeretlen tényező: vajon Jensen Huang valóban az a látnok, akinek csodálói tartják?
Daniel Newman, a Futurum kutatócég szakértője szerint az Nvidia vezérigazgatója mindig arra törekszik, hogy egy lépéssel a versenytársak előtt járjon. Már most az LLM-ek utáni korszakra tekint, amelyeket a kommodifikáció veszélye fenyeget, és nemrégiben vázolta fel terveit az úgynevezett „fizikai AI” fejlesztésére. Ez alatt azt érti, hogy az alapmodellek számára infrastruktúrát biztosít, amely érti a valós világot, hogy emberi jellegű robotokat, önvezető autókat és hasonló technológiákat hozzon létre. Az Nvidia ostrom alatt áll, de még túl korai lenne leírni.
""" -
S_x96x_S
addikt
> de te azt mondod, hogy egyreszt azert fog szopni az nv,
> mert a konkurencia is felno a feladathoz
> es kicsavarjak a kezebol a businesst, masreszt
> meg nagysagrenddel kevesebb koltsegen is lehet ezt csinalni,
> azert is szopni fog.
> ez a ketto egyszerre nem lehet igaz. Vagy van business az ai-ban, vagy nincs.Úgy tűnik, hogy már abban sem értünk egyet,
hogy
- az nVidia részvényei túlárazottak-e vagy sem,
- vagy hogy az nVidia GPU-i túlárazottak-e vagy sem.
Ha a piac korrekciójának lehetőségéből
az jött le, hogy "az nV szopni fog",
akkor félreérthetően fogalmaztam.
Nem ez volt a célom.
-------------------
A részvényárak korrekciója teljesen természetes folyamat egy versenypiacon.
Ez nem "szopás", hanem a kapitalizmus működési mechanizmusa - és ha valaki ismeri a tőzsdei ciklusokat, akkor ez nem meglepő.
A nagyobb verseny és az innováció összességében minden szereplő számára előnyös - beleértve az ügyfeleket ( consumer GPU ) , a fejlesztőket és az iparági ökoszisztémát.
Igaz, hogy az nVidia jelenlegi AI-piaci monopóliuma gyengülhet,
de ettől még a cég vezető szerepe nem feltétlenül vész el,
csak az eddiginél több erőfeszítést kell tennie annak megőrzésére.
A nagyobb verseny nem egyenlő azzal, hogy "az nVidia szopni fog", hacsak:
az nVidia nem akar versenyezni, vagy egyes szereplők nem érdekeltek a versenyben.
A Deepseek-hatás hosszú távon érvényesülhet - ha egyáltalán érvényesül.
Például valószínű, hogy több startup kap majd finanszírozást alternatív AI-hardware fejlesztésekre.
Rövid távon viszont az nVidia akár még profitálhat is a helyzetből,
mert egy élénkülő AI-piac több hardvert igényel,
és egyelőre ők rendelkeznek az iparági szabványként működő CUDA-ökoszisztémával.
> ez a ketto egyszerre nem lehet igaz. Vagy van business az ai-ban, vagy nincs.Nem teljesen értem ezt az állítást.
Az AI-piac mérete és szerkezete változhat, attól még maga a piac létezik.
Például a szerverpiacon:
- Az IBM egykor domináns szereplő volt, de a verseny és a szabályozás miatt az x86-architektúra vette át a vezetést.
- Az Intel sokáig dominált, majd megjelent az AMD és az ARM, és most már a RISC-V is kezd belépni.
- A piac egészében nőtt, de az egykori domináns szereplők veszítettek az árrésükből és piaci részesedésükből.
Vagyis én a monopólium vs. verseny perspektívából közelítem meg a témát.
És ha így nézed, akkor a nagyobb verseny nem "szopás",
hanem egy teljesen normális piaci dinamika.
Aki monopóliumot akar fenntartani, annak ez persze kihívás,
de a technológiai fejlődés és az iparági szereplők számára összességében
ez egy jobb és egészségesebb ökoszisztémát eredményez.
A Deepseek-hatás kibillentette az AI-jövőről alkotott jelenlegi elképzeléseket az eddigi egyensúlyi helyzetükből - és egyelőre nem lehet pontosan megjósolni, milyen közvetett következményei lesznek.
És az ebből fakadó új bizonytalanságot pedig már most is sokan érzékelik.
És elnézést, ha eddig nem teljesen így jött át a mondandóm - nem mindig sikerül elsőre kristálytisztán megfogalmazni a véleményemet.
-
S_x96x_S
addikt
Nem tudlak követni ...
ezeket amúgy olvastad?
- https://stratechery.com/2025/deepseek-faq/
- https://www.semiaccurate.com/2025/01/28/did-deepseek-or-microsoft-pop-the-ai-bubble/ -
S_x96x_S
addikt
(deepseek)
találgatni nem akarok;
és pár év múlva úgyis kiderül, hogy merre és hogyan mozog az AI piac.
talk is cheap ..
aki komolyan gondolja az fogadjon a tőzsdén ( skin in the game )újabb fejlemény:
Az Anthropic vezetője - magyarázkodik ( a befektetőinek)
és a még szigorúbb kínai exportkorlátozás mellett érvel.
https://darioamodei.com/on-deepseek-and-export-controlsÉS Trump - most már a tajvani elektronikai termelésre is VÁM-ot vetne ki.
és ha beváltja,
akkor masszív áremelkedést fog kiváltani még a Gaming GPU -nál is.
És mivel a gyártósorok USA-ba történő áttelepítésének a költségét - szokás szerint világszerte teritik, emiatt az áremelkedés az EU-s árakba is begyűrűzik.És az exportkorlátozás további szigorításának belengetése
megint kihat a tőzsdei árakra."Újabb korlátozásokkal sújthatja az Nvidiát az Egyesült Államok"
https://www.portfolio.hu/uzlet/20250129/ujabb-korlatozasokkal-sujthatja-az-nvidiat-az-egyesult-allamok-737871""""
A Bloomberg információi szerint az amerikai kormányzat vizsgálja
az Nvidia H20 chipjeinek Kínába irányuló exportjának további szigorítását.
Ezek a chipek kulcsfontosságúak
a mesterséges intelligencia szoftverek fejlesztésében és működtetésében,
és eredetileg úgy tervezték őket, hogy megfeleljenek
a Joe Biden kormányzata által bevezetett jelenlegi exportkorlátozásoknak.
A jelentésben hangsúlyozzák, hogy a tárgyalások még nagyon korai szakaszban vannak. Az esetleges új korlátozások célja, hogy tovább szűkítsék Kína hozzáférését a fejlett AI technológiákhoz, ami összhangban áll az Egyesült Államok nemzetbiztonsági stratégiájával.
Az Nvidia, amely a világ vezető AI chip gyártója, közleményben reagált a hírekre.
''Készen állunk együttműködni a kormányzattal, amely a saját megközelítését követi a mesterséges intelligenciával kapcsolatban''
- írta a vállalat.
A hír hatására az Nvidia részvényei, amelyek már a nap folyamán is csökkenést mutattak, további veszteségeket könyveltek el, és jelenleg 5,8 százalékos mínuszban vannak.
""""Vagyis a Deepseek hatás ---> további AI export szigorítást vált ki ---> aminek következményeképp az NVIDIA ( és az AMD ) nem tud értékesíteni a kínai piacon,
--> és ez áttételesen lehetővé teszi egy vagy több Kínai versenytárs felemelkedését ( ~ Huawei Ascend ) -
S_x96x_S
addikt
( AI & Nvidia & Deepseek hatás )
talán az Apple vonal behozása nem volt szerencsés részemről,
mert félre vitte a mondanivalómat.
de visszatérve egy sokkal korábbi megjegyzésedre:
> Tobb memoriat tobb penzert fognak adni, nemigen csokken tole a profitjuk.
talán Charlie Demerjian - vélemény cikke[1] jobban megfogalmazza azt,
amit nekem eddig nem sikerült érthetően - vagyis :
Ha az Nvidia AI monopóliuma megtörik, akkor már nem tudja az árakat korlátlanul meghatározni, és az AI-piac teljesen átalakulhat.
------------
[1]
"Did DeepSeek Or Microsoft Pop The AI Bubble?
Opinion: What is done can’t be undone"
Jan 28, 2025 by Charlie Demerjian
https://www.semiaccurate.com/2025/01/28/did-deepseek-or-microsoft-pop-the-ai-bubble/
( eredetiben érdemes elolvasni a teljes véleménycikket)-- draft gépi fordítással --
"""
.... A felhasználók lassan rájönnek az ‘AI’ valódi költségeire, és ez egyre nagyobb ellenállást szül – ez az első tűszúrás az AI-lufiban. A második az, amit a DeepSeek tett az Nvidiával – vagy legalábbis az Nvidia részvényárfolyamával. Talán emlékszel, hogy a DeepSeek azt állítja, hogy elérte az OpenAI és más nagy AI-cégek szintjét, plusz-mínusz egy kicsit. Ez önmagában nem lenne akkora hír, de az igazi robbanás az, hogy mindezt nagyságrendekkel kisebb költséggel érték el, mint a nagyok. Ráadásul régebbi hardveren. Ráadásul rövidebb idő alatt.
Persze, azt mondják, hogy szükségük van modernebb hardverre a következő szint eléréséhez, és a SemiAccurate ezt el is hiszi. Hogy végül megkapják-e ezt a hardvert, az mellékes, a lényeg az, hogy mit értek el egy látszólag minimális költségvetéssel. Tudjuk, hogy lehetnek buktatók – lehet ez egy ügyes marketingfogás vagy akár mások munkájának továbbfejlesztése –, de nem ez a lényeg. Bármilyen számokat is rendelsz az ő költségeikhez és az időigényükhöz, egy dolog világos: a DeepSeek azt csinálta meg, amit a nagy AI-cégek, de töredéknyi erőforrással.
Miért robbantja ez ki a lufit? Az Nvidia eddig megdönthetetlen volt az AI területén. Az AMD hosszú évek próbálkozása után végre komoly kihívó lett, az Intel pedig teljesen elveszett, és maga sem érti, miért. Van pár startup is, de egyik sem az Nvidia ligájában játszott. És senki – sem belül, sem kívül, sem a Wall Streeten – nem gondolta, hogy az Nvidiának bármilyen félnivalója van.
A legyőzhetetlenségnek van egy nagy előnye: az Nvidia részvényei az egekben vannak. Hogy túlárazottak-e? Ezt igazán ki kell fejtenem? Az Nvidia monopolhelyzetben van, visszaél a hatalmával, és teljesen a kínálati korlátai határozzák meg az árait. Ami egykor egy 500 dolláros grafikus kártya volt, az most egy 40 000 dolláros AI-kártya. Ha pedig tényleg akarsz egyet, akkor valószínűleg egy teljes szervert kell vásárolnod, több GPU-val, sokszoros áron. Vagy várhatsz egy évet.
Az Nvidia részvényei azért nőttek, mert nem volt komoly kihívó. Egészen a DeepSeekig. Ha ők meg tudták csinálni, más is meg tudja. A DeepSeek lehet, hogy elbukik, lehet, hogy koronát szerez, de nem ez a lényeg. Az a lényeg, hogy megtörtént. Két hete még elképzelhetetlen volt, hogy egy új AI-modellt racknyi, milliós szerverek nélkül lehessen betanítani. Most már nem az.
És mi jön ezután? Az AI-integráció költségei egyértelműek: 30% felár, ha Office-t használsz, nincs menekvés. A felhasználók nem akarják, és nem akarnak érte fizetni. A Microsoft hatalmas AI-befektetéseit pedig valakinek ki kell fizetnie, az a valaki pedig te vagy. Az AI-háttérrendszerek iránti kereslet sem erős, és eddig úgy tűnt, hogy mindenkinek az Nvidia hardverén kell ezt megoldania – óriási költséggel. De már nem.
Eltart egy ideig, míg az árak igazodnak, de mostantól az Nvidia nélküli AI-megoldások hirtelen elkezdenek érdeklődést kiváltani. Ez az a pont, ahol minden elkezdődik. A legtöbb startup el fog bukni, de néhány túléli, és alapjaiban változtatja meg a piacot. Két hete ez még lehetetlen volt. Ma már valóság. Az AI fejlődik tovább – akkor is, ha a felhasználók nem kérik –, de a hype-lufi kipukkadt, és a költségek most már mindenkit érintenek.
"""" -
A.Winston
tag
Tovabbra is mubalhe szaga van szerintem is..
Valoszinu probalnak egy jo reszveny vasarlas belepesi pontot kicsikarni csak.
Jott egy jo model kevesebb eroforras igennyel, na es akkor?
Tessek ossze kapni magat mindenkinek, hogy jobb hardeveren megjobbakat csinaljanak!
Nem tudom ki mit hitt, hogy majd itt szepen befagyastlztjak a fejlodest par export korlatozassal.. -
S_x96x_S
addikt
> Nem tudom mire gondolsz
erre a részre gondolok a https://stratechery.com/2025/deepseek-faq/ -ból.
"""
At a minimum DeepSeek’s efficiency and broad availability cast significant doubt on the most optimistic Nvidia growth story, at least in the near term. The payoffs from both model and infrastructure optimization also suggest there are significant gains to be had from exploring alternative approaches to inference in particular. For example, it might be much more plausible to run inference on a standalone AMD GPU, completely sidestepping AMD’s inferior chip-to-chip communications capability. Reasoning models also increase the payoff for inference-only chips that are even more specialized than Nvidia’s GPUs.In short, Nvidia isn’t going anywhere; the Nvidia stock, however, is suddenly facing a lot more uncertainty that hasn’t been priced in. And that, by extension, is going to drag everyone down.
"""> Tobb memoriat tobb penzert fognak adni,
> nemigen csokken tole a profitjuk.Ha van alternativa, akkor a kereslet és az eladott mennyiség is kevesebb lesz,
ami kihat a profitra.> 192 GB-os mac $5600, de az egy sokkal lassabb rendszer,
a memória sebessége az relative jó.
Performance of llama.cpp on Apple Silicon M-series
- az M2 Ultra csak 800 Gb/s -et tud.
- de az idén várható: M4 Ultra - 1092 Gb/s memory bandwith -el már pariban lesz az RTX 4090 (1008 GB/s) -elés az Apple intenziven dolgozik az M5 -ön is.
https://x.com/mingchikuo/status/1871185666362745227
"2. The M5 Pro, Max, and Ultra will utilize server-grade SoIC packaging. Apple will use 2.5D packaging called SoIC-mH (molding horizontal) to improve production yields and thermal performance, featuring separate CPU and GPU designs.
3. Apple’s PCC infrastructure build-out will accelerate after the mass production of the high-end M5 chips, better suited for AI inferencing." -
S_x96x_S
addikt
> tehat tobb chip kell.
ami az új innovációk általános elterjedése után nem csak nVidia GPU lehet.
( vagyis a Huawei Ascend és az AMD chipjei is kapnak esélyt )> Addig van az Apple-nek nagyobb memoriaja,
> amig az nvidia ugy nem hataroz, hogy nekik is fel kell pakolni meg.tegye; de ezzel az nVidia profitja csökken.
Amúgy lesz az nvidiának - DIGITS -e. ( 128 GB VRAM -al - május körül )
~ 3000 USD -ért.
edit:
( több chip )
Amúgy a Deepseek-et nem csak nVidia vagy Apple gépeken lehet futtatni,
https://github.com/deepseek-ai/DeepSeek-V3
hanem még
- AMD GPU: Enables running the DeepSeek-V3 model on AMD GPUs via SGLang in both BF16 and FP8 modes.
- Huawei Ascend NPU: Supports running DeepSeek-V3 on Huawei Ascend devices.
És a nem nVidia lehetőségek listája tovább nő. -
maross
nagyúr
A baj csak az, hogy a regi szep idokben kijott az uj szeria, es rogton tobb nyers erot kaptal a penzedert, aminek kovetkezteben bezuhant a regi szeria ara. Most meg kapod a fake framet, es tobb penzert tobb teljesitmenyt, ugyhogy maradhatsz a regi kartyadnal. Ha 200k-val tobb penzt akarna kolteni az ember videokartyara, akkor megtehette volna 2 eve is, es szinte ugyanott lenne. Csalodas.
Ja es bonusznak, amin tegnap hangosan felrohogtem, "'MSRP feels like charity'"
-
Hellwhatever
aktív tag
Arra gondoltam hogy ~10 éves hardverek támogatása miatt bevállalni handicap-et a mostani (ráadásul igencsak borsos árú) generációban nem tűnik túl jó üzletnek.
Az hogy a hardver még működik nem alap arra hogy support is legyen rá. Tonna szám vannak még működő hardverek a 90-es és a 2000-res évekből mégis elfogadott hogy nincs már rájuk aktív support. Nálam is van még működő Fermi-s noti. Valahol egyszerűen muszáj meghúzni egy határt különben túl nagyot kell markolni.
Személy szerint 4-5 évben maximalizálnám mainline supportot és így már az RTX 20 is kiesne.Itt a kérdés az hogy a Maxwell és Pascal tulajok közül mennyien igénylik és tudják még kihasználni valóban a mainline supportot. Szerintem elenyésző a számuk.
-
Abu85
HÁZIGAZDA
[link] - ez a lényeg. Ez már nem a klasszikus értelemben vett GPU, hanem egy olyan formája, ami már egyszerűbben programozható.
Mindenki, aki heterogén memóriamenedzsmentet biztosít, nem ért egyet azzal, hogy hagyományosan kell bekötni a GPU-t. Jelen pillanatban az AMD sem, az NVIDIA sem, és később az Intel sem fog, csak ők még nincsenek kész a saját megoldásukkal.
A hogyan egyébként lehet sokféle, nyilván az MI300A hardverkiépítése más, mint a GH200 Superchipé, de az elvi háttere, hogy miért csinálják ezt, ugyanaz. És ha ez nem lenne fontos, még ma is PCI Express sávokon lenne nem koherens módon bekötve a GPU.
-
Abu85
HÁZIGAZDA
Ez tök jó, csak ha rád építenék a stratégiát, akkor éhen halnának a cégek. A tömegpiacra kell stratégiát építeni, és ott bizony most a Cray EX255a és a Cray EX254n megy. Amik már nem klasszikus dedikált GPU-s rendszerek. Ha ilyenre volna igény, nem a Cray EX255a és a Cray EX254n menne az új gépekbe. Az tehát teljesen mindegy, hogy te mit gondolsz erről, se a piac, se az AMD, se az NVIDIA, de még az Intel sem ért veled egyet, mert ha egyetértenének, akkor nem olyan jellegű rendszerek készültek volna el, vagy készülnének a jövőben, mint az MI300A, GH200, stb.
-
Szerintem jól írtad, Ez nem APu, azért is hívja az Nvidia a superchipnek. Igazából a HBM3 hozza közös csatronára a lassú CPU és a nagy sávszéligényű GPU egybe csatolását és az Nvlinkkel de tulajdonképpen ahogy írtad ez egy öszvér megoldás jól le tudja kezelni a szar kódolást.
Valószínűleg, hogy rugalmasan mósosítható az egyedi igényeknek akár szoftverezettség akár hardver ha az Nvidia úgy gondolja. Valószínűleg ez a legnagyobb előnye,de lehet nem jól látom. Anno megnéztem a [link] developer bemutatót és ott ezt emeték ki. -
Abu85
HÁZIGAZDA
Itt leginkább az számít, hogy a memóriát hogyan látják ezek a részegységek. Egy MI300A például látja a teljes memóriát a tokozáson. Az XCD és a CCD is. Nem véletlen, hogy a Cray EX255a akkorát tarolt a mostani top500-ban. A Grace Hopper Superchip nem ennyire szofisztikált, de annyira gyors a két lapka közötti összeköttetés, hogy sokkal kedvezőbben lehet alkalmazni bizonyos optimalizálásokat, mint hagyományos host CPU + dedikált GPU struktúrával. És itt a kulcs, hogy megteheted azt, hogy kihagyod az adatmásolással járó bonyolult kódot. De egyébként hosszabb távon az NV is arra fog menni, hogy egy tokozáson legyen ez ugyanolyan memóriatípussal. És akkor ott már nem sok különbség lesz a manuális másolós és a "csak úgy out of box működik" megközelítés között. Az MI300A-t konkrétan ez adja el, hogy csak úgy out of box is működik gyorsan.
#45788 lenox : És ezt jól látják az NV-nél. Egyrészt van az, hogy ha szarráoptimalizálod a sebességre, akkor jó az a megoldás, amit alkalmaznak, de a piac nem akar szarráoptimalizálni. Írni akarnak egy viszonylag egyszerű kódot, és inkább vesznek több hadvert, hogy jöjjön a sebesség. A Cray EX255a pont ezzel szakít nagyot a kasszáknál, hogy erre a ne is foglalkozzál vele szemléletre dolgozik. Lehetne jól csinálni más dizájnokkal? Hogyne lehetne, de a piacot inkább érdekli az egyszerűbb kód lehetősége. És erre egyébként a HPE tudatosan dolgozik a marketingben, az a selling point, hogy egyszerűbben programozható. Csinálhatnák azt is, hogy gyerekek akkora teljesítmény van benne, hogy pasztmek, de nem, arra épül a marketing, hogy egy csomó kódot meg sem kell írni, mert csak a hardver out of box elvégzi.
-
S_x96x_S
addikt
Jó felvetés
Lehet érvelni ellene és mellette is.Mindhárom gyártó ( AMD, nVidia, Intel ) folyamatosan közelít az ideális integrációs szint felé de eltérnek a megközelítés módjai. És bár az AMD előrébb jár az integráció terén, de az NVIDIA és Intel is jelentős erőforrásokat fordít a fejlesztésre.
> Ez apu lenne, kulon cpu es gpu memoriaval?
Jelenleg még amolyan köztes állapot van, ( ~ félig üres - félig teli )
de az egységes programozási modell - az egyre tökéletesebb integráció felé mutat."Simplifying GPU Programming for HPC with NVIDIA Grace Hopper Superchip"
https://developer.nvidia.com/blog/simplifying-gpu-programming-for-hpc-with-the-nvidia-grace-hopper-superchip/"The new hardware developments in NVIDIA Grace Hopper Superchip systems enable some dramatic changes to the way developers approach GPU programming. Most notably, the bidirectional, high-bandwidth, and cache-coherent connection between CPU and GPU memory means that the user can develop their application for both processors while using a single, unified address space.
Each processor retains its own physical memory that is designed with the bandwidth, latency, and capacity characteristics that are matched to the workloads most suited for each processor. Code written for existing discrete-memory GPU systems will continue to run performantly without modification for the new NVIDIA Grace Hopper architecture.
Our recent post, Simplifying GPU Application Development with Heterogeneous Memory Management, details some of the benefits that a single-address space brings to developers and how it works on systems with NVIDIA GPUs connected to x86_64 CPUs through PCIe. All application threads (GPU or CPU) can directly access all of the application’s system allocated memory, removing the need to copy data between processors.
...Future developments in the driver, CUDA software stack, and the NVIDIA HPC compilers are expected to remove even more restrictions on the way that users write their code, and to improve the performance of the resulting applications.
" -
Abu85
HÁZIGAZDA
Ez koncepcionálisan hasonló elvű, mint például az Instinct MI300A. Csak nem annyira arányos, meg nincs egy tokozáson, de a működési elve hasonló.
Ha megnézed az új top500-at, akkor az újonnan telepített gépekben is ez a két dizájn most a kedvelt, nyilván nem véletlenül. Óriási haszna van a memóriakoherenciának. Az mindegy, hogy különálló fizikailag a memóriachip, az összeköttetés a lapkák között ezt a gondot megoldja.
-
-
yarsley
aktív tag
Nem akarok bele menni mert nagyon off topic, de biztos vagyok benne hogy nem tudnál 3-4 dolognál többet felsorolni aminek lement az ára szocializmusban, illetve aminek lement annak nagy része szolgáltatás volt. Kapitalizmus meg egy raklap terméket elérhetővé tett a tömegek számára...
Más kérdés hogy mikor nincs egészséges verseny, hanem monopolisztikus a piac, vagy kartelleznek a gyártók akkor a kapitalizmus se jobb. -
Teszteket várjuk meg, nehezen tudnám elképzelni hogy gyorsabb lenne. Azaz azt kellene megtudni hogy maga a 4070 az memória sávszél limites-e egyáltalán, mondjuk előző genhez képest kevesebb jut neki az tény.
Akár hogy is ha akár mi eltérés van, akkor illik más nevén nevezni. -
Teasüti
nagyúr
Elmondták a videóban: állítólag natív HDR játékokkal tréningeztek. Ott ugye az alkotói szándéknak megfelelő tartalom kerül renderelésre (jelentsen ez akármit is Windows esetén, ahol a HDR támogatás külön vicc).
SDR-HDR-t hogyan konvertálsz? Bedobod Davinci-be grade-elni vagy vmi pár kattintásos trükköd van? -
Teasüti
nagyúr
Ha csak a videós tapasztalatokból indulok ki, hogy mennyi munka van egy jó grade-ben, akkor azért nem lehet annyival elintézni, hogy ráhúzunk egy tone mapping-get és kész.
Komoly meló még grading során is elkülöníteni a kiégést a valódi highlight-tól.
Meg aztán highlight és highlight között is van különbség a készítő szándéka szerint.
Pl egy napos ég az mehet max nit-re, meg úgy általában a nap okozta csillanások és fényforrások. De pl. animében a karakterek szeme fehérje (ami közel van a fehérhez, de azért még nem highlight) ne világítson már... Játékban meg ugye a relatív fényes területek se verjék ki az ember szemét, csak az az 1-5% highlight.
Mivel profi grader nem fog ott ülni az ember mellett, aki valós időben tologatja a csúszkákat és maszkol, ezért marad vmilyen AI becslés. Nincs ezzel baj. -
Talán valami van benne,mert eltér minden eddigi megoldástól ,lanczos alapú.Itt a reddiit szál ahol kalibrátorral[link]
Az MS megoldása működik mindenen,de gyakorlatilag felborít mindent.Persze amúgy nem tudom én sem biztosan,de már a 4.generáció RTX van piacon,annyira nem lényeges sztem már ez. -
Volt nálam egy Tesla P4 az single slot és egy darab 8cm-es silent ventivel is elment szépen egy slotos gyári pici bordájával. 70w-ot nincs is sok értelme jobban hűteni. igazából akár milyen random silent venti elég ezekre. A P4-es az ilyen 30eft körül ment, több is volt, vennék T4-et is ha lenne ilyen 40-50 körül de valamiért eszement árai vannak. Majd pár év múlva remélem ezeket is viszont látjuk apróért.
-
-
Raymond
titán
"Vagy az lehet meg, hogy egyaltalan nincs sajat off-chip memoriaja"
Nincs, ezt irja a white paper hogy azzal a weight streaming metodussal nem kell mert minden fantasztikus. A 3.5 reszben van az osszefoglalo es az 5.3 reszben irjak hogy mennyi a bandwidth requirement az egyes modelleknel.
-
lenox
veterán
Na lattam, van MemoryX service, meg SwarmX service, de nem talaltam konkret specifikaciot, csak hogy nagyon gyors. 900000 core, core-onkent 48kB mem, de akkor egy core-nak csak 23.3 GB/sec bandiwdth-e van, az nem is sok on-chip bandwidth-bol, tehat gondolom ezek eleg egyszeru core-ok.
-
Raymond
titán
Na ja, ha kifutsz a dedikalt VRAM-bol akkor aranytalanul belassul, ahogy neztem szinte mindegy hogy mondjuk 32 layer-bol 5 vagy 10 vagy a fele nem fer bele, a sebesseg kb. ugyanannyi lesz a CPU fallback miatt. Marmint gyorsabb mint csak a CPU-n, de messze elmaradva attol amit a GPU-val a VRAM-bol produkal.
-
De az, AD100 az a nagy Ampere.
Ada nem volt bányászba még úgy tudom ennek megfelelően olcsó sincs belőle. Olcsón most teslákból is a pascal megy best buyként, p40-es a 24gb ramja miatt jó. Meg a bányászkarik még olcsók de van velük munka.
Néznem kell mi éri meg, ezek ilyen fun projektre jók mert semmi támogatás nincs, reszelni kell a drivereket is.
Játszani kis modellekkel teljesen jók.Nekem a 100hx lesz ami nincs techpowerupon fent. Az volta gv100.
De 170hx a csúcs bányászokból az ampere.
-
A GV100-as bányászmegfelelője lesz de 12gb vrammal. Lásd [link] hsz felső kép.
LLM valak olyan modellel ami belefér és stable diffusion lenne. Sajnos az eredeti TitanV és GV100 horror áron van így marad a barkács verzió. (50eft + áfa darabja ami jó ha közel teljes értékű lesz)
Egyedi hűtés is épül hozzá.
Amúgy őszintén a 170HX lenne a csúcs (AD100) ha fel lehetne oldani limitációit. Lassacskán sikerül. https://github.com/dartraiden/NVIDIA-patcher/issues/73
De azért a jelenlegi ára még így is sok (kb 200-220eft), felét még adnám is érte ha tudnám hogy ki lehet iktatni közel minden nvidia limitet. Meg persze ott is ram unlock az ami javítana rajta.Raymond
Ramsávszél biztos jó nagy, a cryptohoz az kellett és azt az egyet nem nyesték jeletősen. De majd kiderül mennyi. Meg ugye mennyit lehet még pluszba használni.A 170-esnél is ott van fizikailag 6db HBM2e, ez van 8Gb-ra limitálva.

Amennyiben ez unlockholható 32-48...GB-ra akkor talán a 200+eft is ár is reális lenne.
Elszomorító hogy ott van a tudás bezárva...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- PowerColor 9070 XT Hellhound Spectral White OC 16GB - Garancia 2028.05.28 - BESZÁMÍTÁS
- 27% - GIGABYTE RTX 3080 Ti OC 12GB GDDR6X GAMING Videokártya! BeszámítOK
- RTX 5000-ES SZÉRIA ÚJONNAN GARANCIÁLIS ELADÓ TERMÉKEK! 5050, 5060, 5070, 5080, 5090.
- GIGABYTE GeForce RTX EAGLE 3090 24G OC GDDR6X 384bit (GV-N3090EAGLE OC-24GD)
- EVGA FTW3 ULTRA RTX 3080 Ti 12GB GDDR6X Videokártya!
- GYÖNYÖRŰ iPhone 13 Pro 256GB Sierra Blue - 1 ÉV GARANCIA, Kártyafüggetlen, 100% Akkumulátor,MS3409
- Samsung Galaxy S24 / 8/128GB / Kártyafüggetlen / 12 Hó Garancia
- BESZÁMÍTÁS! Asrock B450M R7 3700X 16GB DDR4 512GB SSD RTX 2070 Super 8GB GameMax Aero Mini ECO 600W
- Új Dell 5330 Latitude 13.3 FHD IPS Touch i5-1235U 4.4Ghz 16GB 512GB Intel Iris XE Win11 Pro Garancia
- Bomba ár! Lenovo ThinkPad L480 - i5-8GEN I 8GB I 256GB SSD I 14" FHD I HDMI I Cam I W11 I Gari!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő





HBM memóriával természetesen...nvlinkel mindennel.



Ezek most hogy jönnek ide?


