- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Nem lett arányos a fogyókúra
- Xiaomi 14T - nem baj, hogy nem Pro
- Motorola Razr 60 Ultra - ez a kagyló könnyen megfő
- Apple iPhone 16 Pro - rutinvizsga
- iPhone topik
- Az Oppo Find X8 Ultra lett a legvékonyabb kameramobil
- Apple Watch
- Honor Magic7 Pro - kifinomult, költséges képalkotás
- Íme az új Android Auto!
Új hozzászólás Aktív témák
-
Callisto
őstag
válasz
Petykemano #45740 üzenetére
Igen. Ha az a fogyasztás igaz lenne, akkor éppen hogy nem lett hatékony
(De akkor egyik kártya sem az.)
-
gejala
őstag
válasz
Petykemano #45678 üzenetére
Azért szomorú belegondolni, hogy a mostani 10700K-m az utolsó olyan felsőkategóriás CPU, amit egy normál léghűtővel simán 75 fok alatt lehet tartani. Beleértve a másik oldalt is, ott a 3700X ugyanez.
-
gejala
őstag
válasz
Petykemano #45676 üzenetére
Nem mondtam, hogy Intel jobb, csak hogy AMD is ugyanolyan forrófejű, miközben jobb gyártástechnológián van és még lassabb is.
-
válasz
Petykemano #45669 üzenetére
Az Applet és Nvidiát sehogy nem érinti, GPU-k tekintetében sem. írja is a cikk .Külön hosszútávú megállapodásuk van rá.( 20 év ha jól tudom)
-
válasz
Petykemano #45656 üzenetére
Alapvetés, hogy a GPU tesztekben kilőjék a CPU bottlenecket, ezért az elérhető legerősebb konfigra érdemes váltani 2-3 évenként. Komoly weboldalak gondolom ilyenkor azért újramérik a korábbi kártyák egy részét, hogy legyen az összehasonlításhoz adat azonos alapokon.
Természtesen van létjogosultsága a mainstream CPU-k bevetésének, leginkább CPU skálázódás tesztben. Talán a Hardware Unboxed szokott olyan tesztet csinálni, ahol 3-4 VGA kategória van letesztelve 3-4 CPU kategóriával.
-
paprobert
őstag
válasz
Petykemano #45589 üzenetére
Nem ártana a gyorsabb ciklus, de szerintem azért annyira nincsenek elengedve erőforrásokkal.
#45591 PuMbA
Ugyanezt mondtam én is. Kb. ott nyitott az XeSS mint a DLSS 2.0 2 éve, de a DLSS-t azóta tovább hegyezték már.#45594 Yutani
Ez a viselkedés pont az, mint amit a GCN-nél, Ampere-nél láttunk. Feldolgozószám bőven van, a memória-sávszélesség is kellemes, emiatt a nagyobb felbontáson nem esik be a teljesítmény.
A 6000-res RDNA generáció ennek pedig a fordítottja. Vágott busz, patikamérlegen adott CU szám nagy órajelen, elfogyó infinity cache nagy felbontáson. Egyszerűen egy adott szegmensben kevésbé "szélesek" a piros kártyák ahhoz, hogy ugyanolyan jól kezeljék a magas felbontást, mint az alacsonyat.#45596 Busterftw
"Viszont az elonyt is meg kell emliteni, mert ugyan nem fut tokeletesen, viszont ezzel megorizhetoek a regebbi jatekok tamogatasa es a kompatibilitas."
A legjobban azzal lenne megőrizhető, ha írtak volna egy jól működő DX11 drivert.
Támogatás van, de egyelőre nem jó, mert változatosan rosszul futnak a címek. Ha valamivel lassabban, de konstansan, kiegyensúlyozottan működne a teljes DX9-11 palettán, azt mondanám hogy elmegy mint olcsó megoldás. De nem ez a helyzet. Nézd meg Linusék tegnapi livestream-jét, egy Halo:Reach 25-35 fps-sel száguld 1080p-ben... -
Egon
nagyúr
válasz
Petykemano #45580 üzenetére
Támogatom az ársapkát, de elég csak az nV termékekre, az AMD tőlem lehet drága...
Legyen mondjuk 1000 dollár, az x90Ti Ultra OC verziókra, a többi értelemszerűen olcsóbb...Jah, és legyen a dollárra is ársapka...
-
válasz
Petykemano #45589 üzenetére
Azt azert halkan jegyezzuk meg, hogy nem a fejlesztesi ciklus 2 eves, hanem a termek kiadasi ciklus
-
zsid
senior tag
válasz
Petykemano #45578 üzenetére
Az A380 után azért nagyjából várható volt mennyire lesz sima az A770 útja a játékokban.
Viszont amiről egyelőre még kevés tesztben esett szó az a többi, játékokon túli felhasználási lehetőség: render, videóvágás, akármi vagy bármi. EposVox fog még csinálni részletes tesztet az enkóderről, de pár "szintetikus" mérést már bedobott a tesztbe: [link] . Ezekben nem szerepel olyan rosszul a kártya, mint a játékokban. Nálunk a legolcsóbb 8GB-os Quadro ( RTX4000 ) az durván háromszor annyiba kerül, mint az A770 nyitóára. Ha jobb drivert sikerülne összehozniuk akkor az OEM-eknél akár kelendő is lehet munkaállomásokba és az a piac sem kicsi. Ilyen teljesítménnyel a gamer piacon az tuti bukás lesz, de a másik üzletág szerintem annyira életben tudná tartani a fejlesztést, hogy legyen folytatás. Két-három generáció alatt csak sikerül annyira optimalizálniuk, hogy elfogadható középkategóriás kártyát tegyenek le a gamer piacra is.
-
PuMbA
titán
válasz
Petykemano #45577 üzenetére
Azért Ray-tracing alatt simán megverték a 1080Ti-t, mert a Cyberpunk-ban RTX3060 szintet hoz. Az AMD-t meg a földbe döngölték, mert majdnem kétszer gyorsabb az A750 a 6650XT-nél. A rossz dolog tényleg az, hogy régi játékokra nem jó, így aki olyanokkal játszik annak....
-
válasz
Petykemano #45578 üzenetére
Nem lesz olcsó az AMD sem, mert ha igen, akkor a fejekben újra előjön az olcsó = sz@r képlet. Így is küzd az AMD a vevők rossz beidegződésével.
-
Petykemano
veterán
válasz
Petykemano #45434 üzenetére
chips and cheese cikk a BR100-ról
Érdekes, hogy azzal indít, hogy bár az volt a feltételezés, hogy ez egy Nvidia IP koppintás, mégis:
"BR100 is interesting because it’s structured very differently from AMD and Nvidia’s GPUs. That’s possibly because it doesn’t trace its ancestry to a graphics oriented design."
Aztán: "If we focus on the on-chip network, BR100 has a lot in common with Intel’s server CPUs like Sapphire Rapids (SPR)."
Szóval érdekes, hogy a cikk egyáltalán nem igazolja vissza azokata feltételezéseket, hogy ez egy másolat, koppintás lenne. A fenti idézetek nem mennek tovább annál, hogy inspirációt meríthettek innen-onnan, de még csak utalást sem tesz ettől eltérő megközelítésre.Az összefoglalóból kiderül, hogy eltérően a HPC (FP64) fókuszú CDNA2-től és a mindent lefedni igyekvő Hoppertől és PV-tól, a BR100 egyértelműen a mátrix műveletere fókuszál.
Külön kiemeli a CPU-szerű cache felépítést és az egységes 256MB L2$-t.
-
paprobert
őstag
válasz
Petykemano #45557 üzenetére
Szerintem van rajta profit, de nem az NV és AMD által kreatívan könyvelt 60%.
Az egyetlen, költséget valamivel jobban megnyomó tényező, az a GPU mérete, mert a perf/tr és a perf/mm2 a béka segge alatt tanyázik a konkurenciához képest. 400mm2 az alsó-középkategóriába sok, de ennyire gyenge az architektúra, ez "ennyit tud".
A 8GB VRAM ára nem feszegeti a határokat, a 225W-ra felkészített PCB kifejezetten visszafogott a mai korszellemben, a 6nm(7++) már olcsó, és effektíve mindent el tudnak adni, ami lejön a gyártósorról. Szóval pár 10 dollárral nagyobb az Intel költsége a die méret miatt a konkurenciához képest.
Szerintem 30%-os árcsökkentés mellett kerülne önköltség közelébe a termék. Magasról kezdenek, és ha nem fogy, akkor majd benéz idővel 200 alá is, hogy legyen felhasználói bázis.
-
válasz
Petykemano #45533 üzenetére
Szerintem nem akarnak ők olyan nagyon részesedést növelni, fontosabb a marzs.
-
válasz
Petykemano #45533 üzenetére
Szerintem a kettő közé lépnek. Mondjuk ha egy a teljesítményük akkor 1299$ már frankó- ha esteleg 10 % kal lassabb se érdekel senkit annyi teljesítményveszteség az előző genhez képest ekkora ugrásnál, mert lényegesen olcsóbb.
Mondjuk szerintem( remélem) Nvidia nem hagyja ennyin az árat a készletek kifogyása vagy az AMD bejelentése után talán árat csökkent, bár nem tudom mennyibe kerülhetett egy ekkora monstrum és ennyi tranyót tartalmazó szörnyeteg gyártása 4N-n. -
Devid_81
félisten
válasz
Petykemano #45533 üzenetére
Nv ala araznak $50-el es mindenki boldog
-
Devid_81
félisten
válasz
Petykemano #45531 üzenetére
Az arak is...4080-as 899-1199 12GB/16GB
Rengeteg eladnak majd belole -
Ribi
nagyúr
válasz
Petykemano #45525 üzenetére
Jaja, csak a tiéd néztem és mivel olvasni se tudok így csak a képet kommentáltam.
Visszanézve már érthető -
Ribi
nagyúr
válasz
Petykemano #45523 üzenetére
Árak igen régiek, szóval táblázat hülyeség ahogy van.
-
válasz
Petykemano #45507 üzenetére
Az majd akkor fog feltöltődni, ha kiderül, nincs megfelelően jövedelmező coin bányászni.
-
válasz
Petykemano #45505 üzenetére
Érdekes lesz látni, hogy fog alakulni az ETHW. Venni vagy nem venni?
Egyébként ahogy az NV találgatósban írtam, nincs olcsó Polaris pl. az Aliexpressen, annyira nem dőlt még be a bánya. Vagy már nincs annyi Polaris, hogy olcsón kelljen adni.
-
válasz
Petykemano #45502 üzenetére
ETC hálózat mostanra 70 TH/s-ról 244 TH/s-ra nőtt. Gondolom ide jönnek elsősorban az ETH bányászok.
-
Raymond
titán
válasz
Petykemano #45502 üzenetére
Na ja, irtak a merge elott hogy van ez az alom hogy majd banyasznak mast, de azzal meg az a problema hogy a hashrate rohamos novekedesevel rohamosan no majd a difficulty is csokken a profitabilitas.
-
Raymond
titán
válasz
Petykemano #45500 üzenetére
Ja, a bejelentett fork-ra mindenki mas annyit mondott hogy LOL vagy ROFL.
-
válasz
Petykemano #45494 üzenetére
Nem tudom én sem,de látod az utolsó havi eredményt mutató sor augusztusi.Nem tudom mondjuk egy Rx milyen elonnyel jár egy kis navival szemben.Vagy lehet tényleg a Glofo igy a TSMC rendeléseket szabaddá tette.
Kina is lehet de nem tudom hogy az OEM gyartóknak vagy a kavezoknak jó az RX a Navi helyett? -
válasz
Petykemano #45488 üzenetére
Ami érdekes még a második táblázat.Polaris.40% és a Vega 7 % eladás.Tehát AMD vagy gyártott a bányászoknak polarist és Vegát vagy az OEM gyártóknál ennyivel népszerübb mint a Navi 5- 6000 széria.A két navi együtt éppen eléri az eladásban az 50 %részt és a Polaris+ Vega szintén majdnem ennyi pl Augusztusban míg Nvidiánál a Turing és Ampere 77 %.
-
válasz
Petykemano #45484 üzenetére
Igazad volt, hogy a zuhanást meg nem érő bevételi adatok ellenére az AMD is vastagon érintett a kriptovaluta bányászatban.
Ez mindenki számára világos volt, nem b. látta meg egyedüliként.
Mindkét gyártó nagyot aratott a bányászaton, most kerülnek a helyükre.
-
válasz
Petykemano #45484 üzenetére
-
válasz
Petykemano #45480 üzenetére
Ezerszer megfogalmaztam ezt anno több vitában is itt feleslegesen , már leírtam mind az ARM nak milyen előnyökkel járt volna mind az Nvidiának mind a felhasználóknak.
Az ha licenszelsz egy dizájnt nem azt jelenti hogy te szabhatod meg annak a fejlődési irányát.
Az ha te szabod meg nem azt jelenti hogy az irány rossz , főleg mellette garanciát vállalsz 10 vagy 15 évre hogy meghagyod a szabad licenszelhetőség feltételeit mind GPU mind CPU terén és mondjuk az egyik legjobb GPU tervező gárdával rendelkezel a világon.
Erre kötelezték az Nvidiát...ez azt jelenthette volna hogy az ARM ütőképes
mert az Nvidia rá és nekik és velük tervez dizájnokat évtizedekre előre belátva egy fejlődési irányt...
AZ hogy Nvidia 5x annyi pénzt adott volna fejlesztésre ARM nak és olyan kombókat hozhattak volna desktop és szerver frontra ami jelenleg nem létezik csak az Apple termékeknél. Az hogy az ARM úgy indított volna hogy a világ legnagyobb szerver gyorsítókat gyártó cégéhez elkerült volna 10 év alatt felbontotta volna az X86 egyeduralmát."Csak valószínűleg nem az volt a cél, hogy ezzel betörjenek az AMD és Intel által jelenleg dominált szerverpiacra, hanem sokkal inkább az lehetett, hogy az ARM processzorokat, amiket világszerte milliárdszámra használnak szerverekben, telefonokban és infotainment rendszerekben hozzászabja a saját AI/ML/grafika/Accelerator/stb rendszereihez. Ne lehessen, vagy legalábbis ne legyen érdemes mellette elmenni. Legyen az Nvidia ezen a területen is ugyanolyan név, mint az Apple. Tudod van a tablet, meg az Ipad."
Ki mondta hogy ez lehetett a fő cél? te? vagy valami sugallat? Tudod milyen kicsi szeletecske az pénzben? A szerver piac és a hatalmas projektek ökoszisztémákkal a nagy pénz. Lásd Frontier @ AMD... de amit itt leírtál az éppen lehet jó dolog.. Mert az Jó ha Exynos@ AMD van a telefonodban? Tud valaki jelenleg az Nvidiánál jobb GPU alapú AI rendszereket tervezni? vagy szerver gyorsítókat? Tisztában vagy vele hogy az ARM ezt szeretné elérni de soha nem tudja? és egy Intel nem arra fog törekedni hogy az X86 mellett felnevelje a kis ARM CPU trónkövetelőt? Minden veszély amit itt leírtál totálisan többszörösen igaz az Intelre. Egyszerűen a hozzáállásod magyaráztat bele ebbe npozitív dolgokat az Nvidiás sztoriba meg negatívumokat feltételezel .
pedig Totálisan hasonló de valójában rosszabb forgatókönyv .mennyi idő és pénz áthozni valamit Samsung és Intel gyártásra?
Ugyan úgy nem kellene ezért megvennie Intelnek és samsungnak az ARM-ot ahogy szerinted Nvidiának sem kellett volna hogy elérje a céljait. Ezért nekik sem kell, hisz rengeteg dizánjt a Samsungnak terveznek 7 nmLPP 5 nm stb mind működő tervezett ARM dizájn van a Samsung Foundry-val közösen. Messze nem nulláról indulna ez a dolog.
Amit belelátsz az szerintem csak egy hozzáállásbeli történet az Nvidiánál negatívnak tartanád ha belőlük 2. Apple vagy domináns CPU és GPU gyártó lenneegyben, az AMD és Intel mellett míg ezt az Intelnél és AMD nél ezt nem tartod problémásnak. Elengedem inkább a részemről. -
válasz
Petykemano #45476 üzenetére
semmiel nem nyom többet a latba, maximum ha ha ilyen "felhasználónak hűhűhű, milyen jó is lehetne, miközben az NVidia hülyére keresi magát keresi i magát" bugyuta érvet teszel a mérleg másik oldalára tőled elég szokatlanul . Mindenki degeszre kereste magát Az ARM-on kívül.
Egy CPU és egy GPU gyártó állt volna össze akik egy célt néztek hogy Intel és AMD mellett betörjenek a szerverpiacra nem X86 dizájnnal.
Színezheted meg variálhatod de ez semmivel nem másabb üzlet versenyhatósági szempontból mint az Nvidia vételi szándéka. legalább annyira veszélyezteti a versenypiacot mint ha az Nvidia vette volna meg őket ennyi a lényeg. -
válasz
Petykemano #45472 üzenetére
Még annyi hogy engem nem az érdekel hogy megveszi őket a Samsung vagy az Intel, mert jobb forgatókönyvnek tartom az ARM-nak , mint a tőzsdét és a konzorciumot.
Samsung még érthető is de ő is konkurencia mindenkinek a telekommunikációban. Intel viszont egy amerikai giga cég állami támogatásokkal és amerikai stratégiai vállalat.
Ezt nem tehette meg az Nvidia ők meg igen rá egy évre? Vicces lenne. Keserű a szőlő nekem. Szerintem nem tehetik ezt meg akkor ők sem.
ha megnézed a kommentedet te is leírod az elején hogy az Nvidiának milyen hátsó szándékai vannak ( bár szerintem azzal sokat nyertek volna a végfelhasználók, mint te meg én)az Intel -Samsung üzlet meg nem káros, sőt.
Egy brit székhelyű japán tulajdonú vállalat a oda portol dizájnt ahova akar.a második részére:
AZ Intel a legnagyobb Szerverpiaci részesedéssel rendelkező cég , akinek a piacát támadja Nvidia mind a gyorsítóival mind majd a Grace- CPU val. és nagyjából az összes ARM alapú szerver fejlesztés az ő piacukat dézsmálja az AMD mellett. -
válasz
Petykemano #45472 üzenetére
Ajaj Pontosan ezt írtam le ha olvasol a sorok között,hogy ha azt elkaszálták,akkor ezt is el kell.Minden akkor Nvidia ellen felhozott érv itt is áll.Samsung hány telefongyártó,tv gyártó,,Al stb cégnek cégnek konkurenciája aki ARM dizájnt használ?Tavaly az ARM alapú szerverek rekordot értek el X86 CPU mellett..Intel?
Az nvidia a világ egyik legnagyobb és legfejletebb gpu gyártója CPU nélkül és ARM GPU nélkül tőlük félt a világ?fordítva.Ahhoz hogy az ARM dizájn Samsung és Intel gyártásra átkerüljön nem kell megvenni őket.Ez egy Valid érv volt itt is az Mvidia ellen ,hogy minek kell neki,ha így is licenszelheti a dizájnokat?+ hogy elvesztik a függetlenségüket stb.Nem kellene ebbe most megmentést belevizuálni a Taiwani helyzet miatt .Pontosan az a szitu.
-
válasz
Petykemano #45470 üzenetére
A nagy probléma ebben még az hogy Nvidia ARM alapú CPu-kat tervez. Ha Intel megveszi igazából kilövi az Nvidia minden lehetőségét és 10 éven belül lehúzhatják a rolót.
Nem feltétlenül lett volna rossz az ARM @ geforce vonal de ezeket mind vállalták, hogy megmarad a mostani lehetőség az összes partnernek. most persze lehet azt állítani hogy nem így lett volna de akkor ha Intel/ samsung lépi ezt meg nehogy már ne legyenek kétségek ilyen téren.
AZt ugyan úgy vagy még jobban tiltani kellene ha a Zöld biznisz nem ment át.Azt gondolom ha ez megtörténne nem fog majd Inteltől licenszelni dizájnt az Nvidia.
-
Raymond
titán
válasz
Petykemano #45465 üzenetére
Ha az NV-t lelottek mert "a piacversenynek artott volna ha megkapjak" akkor egy Intel es Samsung kombonak mennyi eselye van? Szerintem semennyi.
-
FLATRONW
őstag
válasz
Petykemano #45458 üzenetére
Nyilván igp kivitelben, alacsony órajel és magszám mellett energiahatékonyak voltak.
A PH-ról jól tudjuk, hogy a GCN generációk között óriási volt az ugrás. Nem véletlenül születtek a többoldalas architektúra boncolgató, fényező bemutatók.:) -
gejala
őstag
válasz
Petykemano #45458 üzenetére
Most a Turing a FineWine. Megjelenéskor 2080 = 1080Ti volt, de most hogy már elkezdték a játékok használni az új, hardveresen is támogatott megoldásokat, lett hirtelen 40-50% előnye a 2080-nak. És akkor mesh shader meg VRS tier 2 még mindig nincs a játékokban, az is lenne +20-25%.
-
Raymond
titán
válasz
Petykemano #45434 üzenetére
Ja, mert ez is annyira sajat fejlesztes mint a gyorsvonat ami ugyanaz a Siemens mint Europaban csak kikapcsolt speedlimiter-el. Vagy az autoiparban talalhato termekek, azokat is otthon fejlesztettek a semmibol par ev alatt
-
válasz
Petykemano #45434 üzenetére
Tipikus kínai IP lenyúlás, még a nevezéktan is Az NVidia A100 ellen BR100., A104 @BR104
Az Nvlinket is "lenyúlták" átnevezték, architektrúális felépítését is ugyan úgy tervezték meg meglepő módon, mint az Nvidia.
A számok meg.. hát persze. biztos valósak. 3 év alatt zsebpénznek számító 800 millió dollárból a nulláról, első gyártásra 7 nm-n. -
válasz
Petykemano #45383 üzenetére
De azon a charton hol látod a PC gaming GPU szegmens bevételét/ arányát stb külön kiemelve? mert ugye bányászatról van szó mennyit jelenthetett ,ezt Másból ezt nem tudod megállapítani... Szerintem te is itt voltál a bányászláz alatt és láttad hogy világon sehol nem volt semmilyen kártya elérhető értelmes árban sem Nvidia sem AMD .
Az AMD gaming piacrészesedése sem nőtt, tehát nem az volt ,hogy az Nvidia kártyákat vitték bányába az AMD meg ment a gamer piacra mint láthatod. Sőt, ha jól emlékszem még csökkentek is...
Mindkét gyártó ugyan úgy emelt áron ment ,mindkét gyárótól ugyan úgy elvitték az összes kártyát és nem tudtak eleget gyártani.
Az AMD kártyák is bőven profitábilissak voltak a bánya szezonban és ugyan úgy RIG-ekben kötöttek ki mint az NV kártyái és árazásba is ugyan annyiba kerültek amikor lehetett kapni őket.A különbség annyi volt, hogy az egyik jó volt a másik meg jobb volt arra.
Nem látom miért keresett volna kevesebbeta bányászaton AMD.. ( arányosítva természetesen, az eladott mennyiségek tükrében). ez naív elgondolás.
Szerintem az érintettségük egyforma de jelenleg az AMD től nincs még DGPU bevétel kimutatás Y/Y.. Konzolok + nőttek laposokban is elég szépen.Egyszerűen a gyártók portfóliójából adódóan az Nvidia nagyobbat esik.
-
awexco
őstag
válasz
Petykemano #45362 üzenetére
Epyc , Ryzen , Gpu+ Semi-custom , Beágyazott coccok
-
FLATRONW
őstag
válasz
Petykemano #45360 üzenetére
Ahogy mondod, nincs nagy gond náluk, az történt ami várható volt. Ha majd újra növekedésnek indulnak, akkor újra dicsérni fogjuk őket. Az AMD növekedésének magasztalását pedig meghagyjuk a másik tábornak.
-
awexco
őstag
válasz
Petykemano #45362 üzenetére
Xilinx. Az iot nem az epychez sorolják …
-
válasz
Petykemano #45360 üzenetére
Hol láttál te ilyet hogy elismerő csettintés hogy most kussolunk mi Nvidiások erre akarsz utalni? mert gondolod hogy most hogy az Nvidia csődbe megy vagy mi? Vagy mit kellene írni most erre?
Gondolom ha nem linkelte volna be más megtettem volna én mint ahogy mindig beszoktam a legtöbb nvidiás hírt tenni vagy ide vagy oda.
Amíg az nvidia szarrá kereste magát a GPU eladásokon és a bányászaton ugyan úgy az AMD is.
Az Amd bevételeinél CPU eladás jelentősen emelkedik és ellensúlyozza a GPU eladások csökkenést amit ők is ugyan úgy megélnek a hogy a zöldek,de gondolom neked nem kell elmagyarázni, hogy mivel utóbbiak fő profilja 50% fölött a gaming eladásból származik ez totalban egyértelműen hatalmas csökkenés náluk míg a másiknál total 20 % bevétel esett 40 % körüli részt az mellett a Xilinx 22 % kal dobta meg azt a "kicsit"
Gondolom nvidia sem így tervezte az ARM körüli üzletet most mélyebbre fognak esni mint valaha az miatt amit eddig eltolt a bányászlát miatti hatalmas bevétel, de most üresjáratban fog lecsengeni annak a sikertelen üzletnek is a hatása ez ellen csak az segíthet ha megfelelően kihozzák a Grace-t és/ vagy Intel jobban rájuk fog szorulni.
most hogy visszavágjak lehet örülni az AMD fanoknak csúnya gonosz, mindenben bajt kavaró Nvidia most majd jól szarba lesz. -
awexco
őstag
válasz
Petykemano #45360 üzenetére
Azért amd az Epyc-el szépen növekedett … bár, hogy 4 csoportra bontották a beszámolójukat sokkal áttekinthetőbb .
-
válasz
Petykemano #45335 üzenetére
A 10m 3080-as kártya folyamatos működés mellett óránként 2.24GWh energiát fogyasztana el. Egy nap alatt ez ~54GWh, éves szinten pedig kb 20TWh lenne. Ez elég nagy különbség, ami arra utal, hogy a 3080-nál lényegesen rosszabb MH/W mutatóval rendelkező kártyákkal is bányásznak még.
Nyilván ez teoretikus, hiszen sokan bányásznak Polarissal, Vegával, RDNA1-gyel, Pascallal vagy Turinggal, amelyeknek alacsonyabb a hatékonyságuk, mint az RDNA2-nek vagy Ampere-nek. Meg Isten tudja, hogy még mivel, amit lopott/olcsó árammal még lehet dolgoztatni.
-
válasz
Petykemano #45335 üzenetére
Ezek az éves fogyasztási adatok botrányosak.
-
válasz
Petykemano #45330 üzenetére
Nem beszélve arról (amit korábban már fejtegettetek), hogy többféle teszt hardver létezhet, amelyek különböző specifikációkkal működnek, és hol egyikről, hol másikról szivárog valami. Ez pluszban megkeverheti a dolgokat, és mind igaz is, de végül csak egyféle verzió jelenik meg, a többi pedig a feledés homályába vész (na jó, nem, mert ami a netre felkerül, az örökre ott is marad).
-
válasz
Petykemano #45317 üzenetére
Én sem értem, hogy lehet kiadni official minősítéssel egy olyan drivert, amivel konkrétan nem működött a megjelenítés, be sem kapcsolta a monitort a kártya, illetve folyamatos reboot:
To say that not everything is smooth sailing with Intel Arc at this time would be an understatement. The official "stable" 101.1743 driver from Intel's website is everything but! I encountered numerous bugs including bluescreens, corrupted desktop after startup, random systems hangs, system getting stuck during shutdown sequences, and more—very frustrating issues that made me ask myself "WTF? Has anybody even tested this driver once?". A couple of times I had to replace the Intel card with an NVIDIA card so that Windows would actually boot—because the Intel driver can no longer load and that kept breaking things—so I could manually wipe the Intel driver and pray that a new driver install would work better. LINK
Viszont a béta driverrel jól működött a kártya, le tudta tesztelni W1zzard, de ez mostani, júliusi release, tehát mostantól van használható driver az A380-hoz. (Bár meg kell jegyezni, AMD konfigon ment a teszt, és szerencsére működött az AMD ReBAR implementációjával. Lehet, pont az AMD rendszer miatt nem volt jó az official driverrel a kártya, de ez csak feltételezés.)Jó lenne azt látni, hogy tovább fejlődik a driver, többet nem lesz használhatatlan release, de másoknál is előfordult már ilyen baki, az Intel miért lenne kivétel?
-
válasz
Petykemano #45313 üzenetére
Én biztos nem venném fel Ráját a cégemhez.
Egyébként látszik, hogy mennyire nyögvenyelősen megy az Intelnek az új termékkategóriába belépése. Ahogy már beszéltük korábban, nagy valószínűség szerint a szoftveres oldal gatya nagyon. Erről árulkodik a napokkal ezelőtt linkelt TPU teszt is, ahol az official driver használhatatlan volt, egy bétával sikerült letesztelni a kártyát. És tegyük hozzá, hogy ki tudja, mióta reszelik a meghajtót. Az official driverrel kapcsolatban a TPU fel is tette a kérdést, hogy tesztelte-e egyáltalán valaki kiadás előtt a drivert?Más: Chernobylite now with FSR 2.0
It should be noted that Chernobylite has motion blur and chromatic aberration in graphics options, which may cause smearing with FSR 2.0. -
zsid
senior tag
válasz
Petykemano #45269 üzenetére
Játékok szempontjából lehet sok értelme nincs az A780-nak, de munkára előfordulhat hogy jó és ha be tudják szúrni a partnereiknél az RTX A2000 A4000 közé teljesítményben is és árban is akkor lehet annak értelme.
-
hokuszpk
nagyúr
válasz
Petykemano #45269 üzenetére
oops telleg ; elvileg van.
tegnap vegigneztem a GamersNexus videot, de mar nememlexem, hogy az elso vagy a masodik szamra mondtak, hogy az olyan, mint a prociknal az "i" mogott kozvetlen levo, azazvagyis utal a kategoriara. Ha "7" az, akkor sokkal erosebb nemnagyon lehet.** a "7" lesz a kategoria, mer ugye az A380 a beleposzint.
-
paprobert
őstag
válasz
Petykemano #45259 üzenetére
"Tehát ha azt feltételezzük, hogy a gyengébb tranzisztorsűrűséget csupán a magas frekvenciára célzás okozza, akkor jogos lenne felvetni, hogy nem lehetne-e vajon ugyanazt a teljesítményt ugyannakora lapkaterületből több, sűrűbben elhelyezett, de alacsonyabb frekvencián működő tramzisztorból kihozni úgy, hogy az IPC magasabb."
Szóval ugyanakkora lapkát, ugyanakkora teljesítménnyel, de teljesen áttervezve? Az egy helyben járás esete lenne, és pénzbe kerül.
Az AMD tervezi szélesíteni a magokat, Mike Clark elhintette az információt, talán egy Anandtech-es interjúban. Szóval hoz valami hasonlót az AMD amit felvetettél, a kérdés csak az, hogy mennyi az előrelépés, és mi a tradeoff.
Szerintem nincs lehetőség radikális ugrásra, mert mindig belső késleltetési probléma üti fel a fejét, ha túl szélesre tervezik az architektúrát. A Golden Cove is ezért felemás sokszor.
A gyártástechnológia ezt tudja kompenzálni, de csak annyira, amennyire jó a node, azaz nem várok csodát. -
awexco
őstag
válasz
Petykemano #45256 üzenetére
(Valamit persze közben az AMD is alkotott, mert kb ugyanakkora lapkaterületre külön gyártva kb kétszer akkora cache kapacitást hoztak ki a 3dcache-hez.)
[link] -
paprobert
őstag
válasz
Petykemano #45256 üzenetére
Tagadhatatlan, van titkos recept az Apple-nél.
Szerintem legnagyobb különbséget az adja, hogy az Apple egy konkrét node-ot, konkrét célokkal, konkrét irányszámokkal, jó mérnökökkel vesz kezelésbe, és van erőforrása eltérni az ARM univerzálisan-univerzális döntéseitől."Nem mellesleg szerintem az AMD és Intel fókusza a szerverpiac, ahol szintén jobban járnának, hogy magas órajel helyett inkább kisebb lapkákkal és/vagy magasabb frekvencia helyett magasabb IPC-vel tudnánnak dolgozni."
A magasabb IPC nem jelent automatikus perf/watt előrelépést, sőt.
Egy magasabb IPC-s architektúrától csak az eddig optimum órajel feletti tartományban járatott szerverchip gyorsulna, de a maximum magszámos szerver modellek, amelyek már most a sweetspot-ra vannak ráhelyezve a TDP limiten, inkább lassulnának.
-
Devid_81
félisten
válasz
Petykemano #45240 üzenetére
Jobb nem lesz a helyzet sajnos mint eddig volt.
Meg azon sem csodalkoznek ha mindket gyarto eltolna a next gen-t egy idore.
Olyanokat olvasok (foleg NV-rol) hogy allitolag iszonyat mennyisegu aru van beragadva raktarakban stb.mert a kutyanak nem kell, ETH meg nem jovedelmezo mar, igy banyaban sem kell az uj VGA.
De allitolag laptopbol is annyi van mint a f0sh...Azon persze senki nem tori a fejet, hogy adnak vegre olcsobban a sz@rjukat...
-
válasz
Petykemano #45221 üzenetére
Ezért nem jelentem ki, hogy nem voltak problémák az AMD meghajtóival, mert az, hogy nekem nincs, nem jelenti azt, hogy másnak sincs. Bár mondjuk a rendszeresen elfelejtett Wattman beállításokra tényleg nem lehet azt mondani, hogy nincs probléma (ez most jutott eszembe). De hogy az szoftveres vagy hardveres (nem stabil UV) hiba volt, azt nem tudom megmondani. Viszont RDNA2 esetén nem nagyon tapasztalok elfelejtett driver beállítás problémát.
-
HSM
félisten
válasz
Petykemano #45219 üzenetére
A gépépítők részéről szvsz az is a preferencia része lehetett, hogy Nv-nél szigorúbb minőségbiztosítás van tipikusan, mint az AMD-nél, ahol azért jobban szabadon van engedve a gyártópartnerek keze. Így sajnos én is így tapasztaltam, hogy a piros kártyáknál jobban meg kell nézni, mit vesz az ember, hogy utána ne legyenek problémák....
Illetve az RX 470/570 esetén más probléma is volt, nevezetesen a pirosak versenyzőjéből több lényeges technológia támogatása hiányzott, amit a konkurens biztosított, ilyen a VP9 lejátszás hardveres dekódolása illetve a HDMI2 támogatása. Tehát a jobb per/$ mutató becsapós lehet, hiszen hiába volt gyorsabb pl. a 480 a 1050Ti-nél, ha nem hajtotta meg a nappaliban a 4K TV-t...
-
válasz
Petykemano #45219 üzenetére
Abban mindenképpen igazad van, hogy a retailerek mit kínálnak. Említettem már többször is, hogy kiskeres ismerősöm Intel+NV only, AMD-t csak külön kívánságra rendel. És biztos vagyok benne, hogy nincs egyedül. A vélt PCIe áramfelvételi* és sokszor emlegetett driver** problémák meg csak erősíti ezt a dolgot.
* Biztos érintett valakiket, én semmit nem tapasztaltam, míg Polarisom volt
** Nem mondom, hogy nem tapasztaltam kisebb problémákat, de sosem volt olyan, hogy egy játék ne futott volna driverhiba miatt. A legdurvább még az RV670 időkben volt, amikor egy bizonyos driver batch olyan hibákat produkált, hogy nem működött az IE és az Excel, kifagytak. Ez azért durva volt, de rollbackelve korábbi driverre működött, illetve ki lett javítva egy idő után ez a hiba. Persze nekem csak szerencsém volt, küzdöttek itt a PH-n sokan az AMD drivereivel. Viszont jó ideje nem tapasztalok problémát. Mint ahogy NV driverrel sem. -
válasz
Petykemano #45212 üzenetére
A 3050 unlockolva annyit tud, mint a 6600 (28-29 MH/s), kicsit talán magasabb fogyasztással, tehát az sem indokolja a magasabb árat.
Szerintem egyszerűen arról van szó, hogy az NV irányultságú vásárlók inkább kifizetik a magasabb árat az NV kártyáért (és ezt tudják a kereskedők), semmint a jobb perf%$ mutatójú AMD-t választanák. Ez ékesen bizonyította az RX 470/570 vs. GTX 1050Ti esete is már évekkel ezelőtt. (A fogyasztást hagyjuk, azzal átlag vásárló nem foglalkozik.)
#45216 PuMbA: Sorry, figyelmetlen voltam.
Ugyanakkor ebben a kategóriában mennyire mérvadó az RT teljesítmény?
-
válasz
Petykemano #45188 üzenetére
Miközben az Aliexpressen 80k a legolcsóbb 4GB-os RX 470, de van 8GB - os 200k-ért is.
Nem látom a változást, vagy az Aliexpress csak balekoknak szól.
-
paprobert
őstag
válasz
Petykemano #45188 üzenetére
Valamint "csak" a konzol grafikai szintjén mozog, erősödő VRAM limittel.
-
olymind1
senior tag
válasz
Petykemano #45185 üzenetére
Igen, elég érdekesek még a használt árak is, igaz pár hónapos kártyát majdnem teljes bolti garanciával bevállalható lenne talán olyan 100e körül, de németeknél 300€, forintban 120e: PowerColor Radeon RX 6600 Fighter, 8GB GDDR6, HDMI, 3x DP
Egy fokkal jobb hűtéssel példányok pedig 320-325€-ért /130e forintért kaphatóak, ráadásul 2 játék is jár melléjük, az egyik az új Saints Row, a másik a Forspoken. Persze nem mindenkit érdekelnek ezek a játékok, de akiket igen, azoknak jó vétel lehet ennyiért. Mondjuk persze lehetne továbbra is jobb áron, mert ilyen 128bites agyonherélt kártyák amik igazából a 200€-s 5500 XT-t kéne leváltaniuk így 2.5 évvel később, de a 6600XT még mindig 400€ körüli áron megy, miközben néha a sima 6600 még az 5600XT-t sem előzi meg és mégis többe kerül. Szóval van még hova alakulnia az áraknak. -
válasz
Petykemano #45185 üzenetére
RX 6600/XT kártyát már egy ideje lehet MSRP alatt kapni HA-n, viszont az NV kártyák magasabban vannak még. Persze itt bizonytalan előéletű (=bányász) kártyákról van szó. Meg az eddig csak játékra és netezesre használtakról.
-
Devid_81
félisten
válasz
Petykemano #45180 üzenetére
Es a sok ugyes-okos user meg igy msrp ar kozelben veszi banyaszoktol az 1+ evet padlogazon jaratott VGA-kat.
Remelem eljon az az ido amikor 1/3 aron sem tudjak majd eladni ezeket a felhalmozott VGA-kat...amen
-
Devid_81
félisten
válasz
Petykemano #45169 üzenetére
UK-ban mi Bulb nevu szolgaltatoval vagyunk:
Unit rate
27.63p per kWh
Standing charge
44.75p per dayNiceHash calculator (fogalmam sincs ez jo-e vagy sem, nem ertek hozza) szerint mar bukos, es ez bele sem szamolja kozel fel fontos napi keszenleti dijat...
Minerstaton szamolva meg -0.63£/nap ETH-ot banyaszni.
Passz en csak annyit latok, hogy tele van az Ebay 3090-ekkel es olcsobbak mint egy hasznalt RX 6800
-
válasz
Petykemano #45169 üzenetére
-
Raymond
titán
válasz
Petykemano #45169 üzenetére
A gyakorlatban mar most is veszteseges. A Whattomine szamok alapjan $31c/kWh aramkoltseg mellett mar egyaltalan nincs profit [link] de igazabol ez mindegy mert $10c melett is csak $25 profit van egy honap alatt egy 3090Ti-vel.
-
Petykemano
veterán
válasz
Petykemano #45156 üzenetére
ajha, már csak $1000 egy ETH
Jelenleg az ETH profitabilitása: 0.0132 USD/Day/MH [link]
(Nem tudom, hogy ez már áramköltséggel korrigált szám-e)Ezt a kalkulátort alapul véve egy 100MH/s-os 250W-ot fogyasztó kártya $0.1/kWh áramdíj mellett már csak napi $0.84 profitot hoz egy nap. $0.2 áramdíj mellett már csak 0.24
(nem számolva egyéb költséggel)Szerintem $800 alatt már tényleg veszteséges lesz az üzemeltetés. Persze kérdés, hogy ha elkezdenek kiszállni a bányászatból, akkor vajon az magával hoz-e globális energiafelhasználás-csökkenést és ezzel együtt persze az energiaárak érezhető csökkenését.
-
keIdor
titán
válasz
Petykemano #45162 üzenetére
Jó drága lesz az október.
7800X és 4080 a terv. -
Devid_81
félisten
válasz
Petykemano #45159 üzenetére
Kinai piacrol siman tudna jonni ujra csomagolt 'uj' hasznalt VGA, azokbol barmit kinezek.
Tobbi orszagbol talan nem, bar en most egy az egyben kerulnem a hasznalt Ampere/RDNA 2.0 karikat...inkabb nyogvenyelosen egy uj ha nagyon muszaj, ha nem akkor meg RTX4xxx
-
válasz
Petykemano #45159 üzenetére
Az elmúlt 2 hónapban jelentősen csökkentek a VGA árak a HA-n, leginkább az NV és a jól kaparó AMD kártyák. A 6600/XT kártyák ára csak 10-20k-t csökkent, mert már akkor is elég olcsók voltak. Most már MSRP alatt kaphatók, de persze csak a HA-n.
-
válasz
Petykemano #45156 üzenetére
A 100% LHR unlock miatt az RTX 3xxx kártyák jobb hatékonysággal dolgoznak, mint a Nav2x kártyák, de a 6600/XT kártyák továbbra is az egyik leghatékonyabbak, csak éppen alacsony a darabonkénti hashrate. Pillanatnyilag kb 3000 Ft-ot képesek szedni egy hónapban. A havi 10k vagy afeletti bevételt csak a nagy Ampere kártyák tudják teljesíteni.
-
Devid_81
félisten
válasz
Petykemano #45156 üzenetére
Angliaban a jelenlegi villanyarak mellett ez mar boven negativba "termel".
Gondolom sokak kilohettek a hazi banyat mert tele van az ebay hasznalt RTX-ekkel. -
válasz
Petykemano #45151 üzenetére
Igen a cikknel irtam pont ezt .A Sapphire valószínűleg hozza azt amit a Zen3 Epyc nehany dologban jobb is de olcsób az szinte biztos.
Az is tuti hogy a kovetkezo intel cucc ,az Emerald bele megy ebbe a foglalatba.Kerdes errol mit tud Nvidia,mert szerintem ezt Intel mar mernoki mintaban esetleg megoszthatta veluk.Igy igazabol ha kicsereli AMD-t Intelre megmarad a teljesitmeny es kulonosebb atdolgozas nelkül az erkező Emerald bepattintható lesz ugyan ezen Nvidia mellé.
És hát talán 2-3 év múlva ott lesz már Intel bérgyártása is ,amire NV igényt tart így a két cég mosr pár évre biztos összeborul és a fejlesztéseikeg összehangolják.
Nem tartom kizártnak,hogy a bejelentett késés Nvidia miatt történt.Egyszerre jött a hír hogy nagy az igény rá ezért a nagyvolumenü szállítást késleltetik pár hónappal valamint az Nv is most jelentette be a váltást.Összefügg a két dolog sztem. -
HSM
félisten
válasz
Petykemano #45129 üzenetére
Így igaz, mivel a perf/watt görbe vége már általában erősen exponenciális alapvető fizikai összefüggések okán.
Pl. a Ryzen 5 3600-asom mértem [link] , ott a gyári feszes 3600Mhz alapórajel üresjárathoz képest +44W-ból hoz 1442 CB pontot, míg a lapomban sajnos kicsit "gyárilag" felpiszkált limites PB beállítás üresjárathoz képest 88W-ból hozott 1610 pontot, azaz itt +11% tempó lett pontosan dupla (CPU) fogyasztásból.
A gyári PB-jával nem is használom soha, mert nézni rossz, amit úgy produkál.
Egyébként az 5950X-ben nekem ez nagyon nagyon tetszett, hogy a rengeteg maghoz képest viszonylag szolid (140W) fogyasztásból hozott brutális teljesítményt, tulajdonképpen így eléggé hatékony tartományban működtetve a sok szilíciumot, amit beleraktak. Jól látszik, hogy így mennyivel hatékonyabban dolgozik, mint amikor egyetlen CCD-re (kevesebb szilícium) jut ugyanakkora fogyasztási keret (5800X) [link] . A konkurencia is fényévekre van ettől [link] , hiába a hangzatos elnevezésű e-magok.Normális élettartamú, gondosan megtervezett eszközeink is lehetnének. De nem abban van a nagy pénz sajnos, és ma a legtöbben arra hajtanak, akár kínálati, akár keresleti oldalról...
Nagyon OFF...Az autóknál szerintem a baj, hogy ahogyan a legtöbben használják teljesen fenntarthatatlan, tonnákat kell cipelni óriási távokra, rendszeresen, gyorsan, tömegek által használva.
Erre szerintem az elektromos sem megfelelő megoldás. Remélem hamarabb kap észbe az emberiség, és talál ki valami megoldást, minthogy egy perzselő tűzgolyót csináljon a bolygónkból, de ez már egy másik topik témája.... A "hódítsuk meg a Marsot" mint alternatíva nekem nem jön be.
-
Gyuri27
félisten
válasz
Petykemano #45129 üzenetére
Ez többször ki lett mérve. Az utolsó 50-100MHz oc esetén kemény wattokat kajál. Aki kiméli a cuccát nem is szokta ezt hagyni. Akinek kell még az az 5-10 képkocka az meg kitaossa a szart is a rendszerből.
-
hokuszpk
nagyúr
válasz
Petykemano #45103 üzenetére
túl jó a Samu 8nm.
-
válasz
Petykemano #45087 üzenetére
Na ekkor szokták mondani, hogy ha az Ampere a TSMC-nél készült volna...
-
válasz
Petykemano #45080 üzenetére
A Radeon Software-ben is ki lehet kapcsolni a IC-t. Speciális vezérlő néven kell keresni a Hangolás menüpontban a memória beállítások között.
-
válasz
Petykemano #45082 üzenetére
Nem tudom azért is kérdeztem óvatosan. csak ötletként, inkább kérdezem de arra gondoltam, hogy mondjuk fejlesztesz egy játékot, ami AMd támogatott, azaz figyalma veszik a hatalmas cache-t a 300+ mega IC -t az RDNA 3 ban és mondjuk BVH -ra fel van használva és hasít, RT megy mint az állat, míg RDNA2-n meg beleáll a földbe mert se akkora IC se sávszél vagy Turingban sem igen.
De csak ötletként írtam nem tudom mi más oka lenne annak hogy ki lehessen kapcsolni. -
válasz
Petykemano #45080 üzenetére
Inkább csak arra ,hogy lesz ,de megkerülhetően egyes esetekben, mint ahogy linkelted mondjuk tesztelésnél. Gondolom az ekkora IC ami az RDNA 3 ban lesz elég problémás teljesítményben mondjuk még az RDNA 2 nek is,és minden régebbi AMD hardvernek, tartani azzal a lépést kompatibilitásként.
-
Raymond
titán
válasz
Petykemano #45066 üzenetére
Az a thread egy ertelmezhetetlen zagyvasag. A terminologia se passzol es alap dolgokkal ellentetes allitasok vannak benne.
-
GeryFlash
veterán
válasz
Petykemano #45014 üzenetére
Igen, egyebkent ebben tokeletesen igazad lehet. Csak az minket kevesbe erint/erdekel.
Egyebkent felreertes ne essek, nem kerdojelezem meg Koduri tudasat, siman vezetonek/strategenak gondolom kevesnek.
-
válasz
Petykemano #44982 üzenetére
N31 XTX 48WGP/96 CU/12288FP32
N31 XT 42WGP/84CU/10752FP32
N31 XL 36WGP/72CU/9216FP32
N32 XTX 32WGP/64CU/8192FP32
N32 XT 28WGP/56CU/7168FP32
N32 XL 24WGP/48CU/6144FP32
N33 XT 16WGP/32CU/4096FP32
N33 XL 14WGP/28CU/3584FP32
[link]
N31 XTX = 7970XT
N31 XT = 7950XT
N31 XL = 7900XT
N32 XTX = 7800XT
N32 XT = 7800
N32 XL = 7700XT
N33 XT = 7600XT
N33 XL = 7600 -
válasz
Petykemano #44982 üzenetére
Nem kicsit zavaros. Én azt gondolom ugyan ez zajlik Nvidiánál a fogyasztással, meg hogy a H202 speckók bekerültek az ADA 102 be. Már senki sem tudja mi van. Ilyenkor szokott jönni amúgy nagy pofára esés mert már akkora hype vonat van az egész sajtóban hogy az ember alig talál haza.
Most már az Ada akár 150 Tflops is lehet ...
[link] -
gainwardgs
veterán
válasz
Petykemano #44982 üzenetére
Inkább az a gyalázatos hogy lassan 1,2 kw táp kell...sőt
-
válasz
Petykemano #44976 üzenetére
[link]
I can only say that the two products have improved a lot compared to their predecessors, but if you want to ask me directly which one is better, I'm sorry I can't answer, because no one knows the specific improvement by percentage.Ma írta ki hogy az ADA nagyon közel teljesít órajelekben az RDNA 3 hoz. ekkor szörnyetegtől félelmetes.
Mint írja mindkét architektúra nagyon sokat változott a kezdetekhez képest. fejlesztenek ezerrel, végre megy a harc. -
válasz
Petykemano #44976 üzenetére
na igen én sem tudom . AZ biztos, hogy ez a jövő.
Egy GPU ként kell viselkednie szerintem mind a mid-, mind front end szintjén. valószínűleg úgy is fog. Kérdés mennyire lesz e kiforrott az elején.
Ha szigorúan a gyártástechnológát nézzük és ez alatt a chipletet értjük akkor nem biztos hogy pont ez a fejlettség irányszáma még. Lehet nem jól fejezem ki magam.
Eredeti terv ez volt az nvidiánál, hogy Ada monolitikus de ez egy átmeneti dizájn lesz az MCM hez. Ha most ezzel azért tudják tartania lépést vagy gyorsabbak lesznek akkor azért érdekes ez az architetúrális felvetés, még ha valóban 20 % körüli többlet fogyasztással is de azért WTF. nem kellene, hogy gyorsabb legyen, már csak marketing miatt sem.
A másik a fogyasztás pletyka hogy egyre többen írják hogy nyugi itt azért erős bulvár megy főleg az ilyen 900 W pletykákkal.ÉN arra vagyok kíváncsi, hogy állnak majd ehhez a programok illetve igényelnek e valamiféle speckó optimalizációt. Gondolom nem, de azért vannak kételyeim, főleg úgy hogy fél év van a megjelenésig és ilyenkor az RDNA 2 nél már tele volt a sajtó azzal, hogy az Ampere le lesz taszítva a trónról.
Nincs kizárva hogy ezek jönnek lassan, csak már hiányolom ezeket az irányszámokat. majd MLiD tolja. -
gainwardgs
veterán
válasz
Petykemano #44972 üzenetére
Benchmark csak fa.. méregetésre való
-
válasz
Petykemano #44972 üzenetére
Azért nagyon sok kérdőjel van ebben, épp az előbb írtam a találgatósba, de akkor még nem olvastam itt a témát.
Azért nem biztos, hogy ez elsőre így fog működni ahogy leírod.
Téma most azért redditen és Twitteren is hogy fog skálázódni a chiplet , pont az egyik tag a Buldozer vs Ryzen-t-emlegette hogy, vajon az RDNA3 melyik lesz... kérdés hogy sikerül ezt megoldani . Megint az, hogy lesznek játékok amikben nagyon jó lesz meg lesz olyan ahol nagyon el fog maradni?
Szinte mindenhol a fogyasztást olvasni a két gyártó összevetésében már, egyre kevésbé azt hogy az RDNA3 hogy áll az ADA-val szemben mondjuk játékokban, raytracingban stb...
Valószínűleg a fogyasztás mutató lesz most a fő marketing az AMD nél,de azért mondjuk 20% lemaradás a csúcson nem biztos, hogy annyira jó lenne az RDNA2 után plusz nem vagyok benne biztos, hogy az ADA gyengébb teljesítmény/ fogyasztás mutatót fog mutatni a csúcs kártyák alatt mint az RDNA3. a 3060-3070 szinte ugyan azt hozza fogyasztásban, mint a vele egy kategóriás RDNA2.
Az is furcsa hogy Nvidia inkább a nagyobb/ drágább monolitikus dizájnt választja. Abu írná a tapasztalatot, de biztos vagyok benne hogy itt nem erről van szó, amiért Nvidia inkább egyelőre inkább maradt a biztos úton és cserébe nagyobb és drágább megoldást nyomatja, míg AMD ezt a verziót .
Ugye kopite behozta azt hogy Nvidia módosította az Ada specifikációt és a Hopper 202 ből kap újításokat, nem egy szimpla hatalmas monolitikus cucc lesz kigyúrva mint az állat.
Valószínűleg ez lesz az előkészület az MCM -re de közben azért lehet hogy más kárán akarnak tanulni.... -
HSM
félisten
válasz
Petykemano #44927 üzenetére
Nem vagyok meglepve... Volt róla cikk is, hogy ez a GPU "papíron" harciasabb lehet, mint a "gyakorlatban": "... Nem véletlen, hogy az AMD, az ARM, az Intel és az NVIDIA a közelébe sem megy az ennyire széles feldolgozótömböknek. Ugyan sok-sok TFLOPS-ot tudnának általuk a papírra írni, de a gyakorlatban rémálom lenne a hatékony működtetésük a fejlesztők szemszögéből.
A teljesítményt tekintve ez az egész annyit jelent, hogy az ultramobil eszközökhöz tervezett tesztprogramok (BaseMark GPU, 3DMark Ice Storm Unlimited, GFXBench 5.0) egészen optimálisak az Apple hardverének etetésére, mivel nem használnak olyan komplex (compute) shadereket, amiket egy modern, újgenerációs konzolokról portolt PC-s játék. Ezáltal az erőforrások allokációja kedvezőbb, ami pont jó az efféle extrém széles dizájnnak. A gond ott kezdődik, ha egy komolyabb játék kerül be a képletbe. Ilyenkor az történik, hogy egyre komplexebb shaderekkel kell dolgoznia a hardvernek, ezek regiszter-, illetve LDS-nyomása egyre erőteljesebb, vagyis drámaian csökken annak az esélye, hogy egy multiprocesszor be tud tölteni annyi azonos szemcsézettségű szálcsoportot, amivel a memória-elérés késleltetését az esetek többségében át lehetne lapolni. Itt már a papírra vetett TFLOPS-ok nem számítanak, mivel adatra fog várakozni a hardver, vagyis konkrétan nem számol semmit, amíg az adat meg nem érkezik.
Mindez azonban így sem számít az Apple-nek. Az M1, M1 Pro és M1 Max IGP-jének ott lehet csak ebből problémája, amit a cupertinóiak egyáltalán nem tartanak célpiacnak. Egyszerűen ott a saját áruházuk, amelybe biztosan ehhez a dizájnhoz optimalizált alkalmazások kerülnek, a többi áruház pedig olyan mindegy, majd vesz hozzájuk az illető egy PC-t. Ez a stratégia pedig általánosan kifizetődhet, mert pont ott gyorsak a saját fejlesztésű ARM-os rendszerchipek, ami az Apple számára fontos." [link] -
Devid_81
félisten
válasz
Petykemano #44947 üzenetére
Lehet darabszam nem volt mas piacra, es az is lehet a dolgok mogott amit Videocardzon irt az egyik hozzaszolo:
HTPC need video drivers, millions and millions in testing windows drivers, miners only need part of the compute stack, and linux.
Oke makes sense, de nah...en pl jo ar eseten tutira lecsaptam volna egy mukodo iGPU-s de vagott CU-s PS5 lapra.
-
Devid_81
félisten
válasz
Petykemano #44943 üzenetére
Kisebb orajelellel es/vagy letiltva par CU es mehetett volna DIY piacra is, HTPC stb.
De nem, a banya az nagyon fontos, oda kell tolni mindent amit lehet. -
válasz
Petykemano #44933 üzenetére
-
Petykemano
veterán
válasz
Petykemano #44932 üzenetére
Najó, hát ha senki, akkor én írok pár gondolatot, ami ha társalgást esetleg nem is generál, de biztosan arra készteti majd a tisztelt olvasóközönséget, hogy kényszeresen helyreigazítson.
Tavaly év vége felé rajtolt el az AMD Mi200 családból a Mi250/X
Nagyjából ezek a specifikáció, amit az AT ír [link]FP64 Vector 47.9 TFLOPS
FP32 Vector 47.9 TFLOPS
FP64 Matrix 95.7 TFLOPS
FP32 Matrix 95.7 TFLOPS
FP16 Matrix 383 TFLOPS
INT8 Matrix 383 TOPSA ma bejelentett Hopper H100 pedig a következő: [link]
FP64 (Vector) 30 TFLOPS
FP64 (Tensor) 60 TFLOPS
FP32 (Vector) 60 TFLOPS
TF32 1000 TFLOPS
BFLOAT16 (Tensor) 1000/2000 TFLOPS
FP16 (Tensor) 1000/2000 TFLOPS
FP8 (Tensor) 2000/4000 TFLOPS
INT8 (Tensor) 2000/4000 TOPSNem vagyok szakértő,a hagyományos FP32 és FP64-et értem. Ebből az látszik, hogy a dupla pontosság esetén az AMD a jobb, de FP32 esetén az Nvidia. Egyébként ha a H100 PCIe és a szintén most bejelentetett Mi210 számait nézzük, akkor érdekes, hogy nagyonis összehasonlíthatók - annak ellenére, hogy az Nvidia termék N4-en, míg az AMD-e csak N6-on készül.
A többi egzotikus számítási teljesítmény viszont számomra nehezen összehasolítható.
Vajon az FP32 MAtrix egyenértékű a TF32-vel?
Vajon az FP16 Matrix és az FP16 Tensor között mi lehet a különbség?
Arról van-e szó, hogy az Nvidia kártyájában nagyon erős a Tensor, de az csak akkor használható ki, ha egy szoftver direkt a TEnsor magok használatára van programozva?
Ha csak ezt nézem, az AMD alaposan le van maradva.
Kijelenthető-e az összes többi értékre nézve is ez, hogy impozánsak az Nvidia számai de feltétel a Tensor magokra való programozás? Ez mennyiben jelent gátat?A hagyományos számokban való lépéstartás, és az egzotikus számokban való lemaradás mellett az is érdekes kérdés, hogy vajon mivel készülhet - és mikor - az AMD? Pletykák szerint már nem kell olyan sokat várni a Mi300-ra. [link] [link]
Mintha olvastam volna valahol egy olyat is, hogy a Mi300 is N6-on készül, tehát az mondjuk egyáltalán nem biztos, hogy a Mi300 az CDNA3-at jelent. Mindenesetre a Mi200-zal csak az EFB mutatkozott be, viszont semmilyen 3D stacking technológia nem. Vajon mit tartogathat az AMD?
És ugyanez igaz a Hopperre is. Látszólag elég konzervatív megközelítés. monolitikus, semmi 3D stacking. -
válasz
Petykemano #44927 üzenetére
Nincs olyan gyors, de nézd már meg, mit tud SoTR alatt!
-
válasz
Petykemano #44923 üzenetére
Nem tér ki erre egy cikk sem, pedig nyomon követem az ARM történéseit napi szinten.
Valószínűleg a háttérben Nvidia felvásárlásának hiánya miatt van, mert a z ARM nem volt megfelelő pénzügyi helyzetben az utóbbi 7 évben. 5 éve azért lett eladva a Softbanknak is, akiknek azótat öbbé kevésbé problémás befektetést jelentenek lassú megtérüléssel. Hogy ebben mennyire játszik közben a 4-5 év alatt 4x -re nött ARM Kína ez jó kérdés. -
HSM
félisten
válasz
Petykemano #44914 üzenetére
-
Raymond
titán
válasz
Petykemano #44914 üzenetére
-
válasz
Petykemano #44914 üzenetére
Jaja, feladták a leckét a többieknek erősen.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Nem lett arányos a fogyókúra
- BestBuy topik
- OLED TV topic
- Xiaomi 14T - nem baj, hogy nem Pro
- Motorola Razr 60 Ultra - ez a kagyló könnyen megfő
- Apple iPhone 16 Pro - rutinvizsga
- Synology NAS
- One otthoni szolgáltatások (TV, internet, telefon)
- Revolut
- További aktív témák...
- Eladó ASUS Phoenix GTX 1660 OC 6GB (PH-GTX1660-O6G)
- Eladó használt Gigabyte AMD Radeon HD 6750 videókártya
- Csere-Beszámítás! PowerColor Red Devil Spectral White RX 9070XT Videokártya! Bemutató Darab!
- Csere-Beszámítás! Sapphire Nitro+ RX 7800 XT 16GB GDDR6 Videokártya! Bemutató Darab!
- PowerColor RX 6700 XT 12GB GDDR6 Hellhound Eladó!
- BESZÁMÍTÁS! MSI B550M R7 3700X 16GB DDR4 512GB SSD RTX 3060Ti 8GB NZXT H5 Flow RGB 650W
- Hp USB-C/Thunderbolt 3 dokkolók: USB-C Universal, G2, G4, G5, Hp Elite/Zbook- Thunderbolt 4 G4
- Apple Watch SE 2 44mm, Újszerű, 1 Év Garanciával
- DELL Universal Dock D6000 dokkolók, RTX Legion Pro laptopok 4 év Lenovo garanciával, licencek
- LG 48C3 - 48" OLED evo - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - A9 Gen6 CPU
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged