- Honor 200 Pro - mobilportré
- Milyen okostelefont vegyek?
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Android alkalmazások - szoftver kibeszélő topik
- Mobil flották
- Samsung Galaxy Fit 3 - keveset, de jól
- iPhone topik
- Yettel topik
- Érkezik a Samsung Health előfizetés?
- Nem lett arányos a fogyókúra
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Az IBM magjai lényegesen erősebbek az ARM és az Intel/AMD magjainál. És a rendszerük teljesítménye is nagyon magas. Olyannyira, hogy nem igazán tudja őket közelíteni az ARM vagy az AMD/Intel. A probléma leginkább az, hogy nem x86/AMD64 az ISA.
1. Az Intelnél ezt bárki később tudja szállítani, még az AMD is. Hiába tud a Cray adni egy másfajta rendszert. A leggyorsabban akkor van meg az Aurora, ha az Intel szállít nekik TSMC-nél gyártott gyorsítót. Mindenki más csak lassabban tudja összerakni a rendszert.
2. Ez a projekt már eleve csúszik. Évek óta kész kellene lennie, csak az Intel törölte a Xeon Phit.
3. Az 3 év legalább. Ha csak a pénzen múlna, akkor már megkérték volna, de a chiptervezés problémája az idő. Ráadásul mire raknak CXL-t az A100-ba, addigra ez a lapka rég elavul, és sokkal újabb rendszerek lesznek kész. Ez nem olyan dolog, hogy kell a funkció, és az NV megoldja fél év alatt. Le kell ülni a tervezőasztalhoz, és egy csomó mindent ki kell cserélni a dizájnban, ami kb. egy év meló, majd két év mire azt tömeggyártásra alkalmassá teszik.
Az, hogy Addison Snell mit szeretne az irreleváns. A DOE meg azt szeretné, ha az Aurora 2022-ben működne, és azt csak az Intel tudja biztosítani. Minden más lehetőség további csúszás. Az AMD ezt nem fogja tudni vállalni 2023 előtt, az NVIDIA pedig 2025 előtt.
Mondjuk a top Ponte Vecchio eleve 40 TFLOPS-ra lő, tehát ha abból 30-35 jön össze, akkor az is elég jó még. Ráadásul az Aurora konfigurációja az 6 GPU-s, tehát 50 TFLOPS-ot egy szerver node TSMC-vel is tudni fog. Az AMD-nek a CDNA-ja 40 TFLOPS körüli. FP64 ezeknek a számoknak a fele. Az NVIDIA nem tudni, hogy hoz-e valamit az A100 mellé, mert az általános számításban nem valami erős, csupán 19,5/9,75 TFLOPS-ot tudnak vele FP32/64-ben.
-
szmörlock007
aktív tag
"Nvidia A100 és AMD MI100 vagy több év csúszás."
Hát meglátjuk, én azért még nem látom ennyire pesszimistán, jelen állás szerint 1 évet csúszik maximum, mint a 7nm, persze lehet további fennakadás. Persze ez mindenképp probléma az Usa-nak, mert lehet Kína pont ezért fog hamarabb exascale-es gépet építeni, de legalább hátha minden intel igazgatótanácsbeli tagban tudatosul, hogy egy tech cégnek állandóan fejleszteni kell gőzerővel.
Esetleg Amd építhet még egyet 2021-re ha nagy baj lenne
A Genoa meg a Cdna2 amúgy is 21 végére van ígérve. -
szmörlock007
aktív tag
Hát nem tudom elviszi-e valaki, utána úgyis jön 2 exascale gép fél-1 évvel, meg ha jól veszem ki akkor az Aurorát nem törlik csak csúsztatják, ergo Intel marad annak a beszállítója, persze ez változhat ha úgy van. Intel az egyetlen megmaradt Chip gyártó az Usa-nak, a másik 2 tajvani meg dél-kóreai, ergo nekik fontos lenne, hogy az Intel talpra álljon, mert elég nagy stratégiai hátrány lenne, ha a későbbiekben nem lenne legalább 1 amerikai cég fejlett gyártástechnológiával. Persze emellett a Tsmc-vel és a Samsunggal is eléggé baráti viszonyt kezdenek ápolni, biztos ami biztos. Nem hiába az Intel az első (vagy egyik első) cég aki szállíthat a Huaweinek. Kicsit támogatni fogják őket most ezt biztosra veszem.
-
-FreaK-
veterán
Én kérek elnézést, de a 3080 is kb. ugyan ott van perf/watt előre lépésben mint a 3090, nem lehet túl nagy a difi. Így aztán az idézett kijelentés megállja a helyét. Amennyivel gyorsabb lett, annyival többet is fogyaszt, illetve egy minimális javulás következett csak a be a kettő arányában. Ez ugyan úgy igaz a 3080-ra, mint a 3090-re.
-
Mumee
őstag
"3080 meg az egyik legjobb előrelépést produkálta még perf / watt terén is."
Az első képeden az "energy efficiency" oszlop, 2. képeden energy efficiency (perf per watt) sor.
2080ti 90,6% 3080 100% azaz kb. 10%-al jobb a perf/watt a 3080-nak.
A 3090 még jobb is ebben a vonatkozásban, hisz nem igazán fogyaszt többet, de gyorsabb így ki is jön a Malibu képen a 13% a 2. képén 2080ti vs 3090 perf/watt.Malibu 1. képén pedig csak teljesítményugrásról van szó.
A 3090 FE kb. 46%-al erősebb, mint a 2080ti FE.
Az általad linkelt 2. képen alul lehet következtetni a 4K és 4K+RT 3080 vs 2080ti eredményekből, ami 31% és 40% átlagolva 35,5% és a 3090 egy ~10-15%-ot ver a 3080-ra.
Így a 46% 2080ti vs 3090 a Malibu ábráján megint csak korrektnek nevezhető. -
Abu85
HÁZIGAZDA
Olyan nincs, hogy 98%-os terhelés. Az maximum azt jelenti, hogy a parancsmotor a 100 ciklusból 98-ban beolvas valamilyen parancsot. De belül azt nem úgy dolgozza ám fel. A GPU-n erősen heterogén processzorok, tehát nagyon sok az üresjárat bennük, és ezeket afterburner nem fogja megmutatni. Érdemes inkább megnézni egy profilozóval, ott azért közel sem az látszik, hogy 98%-os a terhelés. Jó ha 50% megvan.
Minden dizájnnak van egy optimális hatékonysága, ahol arányaiban a legnagyobb teljesítményt adja le a fogyasztáshoz viszonyítva. Ezek gyártói döntések, hogy hogyan állítják be.
Például az AMD ezzel azért nem törődik annyira, mert ma már teljesítménytartományt szállítanak a Radeonokban. Van egy közepesre állított szint, amiből a power limit beállítással elérhető a legnagyobb hatékonyság és a legnagyobb teljesítmény is. A felhasználó egy -50 és +50 százalék közötti csuszkával kiválaszthatja, hogy mit akar. Általában -10-20% között van az optimális hatékonysági szint, de ez termékfüggő, valamelyiknél 12%, valamelyiknél 18%. Ezt azért vezette be az AMD, mert ezernyi igény létezik, és ezt csak teljesítménytartomány felkínálásával fedhetik le. Mindenki beállíthatja azt, amit magának akar.Az NVIDIA ezt még nem vezette be, de az Ampere már tett lépéseket felé, tehát később valószínűleg ők is bevezetik ezt a tartományos modellt, csak ahhoz még szükségük van arra, hogy gyorsabban váltson az órajellépcsők között a dizájn. Valószínűleg a következő körben elérik. Az Ampere annyiban előrelépés, hogy teljesen hardveres lett az órajel- és feszültségmenedzsment, tehát már nincs benne szoftveres tényező.
A gyártástechnológiát könnyű hibáztatni, de az esetek nagy részében nem ott van a gond.
Az undervolt azért nem ajánlott, mert a gyártók a beállításokat nem a programokra nézik, hanem egy szimulációra. Ez a szimuláció bekapcsol minden részegységet a lapkában, tehát egy eléggé worst case mérés. Egy játékban azért működik az undervolt, mert a legtöbb játék közel sem túráztatja a GPU-ban található összes részegységet. Egy adott pillanatban jó ha a teljes lapka 50%-a be van fogva. De ugye jöhet egy olyan feldolgozás, ahol be lesz fogva a 80%-a is, és akkor bizony az undervolt megadja magát, mert ahhoz az a feszültség kellene, amit a gyártók beállítottak, csak a felhasználó nem engedi elérni.
Ez ellen egyébként a Navi már védekezik. Ha túl kevés a feszültség, akkor nem fagy bele a munkába a GPU, hanem indít a rendszer egy fail-safe módot, ami azt jelenti, hogy a GPU az órajelet levágja 500 MHz körülire. Ezért van az, hogy ha valaki undervoltol egy Navit, akkor nő a mikroakadások száma, mert már nem fagy bele az alacsony feszültségbe a rendszer, de harmadolja a teljesítményt arra az időre, amíg a feszültséget alacsonynak tartja. -
Petykemano
veterán
Na várj
Azt akarod mondani, hogy ahelyett, hogy a legjobb minőségű, legjobb eredményeket hozó lapkákat az Nvidia saját kézből adva prémiumot tenne zsebre,
ezúttal a legjobb minőségű lapkákból egy kiváló minőségű hűtővel rendelkező kártyát árul úgy, hogy a ténylegesen boltban kapható termékek ennél vagy rosszabbak, vagy drágábbak lesznek? -
Petykemano
veterán
"Nvidia sees an opportunity to sell its AI chips and graphics chips to Arm’s customers, too. “If we could leverage their business model, if we could stand on the network they’ve created and take the technology we’ve invented and put it into that channel and make it available to their thousands of partners, the economics for us would be incredible,” Huang said. "
-
Petykemano
veterán
"Egy komplett ökoszisztémát kialakítani"
De ezt megtehették volna akár magok, akár az ISA licelcelésével. Az apple és ígéretben a nuvia is olyat csinál, ami meghaladja az x86 lehetőségeit, de arm alapon bárki utánuk csinálhatná, de nem az arm csinálta ezért nem áll mindenkinek rendelkezésére.
Mindezt úgy, hogy nem kellett hozzá megvenni az armot.Ha az arm az ISA vagy más miatt tényleg jobb, mint az x86 és nyitott marad, akkor bárki más utánacsinálhatja arm alapon. Tehát máris nem annyira zárt. Gyorsítót meg adhat akár az amd akár az Intel CCIX vagy CXL alapon. Kivéve persze ha itt is zárás történik, de akkor azzal minden más gyorsító is kizáródik, (PEZY)
De szerintem ehhez nem kéne megvenni az armot.Tehát a célt értem, amit mondasz és egyet is értékek vele, azt az okot keresem ami miatt muszáj volt a felvásárlás, nem volt elég az ISA.
Pl ha az ISA felett akar kontrolt gyakorolni, mondjuk valahogy integrálni az arm ISAba a CUDA-t? Vagy kikúrni a CCIX-et és az NVLInket szabvánnyá tenni. És akkor ha arm szerverprocit gyártasz, akkor ahhoz vagy nvidia gput veszel,.vagy licenceled az nvlinket (pl FPGA gyártók)
-
szmörlock007
aktív tag
-
Malibutomi
nagyúr
Tudom mit jelent...azt is mind tudjuk hogy az NV azert irta ki szep nagy betukkel hogy a hozzanemertoket beeetessek..az hogy nezett volna ki a dian hogy 8nm process. 0% improvement in perf/watt?
Megegyszer..a negativ velemeny is megoszthato a forumon, aert forum. Ha jon eg hir leirom a velemenyem. Ujfent bocsanat hogy rosszat mondtam a tevedhetetlen nvidiara, gyorsan gyujtok ertuk egy gyertyat
-
Malibutomi
nagyúr
Bocs hogy leirom a velemenyem, miutan az NV elvileg jobb node-ra elorelepve meg 1.9X perf/wattot belengetve a diakon az eddigiek alapjan gyakorlatilag annyi javulast ert el hogy a kartyak pont annyival tobbet fogyasztanak mint amivel gyorsabbak.
Elnezest hogy csunyat mondtam a balvanyodra igerem tobbet nem teszem.
-
TTomax
félisten
Háát...távol álljon tőlem bárki megvédése,de ez a VS topic ahol a fanyalgásoknak igenis helye van.
Valóban nem tett jót a samsung 8nm-e a perf/wattnak viszont az már így előre meg merem jósolni,hogy brutálisan húzhatóak lesznek ezek a kártyák,illetve lehetnek mert nekem nagyon úgy tűnik,hogy a 3080 ismét olyan power limites lesz,hogy csak a shunt mode segít rajta,már aki bevállalja,mert a bios lockolva lesz az máris borítékolható.Egy vga lesz csak ahol engednek mindent,és az a 3090 brutál áron (hogy klasszikust idézzek qrva gyors lesz qrva drágán
)... arra nem is lesz az AMDnek kb semmiféle válasza,de oda a 3070/3080köré megérkezhetnek...persze csak mire már mindenki bevásárolt...
-
do3om
addikt
A fogyasztással pl Amd esetén nem az volt a baj hogy sok. Senkit nem érdekelne, árban minimális ha 100w a különbség a villanyszámla esetén.
A gond a kártyákkal volt, pl amikor azt gondolta elég a 6pin, itt gond volt a fogyasztás, de csak mert elbaszta. Aztán több karinál is a tuning, nem bírta hüteni semmi, de ha megoldották volna ezt senkit nem érdekel hogy zabál csak menjen. Aztán az alulméretezett gyári hűtések meg a magyarázkodás meg Abu féle mosdatás hogy 100 fok felett hatékonyabb a vrm. Na az ilyen nevetséges dolgok miatt lett fontos a fogyasztás, de ha úgy tervezik hogy bírja nem nézné senki.
Ha netán most az nv kari fogyaszt majd 350w-ot de az a tégla hűtő megoldja, nem szenved miatta hátrányt, netán húzni is lehet és 400w sem okoz gondot akkor elnézzük a fogyasztást. Persze Amd fanok jönnek majd hogy most is legyen fontos, de még kell érteni hogy az ottani karikon sok gondot okozott ahogy azt írtam. -
Jacek
veterán
Nade akkor ütötted az AMD a fogyi miatt, ez olyan mint 10 év fidesz után elmúltnyolcvévezni mert gyurcsány
Akkor is leszartam a fogyasztást meg most isTőlem jöhet a tégla kerti grill, az jobban zavar hogy 600k lesz..... a 3080-at meg tolják rá a Ti-re... Mondjuk nem érint mert mindenféle képpen megvárom az AMD-t.
-
paprobert
őstag
A skálázódás tök jó dolog, de kapsz is cserébe valamit felhasználóként?
Sajnos ezt nem lehet egyetlen számba besűríteni, de a motorok között jelentős különbség van a "mit csinál / gépigény" mutatóban.
Mivel nem számszerűsíthető ez, így csak véleményeket lehet formálni, de pl. a R6 motorja az egyik legjobb ebből a szempontból. Alacsony a hardveres belépési küszöb, sok mindent nyújt, skálázódik is.
Ha csak az utolsó pont van meg, az baj.
-
Abu85
HÁZIGAZDA
Most az atmoszféra az nekem is tetszik. Azzal nincs bajom, sőt... csak a tartalmat hiányolom. De lehet, hogy én hamar feladom. A harcnak egyébként nem látom értelmét. Inkább kikerülöm az ellent. Lehet, hogy itt hibázok?
Az a baj, hogy jó néhányszor megaláztak már.
(#41433) Laja333: A Death Stranding kinézete koncepcióból sivár. Ezt nem lehet felróni neki, mert valahogy bele kellett rakni a játék dizájnjába a reménytelenséget, és ezt a legjobban egy kihalt és élettelen táj szemlélteti. Ilyen szempontból a Death Stranding egyáltalán nem rossz, inkább más. Az való igaz, hogy az ember számára egy paradicsomszerű táj sokkal szebb lesz, mint a Death Stranding pusztasága, de ha objektíven nézzük a grafikát, akkor nagyjából ugyanott vannak, csak a HZD-be a dizájn miatt sokkal nagyobb részletesség kell.
-
Abu85
HÁZIGAZDA
Engem elsődlegesen az motivált, hogy a kérdéseimre választ kapjak. Például az időeső miért roncsolja a szállítmányt, és minket miért nem? Tudom, a kabátunk miatt, de akkor miért nem húzunk ilyen kabátot a szállítmányra? A járművek a terepre abszolút alkalmatlanok. Motorral szinte mindig el lehet akadni, nagyobb szenvedés, mint gyalog. Fura, hogy erre senki sem gondolt.
Én alapvetően azt gondoltam el, amikor láttam a trailereket, hogy ez ilyen futárszimulátorkodós mellékküldetésekkel megtűzdelt játék lesz, ahol majd lesznek izgalmas küldetések. Erre az egész játék csomagküldésre épül. Nem ez a választható mellékes, hanem maga a nagybetűs játék. Na ekkor durván ledöbbentem. Egy darabig szentül azt hittem, hogy az elején cipelgetek, aztán majd kapok valami frankó küldetést, esetleg bejutok oda, ahol az emberek el vannak szállásolva, mert ugye elvileg nekik cipelünk, de marhára nem látjuk őket.
Arról már nem is beszélve, hogy a gyaloglás olyan szinten túl van bonyolítva, hogy az beszarás. Nem elég a sticket irányba helyezni, még két extra gombbal egyensúlyozni kell, és a lendület is meg tud tréfálni. Csodálatos.És még az a hülye bakancs is kopik.
Én ezt csak úgy tudom értelmezni, hogy félbe lett vágva az egész. Játéknak készült ez, de valamiért ki kellett venni a tartalmak nagy részét, ezért sem jutunk le az emberek közé a föld alá, és végül ezért lett maga a nagybetűs játék egy olyan játékmechanika, amit más címekben maximum mellékküldetésekben látunk: vidd a csomagot A-ból B-be. Nehezemre esik elhinni, hogy tényleg ezt akarta Kojima.
-
hokuszpk
nagyúr
"Az AMD az IF segítségével saját gyorsítóival és CPU -val így még nagyobb konkurencia lesz az Intelnek, ez már kifejezetten aggályos rájuk és egyébként az egész piacra nézve. Ha ezt meglépi AMD / már pedig meglépi"
kénytelen, mert ahogy latjuk nem elég ugyanolyan vagy jobb termeket kinalni, vagy ABU kifejezésével agyonverni azt a konkurrenciát, valamiert akkor sem foglalkoznak komolyabban az AMD gepek epitesevel.
talán így majd fognak." Intel kénytelen lesz megadni az Nvdiának az NV link támogatást "
előbb fogsz AMD cput látni NVLinkkel, mint Intelt.
-
Shing
őstag
Csak akkor PC fronton kellene már vmi az AMD-tól is. Ez a DLSS tipikusan olyan, amin rengeteget lehet még optimalizálni. Lehet hogy lassan itt a 3.0, nem tudja majd a konkurencia felvenni a harcot, mert addigra az NV-nél be lesz járatva az AI, jönnek a jobb algoritmusok és egyéb finomhangolások a megszerzett tapasztalatok alapján.
-
paprobert
őstag
"Semmi nem jó amit a zöldek csinálnak neked semmilyen fejlesztés vagy újítás, csak a mit a másik oldal."
Ha a hardver heterogén jellegű, de legalábbis univerzális irányba hat, mint a Kaveri, akkor az a jövő, és nem elpazarolt tranzisztor.
Ha viszont széles AVX vagy tensor feldolgozókról van szó, akkor az csak felesleges erőforrás-pazarlás, miközben lehetne jövőbe mutatóan homogén rendszereket is tervezni.
Hát nem érted? /s
Egyébként érteni vélem hogy mire céloz Abu is, azaz hogy a nagyobb feature list most megbosszulhatja magát ha a node nem elég jó.
-
Abu85
HÁZIGAZDA
Ez a gyártókon múlik, hogy küldenek-e a régióba hardvert. Az AMD valószínűleg, mert nekik van a régióban dedikált érdekeltségük, sőt, éppen bővítenek. Tehát mi sosem utasítottuk el azt, ha valaki NDA-ra küldött teszthardvert. Tudtommal más sem a régióban, láthatod is, hogy az AMD-ből mennyire sok teszt érkezik az egyes termékek megjelenése után. És most nem csak rólunk beszélek, hanem a többi hazai médiáról. Tehát ha a gyártócég küld hardvert, akkor vannak hazai tesztek is.
Az nyilván sajnálatos, hogy az AMD-n kívül mindenki kivonult a mi régiónkból. Ennek nagyrészt a YouTube az oka, amivel a gyártók már nem érdekeltek a részletes tesztekben, mert kiszámíthatatlanok. Elárulom, hogy az AMD érdeklődését is egy tech-geek ember tartja életben, aki a minőségi tesztek híve, ezért YouTube influenszerek ide vagy oda, ő direkt a szakértő médiáknak adja a hardvereket elsőként. Ha ő nem lenne, akkor az AMD-nél is valamelyik PR ügynökség döntene, és kapná a holmit valamelyik influenszer, leírják neki, hogy mit kell mondania egy tíz perces videóban, és ennyi.
(#41351) Malibutomi: Tudok.
Nem hiszem, hogy a neten ezek az infók megjelentek már. Én is arra várok, hogy több OEM-hez eljusson, mert most még beazonosítható forrás. Bajt meg nem akarok neki. -
Abu85
HÁZIGAZDA
Az RT-vel sokat nem érnek gépi tanulásnál.
A vezérlők, regiszterek és buszrendszer brutális tétel. A multiprocesszor nagy részét elviszik. Hitted volna?
A dedikált RT valamivel könnyebb. Az egy fixfunkciós blokk. Nem szükséges hozzá bonyolult belső busz, regiszter, a vezérlője is egyszerűbb, sokkal.
Majd meglátjátok ősszel mi lesz az RDNA2-Ampere viszony. Izgi lesz, sőt, soha ilyen izgi nem volt, na jó ez talán nem igaz, de az elmúlt pár évben semmiképp.
-
-
-
-
GeryFlash
veterán
Hmm így felfutott az ARM azon a vonalon?
Amperéről hallottam hogy kezdi kinőni magát de azt nem gondoltam volna hogy valós veszély az Epyckekre, én még ott ragadtam le hogy az ARM nem skálázódik jól fogyasztás növeléssel és hogy kb 7-8 éve várandó bbetöérsük a szerver szegmensben csak nem jön el.
-
GeryFlash
veterán
Meglátjuk de szerintem más szegmens. Én inkább tényleg attól félek hogy AMD tényleg behúzza a féket ezek után. Mire ezek kiszenvedik magukból a 7nm-t (ami nyilván nem lesz elsőre olyan jó mint az AMD 3. 7nm-en kiadott ryzen 5xxx processzora) addigra TSMcnél már nem is a 3nm lesz a legújabb és legdrágább node hanem 2nm. Most tényleg lejöhet a pár éve még Intelnél vizionált fiókból előhúzunk ha gáz van mechanizmus.
Az más kérdés hogy az Apple átnyergel ARM-re, de azzal egyikük se tud mit kezdeni. Mondjuk ami miatt szarba kerülhet pár év múlva az AMD az, ha ez beindít egy láncfolyamatot és az MS is csinál valami értelmes ARM platformit, a 15 watt alatti lapkáik az AMDnek eddig rendre szarok voltak.
-
Jacek
veterán
Nincs itt semmi problema:) En csak ravilagitottam ha tisztan a teljesitmenyt nezzuk mi a helyzet.
Megvehetned nyugodtan a Thicc II-ot az a video az elso hibas hutesu szeriaval keszult, amit csereltek nem hangos es a teljesitmenyt is hozza, de termeszetesen nitro+ vagy gaming jobb.
De a triple fan NV oldalon egy raklap fos kulonben :)
Most eladom a Thicc II majd es egy 670 :) :) lesz a gepben vagy az integralt. -
Jacek
veterán
Ertem en 110-ert vettem az XFX 5700XT Thicc II-ot :D Biztos talalok 130-ert 5700xt most is. Tehat maradt az 50e csak az arany lett meg rosszabb. Meg a 2070-el mit szeretnel? Akkor az 5700 meg olcsobb.
Halal komolyan kerdezem ezek a kesobb jott ki full hasznalhatatlan featurek kit erdekelnek? Tehat ha te kartyat vasarolsz azt nezed ezek kb ugyan azt tudjak az egyik 25-30%-al olcsobb de jaja kesobb jott ki nem azt veszem :D fanboysagnak is van hatara :) Nem kell irnod szar volt nalad is a driver :)
Ha most neztem az alzat van igen ez a triple fan akcioban a tobbi, juj 200 felett joval:) de ott a Thicc II 138e-ert:D Akkor igy csak 30%-al dragabb hogy megeri... -
-
Tegyük hozzá, hogy az Intel (az utóbbi időkig) még szállítás terén is megbízhatóbb volt, mint az AMD. A Dell esetében legalábbis kb. tavaly év vége felé kezdett el normalizálódni a helyzet. Ha Intel Xeon alapú szervert szerettél volna, csaknem azonnal tudtak szállítani tavaly szeptember-október magasságában. Ha AMD Epyc alapút, akkor vagy nem is nagyon mertek szállítási időt mondani, vagy több hónaposat tudtak csak adni, mert az AMD ellátási lánc késésben volt.
Az Intel féle szállítási problémák ellenére a Latitude-okból is könnyebb Intelest szerezni, mint AMD Ryzenest...
-
A TPU ír erről, nevezetesen, hogy egy DigiTimes forrás szerint tavaly az nVidia még úgy futott neki a dolognak, hogy a Samsungnak adna egy jelentősebb megrendelést. Majd kiderült, hogy az AMD a TSMC 7nm-es gyártókapacitásának jókora részét már lefoglalta. Állítólag az nVidia alábecsülte a TSMC 7nm hatékonyság-előrelépését, és azt hitte, hogy a Samsung gyártástechnológiája kellően versenyképes lesz.
A helyzettel szembesülve az nVidia húzott egy merészet, és bár a 7nm-es gyártósorokról részben lecsúszott, a TSMC előrehaladott 7+ és 5nm-es gyártástechnológiájából egy jókora adagot lefoglalt. A DigiTimes forrása szerint a Samsung féle gyártástechnológiát a TSMC-vel való tárgyaláskor szándékoztak árcsökkentő érvként az asztalra dobni, de visszafogott sikert értek el vele, mert a TSMC egyszerűen egy jókora lépéssel a Samsung előtt jár.
Az utolsó mondat szerint az nVidia 7 és 5nm-es gyártástechnológiájú Wafereket így a TSMC-től és a Samsungtól is vásárol...
-
Kíváncsi leszek mire utalt Huang bá,mikor azt mondta CPU kérdésre, hogy minek költsenek milliókat fejlesztésre mikor meg is lehet venni készen őket
Az AMD iGPU-s Intel proci után esetleg venne az nVidia komplet design-t az AMD-től?
és ennyit arról ami Cifu és Abu között téma volt, hogy Nvidia mit tud megvenni gyártókapacitásban és csíkszélben ha akar és mi mit ér meg nekik. Kíváncsi leszek nagyon.
Ez amúgy azért durva igazán, mert eddig az 5nm-től emlékeim szerint nem volt szó, a 7nm-ről igen. Nyilván az 5nm-t a HPC-nek szánják, de ez egyben óriási ugrás a zöldeknek. Az AMD az RDNA2 esetében is 7nm-t (vagy 7+) használ a jelen tervek szerint. Az RDNA3 majd 2021-re várható, és ott a korábbi diákon "Advanced Node" szerepelt.
A zöldek megint beelőznek, és hülyére verik a piros GPU-kat, ha még egy node szintnyi előnyük is lesz...
Ez nekünk vásárlóknak megint nem lesz jó. -
Petykemano
veterán
Jó, azért ez még mindig nem jelenti azt, hogy a mainstream gpuk is 5 meg 7 nm-en fognak készülni.
Nem arról volt szó, hogy az nvidia számára a 7nm túl drága ahhoz, hogy minden azon készüljön. (Persze a túl drága itt a legmagasabb margót jelenti nem azt, hogy ki tudna-e fizetni) viszont ha csak a HPC holmikat gyártják ott, az annyira kis volumen, Amivel eddig elhajtották?
Mit gondolsz a CDNA vagy CDNA2 is chiplet lesz?
-
Petykemano
veterán
Bár az IBM nem annyira uptodate manapság, de velük volt a legszorosabb kapcsolat korábban.
De van már vagy három arm alapú 64+ magos szerver CPU. Ezek ma még lehet, hogy csak papíron léteznek, de papíron nem rosszak és tényleg meg lehet venni készen.
Nem hiszem, hogy ezek a tervező.cégek ne lennének készek hozzáigazítani a - még csak papíron létező - architektúrájukat az nvidia gyorsítójához.
-
Locutus
veterán
-
Devid_81
félisten
-
keIdor
titán
Én nem temetem, csak azt szeretném jelezni, hogy azonos áron a PC akkor is rosszabb választás lesz. A nextgennél is, valamint jelenleg is. Használt hardvert ha nézzük, akkor használt konzol is van.
Többet tud nyújtani a PC, mert nem akadály most már a fix natív 4K, nem akadály akár a 120Hz+ sem, csak sokkal több pénzbe kerül mindez.Aki írtózik a controllertől, ott elfogadható indok az, hogy nem akar konzolt. Akinek viszont a controller nem probléma, ott akkor is jobb választás a konzol. Akkor vegyen PC-t az ember, ha többet szeretne, csak számolni kell azzal, hogy drágább buli lesz.
-
keIdor
titán
Ugyanakkor a két új konzol specifikációi már ismertek.
Nem gondolnám, hogy fényes jövő áll egy 6 magos proci meg gyengébb VGA előtt úgy, hogy sokkal limitáltabb API-val kell dolgozni PC-n és a közös memória szintén hiányzik. Ray Tracing kapásból nincs egyik PC AMD VGA-nál sem.Mit vennél 250k-ért, most őszintén? Valamelyik új konzolt, ami 3 év múlva is céleszköz marad, vagy a gyengébb hardvereket, ahol azok a gyengeségek is szerepelnek, amit felsoroltam?
PC-n pont nincs használtpiac, minden amit fizikai formában megveszel (lemez) be kell regisztrálni valamelyik platformba és onnantól az kötött az accountodhoz. -
Abu85
HÁZIGAZDA
Igen. A föntire. Ott kell nézni a GPU memóriáját, ami 1.0/16.0 GB éppen. A grafikus egység megosztott memóriája nagyon pontos. A dedikált kiírás sajnos nem annyira pontos, innen származnak az eltérések a profilozókhoz képest. Ez az a rész, amit az OS nem igazán lát explicit API-val, és kb. semmi.
-
Callisto
őstag
Pedig bizony igaza van és ezt benne lévő fejlesztőként tudom alá támasztani. Sajnálatos, hogy egyesekben annyi utálat van teljesen indokolatlanul, hogy márcsakazértis hajták a hülyeségüket folyamatosan csak azért, hogy csesztessék a kiszemeltet. És nevetséges, hogy nincs jobb dolguk, mint itt tölteni az életüket, hogy utálatukat ki tudják elégíteni.
-
Abu85
HÁZIGAZDA
Ezek szerint valószínűbb, hogy az AMD/Intel/NVIDIA nem képes erre. Istenem de hülyék, hogy a saját rendszereiket sem tudják, hogy miképp működnek, és azokat sem szerződtetik, akik tudják ezt.
Úgy keverednek ide, hogy ha egy kicsit is pontosak lennének, akkor használhatók lennének fejlesztésre is, de megközelítőleg sem pontosak. Csak félrevezetésre alkalmasak. Emiatt az AMD/Intel/NVIDIA pontos megoldásokat fejleszt, csak azok sok-sok ideig készülnek, mert nem triviális a probléma, még azoknak sem, akik tervezték az adott rendszert. Ne hidd, hogy akik ebben a folyamatban részt sem vettek, azok okosabbak náluk.
-
Abu85
HÁZIGAZDA
Ezernyi cikk van arról, hogy a homeopátia hatásos. Most akkor az?
Gondolkodj mielőtt elhiszel valamit. Majdnem öt év telt el a DirectX 12 megjelenése óta, és még nem kapott az API memóriaképet biztosító profilozót. Ehhez képest gondolod, hogy egy csomó program, mindenféle komoly anyagi háttér nélkül, dokumentációk nélkül megmondja, hogy mi van a VRAM-ban, amikor az AMD-nek ez öt évbe telt, úgy hogy ők tervezték a hardvereiket, és a drivert is hozzájuk, vagyis ismerik a forráskódot. Eközben az Intel és az NV még nem kínál ilyen lehetőséget. Még nem, de majd egyszer fognak. Persze nem is értem, hogy miért nem szerződtetik az Afterburner programozóját, fenéket ölne ebbe éveket és egy rakás pénzt, amikor kint van egy ember, aki tudja és megmondja.
-
Abu85
HÁZIGAZDA
Tényleg elhiszed amiket ezek a programok kiírnak? Maga az operációs rendszer nem képes rá, mert az API nem támogat kernel szerver szálakat. De egy garázsban egy kisgyerek ír egy alkalmazást, ami kijelzi a VRAM-használatot, miközben az explicit API-k megjelenése után több évvel jön végre egy olyan profilozó, ami memóriaképet tud adni a fejlesztőknek. Ha ez a probléma olyan egyszerű lenne, akkor a fejlesztők nem könyörögnének a jobb, akár memóriaképet adó profilozókért, hanem izzítanák az Afterburnert, és hiba nélküli memóriamenedzsmenteket építenének a játékaikba, mert az Afterburner megmondja. De nem ez történik, mert rohadtul nem mond meg semmit. Maximum félrevezet.
-
Abu85
HÁZIGAZDA
Én egy oldalt se láttam, ami megnézte volna profilozóval. Más nem látja a memóriát, csak tippel.
A 3rd party cuccoknak DX12/Vulkan API-ban ne higgyetek, magának az operációs rendszernek is elvették azt a jogát, hogy lássa a VRAM-ot. Hogy látná már azt egy olyan alkalmazás, amely azt se tudja, hogy a meghajtó mit csinál?Várják meg amúgy az RGP 1.5-öt. Abban a világon elsőként lesz memóriakép. Nem csak leírja, hogy mi van a memóriában, hanem le is rajzolja, hogy miképpen van benne, hogyan helyezkednek el az allokációk, azaz milyen a fragmentáció. Az már egy eléggé pontos adat lesz, hogy egy program mennyi memóriát igényel valójában.
Ha az RGP nem opció, akkor a Windows beépített mérője a legjobb. Nem pontos, de nagyságrendekkel pontosabb, mint egy Afterburner, meg a többi jósda.
-
Abu85
HÁZIGAZDA
Nagyon nem dolgoztak rajta. Egyszerűen mindenre szokatlanul nagy felbontású textúrákat használnak. Ebben a tömörítésnek nincs szerepe. A DirectX API-ban eléggé szabványosítva van, hogy milyen BC formátumok vannak az egyes problémákra. Ha nagyon akarnának erre gyúrni, akkor használtak volna ASTC-t az AGS-en keresztül, de nem tették, mert ugye kétszer kellene szállítani a tartalmat. És annyira sokat ezzel amúgy nem nyernének, maximum -20%-ot, miközben a játék telepített mérete majdnem megduplázódna.
A játék és a 3rd party programok kijelzése között az a nagy különbség, hogy a játék eléri a VRAM-ot, míg a 3rd party programok nem is látják. Emiatt egy nagy kövér hasraütéses tippelés, amit csinálnak. Én ezeket szoktam nézni RGP-vel, és a közelében sincs a valóságnak DX12-ben vagy Vulkan API-ban az afterburner. A legközelebb a Windows 10 feladatkezelőjében beépített mérő jár. Nem annyira pontos az sem, mint egy profilozó, de tényleg nincsenek 50-60%-os eltérések, inkább 3-5%. Az meg ugye reális, mert a profilozó az mégis egy frame-ről ad információt, míg a Windows 10 mérője nem.
Az RE2 Remake egyszerűen ennyit kér. Az volt a koncepciója a Capcomnak a memóriamenedzsmenttel, hogy nyugodtan rá lehet adni az maxot, a játék maximum nem tölti be a legnagyobb textúrákat, ha nincs hozzá elég nagy memória. Ehhez egyébként az is kellett, hogy ne csökkentsék mesterségesen a textúrák felbontását, hanem úgy voltak vele, hogy leszállítják a natívot, ahogy elkészültek. A legtöbb játék esetében tudni kell, hogy messze nem kapják meg azt a minőséget, amin amúgy elérhető lenne. Egy csomó olyan döntést hoznak a kiadás előtt, hogy bizonyos textúrákból csak a megalkotott felbontású verziónak a felezett minőségét szállítják. Emiatt férnek bele a játékok jórészt a 8-12 GB-ba. De ha ezzel nem akarnak törődni, akkor ki lehet adni a tervezett minőséget, az bizony zabál rendesen. Ha jól működik a memóriamenedzsment, és képes kezelni ezt a problémát, akkor tulajdonképpen miért ne, akinek megvan a VRAM-ja élvezheti tényleg maximumon, akinek pedig nincs meg, annak a memóriamenedzsment megoldja a minőségcsökkentést.
-
-
Raymond
titán
En ezt neztem ugy ket napja:
Resident Evil 3: Raccoon City Demo Gameplay 4K 60
Eszmeletlen jol nez ki, minosegi munka az a level es character design.
-
Abu85
HÁZIGAZDA
A Vulkan az 1.2 óta eleve támogatja a HLSL-t. A shader modell 6.2-ig minden le van fedve a SPIR-V 1.5-ben. [link]
Egyébként új hardver nem kell. Az új DXR fejlesztések minden tudnak szoftveresen futtatni, ha az új lépcsőknek nincs hardveres háttere. Az egész DXR-nek meg van írva a teljes fallback compute shaderre. Ugyanígy a Vulkan API-ban is lesz egy compute shader fallback, ha a hardver nem alkalmas az egyes lépcsők gyorsítására. Vagy azért, mert nincs benne megfelelő célhardver, vagy mert az elavulttá vált.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Honor 200 Pro - mobilportré
- EA Sports WRC '23
- Milyen okostelefont vegyek?
- Milyen széket vegyek?
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Counter-Strike: Global Offensive (CS:GO) / Counter-Strike 2 (CS2)
- Azonnali fotós kérdések órája
- Android alkalmazások - szoftver kibeszélő topik
- Futás, futópályák
- BMW topik
- További aktív témák...
- Samsung Galaxy A04 128GB, Kártyafüggetlen, 1 Év Garanciával
- 115.000 ft -tól Országosan a legjobb BANKMENTES részletfizetési konstrukció! ASUS ROG Strix G18
- HP 200W (19.5V 10.3A) kis kék, kerek, 4.5x3.0mm töltők + tápkábel, 928429-002
- Bomba ár! Dell Latitude E7250 - i7-5GEN I 8GB I 256SSD I 12,5" HD I HDMI I Cam I W10 I Garancia!
- Samsung Galaxy A13 64GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest