- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Redmi Note 9 Pro [joyeuse]
- Motorola Edge 50 Neo - az egyensúly gyengesége
- Érkezik a Samsung Health előfizetés?
- India felől közelít egy 7550 mAh-s Redmi
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Ford SYNC 3 infotainment rendszer teszt
- iPhone topik
- Motorola Moto Tag - nyomom, követ
- Samsung Galaxy S21 FE 5G - utóirat
Új hozzászólás Aktív témák
-
Petykemano
veterán
válasz
joysefke #2954 üzenetére
Igen, jóval kevésbé kritikus mondjuk egy 8 magos 2ch 3600Mhz-es otthoni konfig esetén
De hangok szólaltak meg a 64 magos EPYC esetén, hogy 64mag 8ch - nem lesz az kevés?Én nem tudom megmondani, hogy kevés-e, vagy hogy a nagy L3$ kompenzál-e vagy ilyesmi. csak mondom, hogy ezek a hangok azért megszólaltak most.
Amúgy késleltetéssel kapcsolatban valószínűleg igazad van.
A PS5-ben a kraken az SSD-n tömörített adatokat fogja kitömöríteni.
Egyébként vannak ilyen cuccok. csak rákerestem: CRAM
-
Petykemano
veterán
Raven Ridge - műértőknek:
[link] -
Petykemano
veterán
válasz
joysefke #2951 üzenetére
Tök jó
A 3700U-val szemben is elég impozáns előrelépés (+~70%)
És a 3400G-t is meglépi 10%-kal.Én a magam részéről nem számítanék arra, hogy a 4400G is majd a a 3400G-re 70%-ot rálapátol, de ex/has 20-25% lehet, hogy lesz.
Nyilván továbbra is korlátozó tényező a memóriasávszélesség.
Ehhez az előrelépéshez is nyilván kellett az is.Coreteks az egyik videojában beszél arról, hogy a gpu-k - ide értve az IGP-ket is - gyorsaságában (is) mennyire nagy szerepe van a memória sávszélességnek. Talán a konzolokkal kapcsolatban mondta, hogy durván számíthat a memória-tömörítés képessége. Az nvidiának erre külön DSP-je is van, hogy minél hatékonyabb tudjon lenni a tömörítés. És hogy ennek a sávszélesség növelésében mekkora szerepe van.
(Amúgy különös, hogy ilyen technikákat vajon a CPU-k vonatkozásában vajon miért nem vetnek be? Hiszen a sokmagos designoknál különösen fontos kérdéssé léphet elő, hogy mekkora sávszélesség jut egy magra)
Nem tudom, hogy van-e ebben a kérdésben szerepe CDNA RDNA különválásnak.
Van itt a tarsolyban Cezanne, Van Gogh, meg ilyenek.Úgy vélem, hogy ilyen tömörítéses technológiákat mindenképpen beépíthették a Renoir Vega IGP-jébe. Az, hogy milyen nagy tényleges sávszélesség áll rendelkezésre, azon nem tudnak változtatni. (DDR5, vagy HBM)
Ha az AMD a navi cache hierarchiájával esetleg jelentősen tudott még javítani, akkor elképzelhető, hogy lesz olyan design, amiben Navi és több CU (WGP) vanDe én azért csodálkoznék, ha év vége előtt bármi ilyesmi megjelenne, amivel lényegében beleharapna a nemrég megjelent 5500M piacába.
-
Petykemano
veterán
válasz
paprobert #2949 üzenetére
A 47ns egy átlagérték, ha jól gondolom. rákerestem, jópár helyen L3$ latency-re ilyen 10-13ns értékek vannak, tehát ez nyilván nem független a kiolvasott adat méretétől.
Azt nem tudom, hogy az mennyit adhat hozzá egy consumer életéhez, hogy onnantól nem 16mb, hanem 32MB L3$ érhető el egy maggal. Mármint nyilván ST szempontból.
Azért nehéz kérdés ez, mert eddig szembe kellett nézni olyan kérdéssel, hogy ha 2 magos terhelés van, akkor mi az előnyösebb? Ha ugyanabban a CCX-ben indul a második szál, mint az első - akkor a hőtermelés ugyanazt a CCX-et terheli, és a két mag osztozik az egy CCX-hez tartozó gyors elérésű L3$-en, de ha adatot kell megosztani, akkor az gyors.
A másik lehetőség, hogy a másik CCX-ben levő magon fut a másod szál, akkor magonként ugyanannyi a cache, nem kell osztozni, de ha adatot kell cserélni, akkor az a memórián keresztül történik, tehát nagy a latency impact.
Ez a kérdés - legalábbis CCD-n belül - felszámolódik.
Szerintem ennek ott lesz leglátványosabb hatása, ahol a Ryzen eddig gyengébbnek tűnt, mint az inteles versenytársak: a játékokban. -
Petykemano
veterán
//////////////// fake news \\\\\\\\\\\\\\\\
-------------------------------------------------------------
CSAK ERŐS IDEGZETŰEKNEK
-------------------------------------------------------------Új video a zen3-ról: AdoredTV-től
Figyelem: A videoban tálalt információk nem tények, nem jóslatok.
A szerző elmondása szerint csupán egy neki eljuttatott információcsomag,
- amely információ éppenséggel lehet valid, és végül vagy igaz, vagy nem *
- vagy amit lehet, hogy az illető csak kitalált,
- vagy lehet, hogy csak AdoredTV talált ki.*: vajon lehetséges-e, hogy több különböző csapat több különböző IP fejlesztésen dolgozik és Ez a leaker csak az L3 cache összeolvaszásának és megosztásának hozadékát látja az IPC növekedésből. Az SMT4-et egy másik tervhez (pl Frontier) egy másik tervezőcsapat teszi bele a'la semi-custom, és esetleg más fejlesztések is másutt készültek?
-
Petykemano
veterán
válasz
solfilo #2945 üzenetére
Teljesen értem a kérdésed.
Én is azért legalább 3-4 gyártótól egy 8 és egy 6 magos designra számítottamLehet, hogy "csak" arról van szó, mint mindig, hogy elkészítik a gyártók az intelre szabott designokat, aztán abba a kaszniba (=külső, belső minőség és felszereltség, képernyő méret és minőség, akksi), amibe az intel 4 magos kerül, betolják az amd 8 magosát és 50%-os feláron kínálják, merthát mégiscsak jó. Viszont hiába jó, mert elbukik, mert azon az áron már nem ezt a külső-belső minőséget várja a vásárló.
-
Petykemano
veterán
válasz
solfilo #2941 üzenetére
Azt mondják, mindenki a saját keresletének rabja.
Ezzel magyarázzák, hogy az OEM gyártók eladásai a benchmarkokra kevésbé rugalmasan reagálnak. Merthogy reagálnának ők, csak hát a polcokról az intel terméket viszik el, azt keresik.Én nem tudom, nem vagyok szakértő, de biztos van benne valami, hogy nem fogják a Media Marktban úgy keresni a notikat, hogy "hé, szakikám, az AMD Renoirral szerelt notebookokat merre találom?" Ha ilyen mégis megtörténne, akkor a szaki lehivatkozza, hogy hát egyféle érhető el a beszállítóknál, de annyira kicsi rá a kereslet, hogy nem szokták megrendelni, meg kis tételben drágább is. ("Financial horsepower")
Ajánlatok esetleg valamit?Ahhoz, hogy váltás történjen, annak kellene történnie, mint az autóknál a SUV-ok esetén. Azért válik most minden autótípus/kategória SUV-vá, de legalábbis ilyen Cross-izévé, mert az első SUV-ok megjelenése esetén azt tapasztalták, hogy 2-3x akkora a kereslet "ugyanarra a nevű autóra", ha az előző sedan, vagy egyterű helyett valami SUV kivitelt hoztak. És most szinte minden SUV-vá válik, abban a reményben, hogy hozni fogja ugyanazokat a 2-3x-os keresleteket.
Tehát akkor dobna piacra az MSI és a többi több AMD-s notit, ha azt látnák, hogy az Asus Zephyrus G14 bankot robbant.
De miért robbantana bankot, amikor nem az ömlik ránk a médiából, hogy "Pszt, figyu, ne vegyél már ilyen intellel szerelt szart, mert az AMD halkabb, hűvősebb, kisebb és 2-3x annyi ideig bírja az aksi", hanem azt, hogy "az intel új megoldása 5%-ot ver az AMD amúgy remek próbálkozásnak számító Renoir termékére. Ha biztosra akarsz menni, vegyél intelt"
"Csókolom, bácsi, és az aksi meddig bírja?
Jaj, kisfiam, karantén idején, amikor úgyis konnektorrol használod a notidat, ne foglalkozz ilyen hülyeségekkel. Élvezd, hogy +5% és hogy melegíti a kezedet" -
Petykemano
veterán
válasz
S_x96x_S #2924 üzenetére
Ja, hát afelől semmi kétség, hogy egy év alatt javíthattak Annyit a 14nm-en tovább, hogy párszáz plusz megahertz rövidebb ideig beleférjen.
Szóval elképzelhető, hogy a slide nem lódít nagyot.
Amit kétlek azért, hogy ehhez nem kell majd Nagy árat fizetni üzemidőben.Meg hát vajon ez mennyire lesz fenntartható? A nagyobb ipct hozó architektúrához 10nm kell, ott meg valószínűleg kell pár év, mire újra elérik az 5.3GHz-et
-
Petykemano
veterán
4800H
Elég közel a 3700X teljesítményéhezMit gondoltok, ez asztalra felárral lesz kapható (~$400-450), vagy küszöbén állunk annak, hogy chipletes Matisse-ből (illetve persze inkább ami utána jön) ne legyen 1 chipletes változat?
Melyik lehet drágább? a 110mm2 + 80mm2 Matisse, amit még össze is kell rakni, vagy a 160mm2-es Renoir? Selejt persze nyilván itt is, ott is keletkezik.
Próbálom jól megfogalmazni tapogatózó kérdésemet, nehogy itt valaki letorkoljon egy jósgömbbel. Tehát elképzelhető egy olyan irány, hogy a zen1 és zen+ mellett a Renoir fogja kiszolgálni az asztali igényeket is (4 magos, 6 magos, 8 magos túlfogyasztásos selejt) és a Matisse (vagy ami utána jön) egy következő szintre lép? Merthogy most mennyibe lenne a 6 magos mellé még egy selejtes 6 magot odatenni. Mármint mennyivel drágítaná meg azt a terméket, amit most 3600/X néven eladnak? $20-30? Ehhez képest most eladják $450-ért.
De mondjuk eladható lenne jövőre $300-350-ért is akár még mindig nagyobb nyereséggel, mint amennyibe a 3600/X + 1 chiplet költsége kerül.A másik irány persze az, hogy a n magos Renoir az n+2 magos Matisse árában érkezik meg. Mivel elég nagy lehet rá a kereslet, valószínűleg így is fog debütálni.
De amikor megérkezik a Vermeer, lehet-e, hogy abból már nem érkezik 1 chipletes változat? (azt alapul véve, hogy 1 chipleten továbbra is 8 mag van) -
Petykemano
veterán
Konkurenciaelemzés
Na ezt kapd ki:
Marvell ThunderX3
96C / 384T
SMT4"gyenge kis" ARM magok és SMT4? Hö?
Amazon Graviton2, Ampere Altra, Marvell ThunderX3
Utóbbi 2 persze végezheti a fiókban, de eléggé úgy tűnik, hogy papíron (mármint akinél meggyőzőbb tervekkel és benchmarkokkal kell előrukkolni.) már nem is az Intel a konkurencia -
Petykemano
veterán
Nem gondolnám, hogy ebből a consumer piacon bármi egyhamar érezhető volna. Talán valami olyasmi irányt el tudok képzelni, mint az Intel optane,.csak nem dimmben, hanem m.2 csatlakozón át. Protokollt most direkt nem mondok, de.ugye ez nyilván nem kötődik a pcie5-höz.
De a lényeg, hogy a memóriakezelés átalakukhat.Illetve számomra még az kérdés, hogy ha a fizikai csatlakozó ugyanaz, akkor vajon a CXL és társainak sávszélességére hatással.van-e, hogy adott hardver elvileg pcie-ből 3-as v 4-es v 5-ös tudással rendelkezik.
Ez ugye megválaszolná azt is, hogy az IF3 előrelépése alapvetően a PCI5 hozadéka-e vagy pcie4 szempontból továbbra is a 4 lesz érvényben.
-
Petykemano
veterán
válasz
S_x96x_S #2858 üzenetére
Csak az árazás nem lesz elég szerintem.
"Neoverse N1 core is almost identical to the Cortex-A76" (A76 => IntroductionMay 31, 2018)
[link]Már a Cortex A77 is lassan 1 éves. Tehát itt még legalább 1 generációt előre lehet lépni. Ha az Amazon együttműködik az Armmal, akkor már előre megkapják az A78/Hercules terveit.
EC2 A1: Nov 26, 2018
Graviton2: Dec 3, 2019Jövő év végén biztos jön valami új.
Persze ha ez a graviton2 7nm, akkor olyan nagyon előretörni már nem lehet. 5nm és drága, vagy 7nm és esetleg EUVInkább az a durva, hogy 80-110W-ra teszik a fogyasztást. Ez azt jelenti, hogy minimum másfélszer, de talán 2x annyi magot is lepakolhatnak egy node-ba, miközben nincs kompromisszum a ST teljesítményben.
Fel kell kötni a gatyát.
-
Petykemano
veterán
Amazon Graviton2 elemzés vs x86
(A tesztben Naples AMD rendszer szerepel) -
Petykemano
veterán
-
Petykemano
veterán
XL-Flash
Intel optane competitor
Not micron
[link] -
Petykemano
veterán
válasz
S_x96x_S #2844 üzenetére
Én meglepődnék, ha első körben hbm-en kívül bármi 3d lenne.
Tegyük hozzá, hogy a(z IF) fogyasztáson már egy interposer is sokat javítana. Azt is látjuk, hogy van példa arra, hogy Mit tesz lehetővé a CPU maguk mellé pakolt HBM2. (A64FX)
A legpraktikusabb az lenne, ha maga az IO lapka az interposer is.
Aztán persze az elképzelhető kompozíciók száma sok.
-
Petykemano
veterán
-
Petykemano
veterán
válasz
joysefke #2809 üzenetére
Nem tudom pontosan, hogy az Apple-nek milyen előnye származna az Arm-ra váltásból azon kívül persze, hogy már most is van egy cpu tervező részlege, most is nagytételben gyártat és talán olcsóbbra jönne ki, mintha ilyen kapacitás mellett nem külsős komponenseket vásárolna elsősorban ugye notebookokba.
Ilyesmire gondolok, hogy spórolnának-e a szoftveren, ha nem kéne ARm-ra és x86-ra is fordítani, vagy ha átjárható lenne a telefon, tablet, noti, munkagép. (feltéve, hogy most nem az)
És valóban már be is jön egy érdekes kérdés, hogy csak a notikba? És lemond a 32 vagy 64 magos threadripperről? Vagy ugyanúgy meghagy egy törésvonalat az Arm és az x86 között, csak más termékskálán?
Amúgy akik arra tesznek, hogy az Apple váltani fog saját cpu-ra a nagyobb mobil eszközök esetén is abból indulnak ki, hogy milyen fejlődést járt be az Arm önmagában és különösen az Apple tervezőinek keze alatt: év 20-30% IPC és 5-10%-os frekvencia emelkedés.
1) Ha és amennyiben ez a fejlődési ütem megmarad
ÉS
2) Ha és amennyiben a harmadik féltől vásárolható x86 procik teljesítménye nem kezd el hasonló ütemben növekedniakkor ha most azonnal nem is, de 2-3 év múlva meglehet az a teljesítmény/üzemidő előny, amiért már - a usereknek is - megérné bevállalni a váltással járó kellemetlenségeket.
De nyilván ha valaki ilyesmit fontolgat, akkor az erre való felkészülést (tervezést) már most el kellene kezdeni.Én nem állítom, hogy erre nagy esély van (mivel azért úgy tűnik, az AMD diktál egy tempót és az intel is össze fogja szedni magát), de szerintem nem is zárható ki 2-3 éves távlatban.
-
Petykemano
veterán
válasz
paprobert #2808 üzenetére
"Az internetet sikerült azért olyan APIk és protokollok mentén megoldani, amelyek gyártó agnosztikusok, és nem szükséges szerver-kliens arch azonosság. "
Ha viszont így van, akkor az sem jelent kötőerőt már, hogy ha x86-os gépen fejlesztesz, akkor az a tuti, ha biztos, ami biztos a production platform is x86. Hanem lehet tényleg az, amin a szoftver jobban fut, ami kevesebbet fogyaszt, vagy amit a hyperscaler legolcsóbban kínál, stb.(Ez persze nem teszi igazzá, amit coreteks mondott a mobiltelefonokkal kapcsolatban.)
-
Petykemano
veterán
válasz
Petykemano #2806 üzenetére
"We’ll be unpacking more the details in those parts as time goes by,” said AMD’s Norrod, “Our next disclosure on Genoa will, quite frankly…we’ll say a little bit about that at our financial analyst day which is this Thursday."
"At the pre-briefing, a question was asked about El Capitan’s ability to use non-GPU accelerators. Scott said while GPUs are currently the AI accelerator of choice, many users are looking at alternatives and that El Capitan’s system architecture is “designed to accommodate that kind of heterogeneous mix.”"
Zen3 még ki se jött, de már a zen4-ről van szó.
Jó, persze a FAD-on az El Capitan-ről kell beszélni és akkor nyilván pár inycsiklandó részletet el kell ejteni.(Egyébként valószínűtlennek tűnik, hogy a zen4 2021-ben jöjjön ki, de az arra épülő supercomputer 2023.)
-
Petykemano
veterán
El Capitan
AMD+AMD
2exaflops
Genoa, 2023
IF3 - unified memory access cpu+gpu -
Petykemano
veterán
válasz
paprobert #2803 üzenetére
Szerintem egyelőre a mobil kliens és a szerver között nem annyira szoros az összefüggés. Ez persze változat. De a Linus Torvalds mondását a fejlesztő eszköz és a szerver között erősebb az összefüggés, valódibbnak gondolom. Ő azt mondta, hogy az x86 szerverek közötti terjedését az olcsóság mellett az tette kényelmessé, hogy forgattál valamit a fejlesztő eszközödön és biztos lehettél benne, hogy az fog futni a szerveren is, nem fogsz belefutni platform-különbségek okozta hibákba. És hogy ez Arm szerverek széleskörű terjedéséhez az kellene, hogy a fejlesztő eszközök lecserélődjenek Arm alapúra.
Persze ez egyáltalán nem kizárt. Ha pl az Apple vált Arm-ra, akkor máris egy elég széles réteg fejleszt Arm processzoron és az lenne számukra a legkényelmesebb, ha biztosan semmilyen gebasz nem történik scak azért, mert a felhőben x86 procin fut, amit készít.
-
Petykemano
veterán
válasz
#82819712 #2800 üzenetére
az vótmá
Viszont:
Coreteks beszél a Fujitsu A64FX-ről
- a chip egyszerre tud cPU-ként és GPU-ként funkcionálni
- a HBM2 nem csak hogy ezt lehetővé teszi, hanem jobban skálázhatóbbá és kisebbé teszi az egészet, mint hagyományos CPU+GPU+RAM összeállításokat.Azt gondolom ez alapján, hogy a jövő iránya mindenképpen az, hogy a relatív távoli és nagyméretű DRAM-ot le fogja váltani, de minimum ki fogja egészíteni a sokmagos CPU chipek mellett közvetlenül elhelyezett relatív kis mennyiségű HBM, ami közvetlenül a háttértárról streameli a számára szükséges adatokat.
Mai számokkal ha egy node-ban jelenleg elhelyezhető 256GB RAM, és 4 cpu, akkor ez úgy fog kinézni, hogy a CPU-k mellett lesz 32 vagy 64GB HBM és a DRAM vagy megszűnik és akkor nem is fogyaszt, vagy persze az is elképzelhető, hogy valamiféle 5. szintű cache-ként funkcionálhat a háttértár és a HBM között. De ez a funkcionalitást szerintem át is kerülhet az interconnectbe (buffer), ha nincs már most is ott.
Azért a IF-fel és EMIB/Foveros-szal összehasonlítva elég jó számok.
Ha az Ampere nem volt, elég ezzel kiegészülva ez így eléggé siralmas az intelre és az AMD-ra nézve.
Vajon mit hozhatna nekik a konyhára a CPU mellé helyezett HBM?
Vajon mit tudnának kezdeni vele? Elkezdik beépítani a GPU funkcionalitást a CPU-ba? Egyesül a CPU mag és a GPU EU/CU? Vagy maradnak a külön tervezett chipletek, mégha össze is csomagolják? (ez egyfajta statikus felosztás) -
Petykemano
veterán
válasz
Cathulhu #2793 üzenetére
Érdekes, de a simlisségek ellenére vannak méltató szavak:
Microsoft, Oracle, gigabyte, Lenovo
“We are pleased to see the launch of the Ampere Altra cloud optimized platform that helps bolster our hyperscale datacenter priorities around power efficiency, resiliency, telemetry and security. Ampere’s standards-based approach made it easy for us to bring up our software stack and we are actively evaluating their systems in our labs.”
Dr. Leendert van Doorn, Distinguished Engineer, Microsoft Azure, Microsoft CorpEz alapján lehet, hogy lesz tényleges érdeklődés
-
Petykemano
veterán
-
Petykemano
veterán
válasz
S_x96x_S #2790 üzenetére
Az az érdekes, hogy - eddigi infók szerint - az AMD Milan nem hoz több magot.
Az intellel szemben persze nem is kell, de ilyen kihívókkal szemben igen. Nem gondolnám, hogy az most tényleges versenytársa lenne az intelnek vagy az Epycnek. Ugyanakkor lehetnek, akik meghosszabbítják a trendvonalat és számolnak azzal, hogy 2-3 év múlva mi lesz. Úgy ruháznak be, vagy úgy fejlesztenek. Ebben az értelemben mondom, hogy különös, hogy nem lesz több mag. Pedig a mindshare megtartásához nyilván kell, hogy aki erre felkapja a fejét, az amikor meglátja a Milant, az majd akkor legyintsen erre, ahelyett, hogy elkezdje nyomon követni. -
Petykemano
veterán
Úgy örülök, hogy ezen a fórumon mindig vannak, akik a mondandómban megtalálják a lényeget és rámutatnak, hogy nem tehetek egy állítást sem anélkül, hogy minden egyes körülményt, előzményt 25 oldalas esszében ne tárgyalnék ki ezzel ablakot nyitva az önelégült kiigazításnak.
Nyilván amikor azt mondom, hogy kínának a $100Mrd szerverpiacra fáj a foga, akkor valami hamis nyugati biztonságérzet szól belőlem. Mintha ez nem történt volna meg a Mobiltelefon piacon a huaweivel és a xiaomival.
Ne zavarjon, hogy egy mondattal utána mondtam hogy ez nem jelenti azt, hogy ne tudnának átállni innovatív fejlesztésre. Elnézést, hogy nem több bekezdésben fejtettem ki a szituációt. -
Petykemano
veterán
Kínának már két x86 gyártója is van mat.
- Via/Zhaoxin
- HygonA kínaiak sosem volt jók új dolgok fejlesztésében. Viszont remekül másoltak. Teszem hozzá gyorsan, hogy ez persze nem jelenti azt, hogy buták, vagy hogy ne tudnának átállni innovatív fejlesztésre.
Erre jó példa a repülőgép hordozó anyahajó. Évekig képtelenek voltak kifejleszteni. Végül valahogy birtokukba jutott egy ukrán vagy orosz ócskavasnak leselejtezett példány és azóta nem csak azt újították fel, de megfejtették a titkát és építik a sajátot.
Én valami hasonlóra számítok az x86 terén is.
Az az igazság, hogy nagyon nehéz úgy fejleszteni.valami jót, hogy arra nincs felvevőpiac. A kínai gazdaság államkapitalizmus. A Zhaoxin nem (csak) azért gyenge, mert kínai, hanem mert a kutya nem veszi, nincs bevétel, nem tudják a fejlesztés mögé tenni a tőkét.Tehát ami szerintem történni fog:
Most megszerezték a zen IP-t. Olyan, amilyen, de még ezzel is lehet, hogy a Zhaoxin procik fognak majd ugrani egyet. 2-3 évig még reverse engineeringgel másolni próbálják az amerikai konkurenciát. Taiwan kiskína...Eközben ugyebár elindult az kínai számítógépek hazai gyártásúra való cseréje az államigazgatásban.
Azt azért szögezzük le, hogy a legtöbb ország nagyvállalatának a hazai piac az alapja. Németországban Audi, Mercedes, (opel) volt az állami autó, franciaországban Renault, Citroën.
A hazai államigazgatásár egy kellően nagy piacot fog adni ahhoz, hogy a fejlesztésbe több tőke menjen.Kína célja szerintem elsődlegesen NEM a saját gyártású processzor a hazai piacon. Nem tűnt fel, hogy ma már Kína a szabadversenyes kapitalizmus, a szabad kereskedelem legnagyobb szekértolója? Kína a nemzetközi x86 piacra akar betörni, ez egy minimum $100mrd-os piac.
És ez a válasz arra is, hogy miért x86 és miért nem Arm.
-
Petykemano
veterán
válasz
Cathulhu #2766 üzenetére
Persze, szép fokozatosan építheti a mindshare-t. Ez volt benne implicit a próbavásárlásos kérdésemben. Fogalmam sincs, az a 80k mag mekkora tétel az azure összkapacitásában, de elképzelhetőnek tartom, hogy ha beválik a próbavásárlás és a következő beruházási körben az AMD még mindig jobb, akkor már nagyobb tételben nyergelnek át.
A google cloudban pl még mindig vannak haswell szerverek. Azt gondolnám, hogy egy epyc mellett azok üzemeltetése már áramfogyasztás tekintetében lényegesen rosszabb lehet, és sűríteni is lehetne, tehát helyfoglalás szempontjából sem ideális.
Oda akarok kilyukadni, hogy ha az erőviszonyok változatlanok maradnak, akkor valóban várható, hogy a Milanból még nagyobb tételeket fognak értékesíteni
-
Petykemano
veterán
Rome@Azure
12500 64 magos rome.Ez max $100m
Ezek még mindig elég kis összegeknek tűnnek...
Ezek lehetnek még csak ilyen próbavásárlások?
-
Petykemano
veterán
-
Petykemano
veterán
válasz
joysefke #2757 üzenetére
Nem, vagy nem csak gúnyolódást érzek.én, hanem egyfajta berágást.
Ha a cloudflare alkalmazta az Intel sebezhetőségre kiadott patcheket, akkor állítólag elég jelentős teljesítényveszteség érhette őket.
Az Intel gyárai azért füstöltek, mert a piaci szereplők kétségbeesetten próbálták pótolni a kieső kapacitást a bevált eszközökkel. Nem kockáztattak: Inkább kelljen 2x annyi szerver, minthogy leálljon a szolgáltatás valamilyen kiforratlanság miatt (amd)
Ez nyilván költséggel jár, és ráadásul aztán a dupla költségű hardvert cserélheted le ugyanannyi elavulási idő után. (Az amazon nemrég bejelentette, hogy hosszabbít a platformok élettartamán)
Szerintem ez szülte ezt a megvető hangulatot az Intel felé.
Nyilván egyre többen döntöttek így, vagy fognak hasonlóképp dönteni. Talán emiatt az Intel meredek árcsökkentése.
-
Petykemano
veterán
-
Petykemano
veterán
válasz
S_x96x_S #2751 üzenetére
"Igazából az AMD-nek is szüksége lenne ilyen AI/ML-re tunningolt HPC-s APU-kra"
Csak emlékből, de mintha az arcturusnál.megjelenne a bfloat16, ami egy fontos és hasznos fícsör a ML cuccokhoz.
És a navi12-t is úgy emlegetik, hogy DL/ML utasításokkal bővül.Ezek szerintem alkalmasak lehetnek az AMDnek AI/ML lábaknak. Nyilván lehet lefelé skálázni apunak.
Viszont ezt a kifogja a szelet kérdést nem teljesen értem. Mármint abból foghatja ki a szelet, hogy egy komolyabb gpu-t egy komolyabb CPU mellé kelljen tokozni "BIG APU"-ként.
A közös tokozás , közös IO lapka ugye azt tenné lehetővé, hogy a compute lapka a memória sávszélességvel tudjon adatokan kinyerni a memóriából, ne pedig a pcie3 sebességével. A pcie6 ezt a gátat mondhatnók áttöri. Pcie6-on keresztül is megoldható a memória-koherens elérést (CXL) tehát egy ilyen compute lapka HBCC-vel tudna streamelni a saját memóriáját gyorsítótárnak használva. (Nyilván persze a pcie6 az egy plusz lépcső)
A vitorlából kifoghatja a szelet dolgot úgy tudom értelmezni, hogy míg összetokozásos megoldás esetleg csak AMDnek volt, addig bár a cxl és a pcie6 nem gátolja meg az amdt se, hogy úgy kínálja a portékáját, de úgy már jelentős verseny lehet.
Talán csak az az egy kérdés van, hogy vajon energiafelhasználás szempontjából számít-e, hogy csak az IO lapkán keresztül történik-e a memóriaelérés, vagy még a pcie6-on is átmegy. Ugye az epyc esetén is a huzalozáson átáramló adat rengeteg energiát emészt fel.
-
Petykemano
veterán
válasz
S_x96x_S #2733 üzenetére
Érdekes, hogy az ibmnél már a L3$ is eDram.
Kár, hogy nem mondanak.többet erről a 96 magos prototípusról. Persze nyilván itt nem a CPU a lényeg, hanem az aktív interposer, az összeköttetés és a skálázódás.
Ja, meg persze a 3d
Bár ez nekem magyarázatra szorul. Itt 6 lapka van. Ezek vannak 3d stackelve? Vagy arról van szó, hogy egy lapka 8 magos, ebből van 2db 3d stackelve.és ilyen 2x8-as toronyböl van 6?Mindenesetre igen, azt korábbi mérésekből tudjuk, hogy interposerrel Lehetne jelentősem csökkenteni az összeköttetés fogyasztását.
Active interposer lehet egyben IO lapka is. Adoredtv csinált videót a lehetséges topológiákról is.
És hát ez azt is bemutatta, hogy miképp Lehetne megduplázni a magok számát úgy, hogy közben az egész package kiterjedése nem nő. -
Petykemano
veterán
Úgy tűnik, küszöbön a Comet Lake rajtja
Lesz AMD oldalon áreső? (Már persze a jelenleg is tapasztalható 12-13%-os MSRP-hoz viszonyított kedvezményhez képest)
-
Petykemano
veterán
Geekbench 5
Google Cloud - n2d-standard
AMD EPYC 7B12
https://browser.geekbench.com/v5/cpu/1257340 -
Petykemano
veterán
válasz
Cathulhu #2719 üzenetére
Hogy bánhatja szegény AMD, hogy ehhez nem tud még Arcturust kínálni.
(Bár persze lehet, hogy az Arcturus olyan projekt-termék, amit pont az ilyenekbe próbálnak elsősorban eladni, aztán vagy sikerül vagy nem)Kiváncsi vagyok, hogy ha üzembe áll, vagy legalább elkezd épülni a Frontier, közben, vagy utána lesz-e elmozdulás, vagy továbbra is az nvidia CUDA lesz a nyerő minden ilyen célre.
Tegyük hozzá, hogy a 100db V100 nem egy nagy összeg (~$6000). Nem több, mint $1m.
De 290304 mag, ha 64 magos procikkal számolunk, akkor 4536 és ha a legcsúcsabbat veszik, ami kb $8k, akkor sem jön ki több, mint $35mmondjuk ha a többi alkatrészt is beleszámoljuk, nem tudom, hogy jön ki 3db $71m-ból, de mindegy.
-
Petykemano
veterán
"Ez megszüntetheti az említett szűk sávszél problémáját.
A közös címtér miatt meg nem kell majd mindent betölteni a cpu-n levő ramba, csak ami kell, így a gyorsítótárban elfér a fontos adat és ami később kell majd át lehet tölteni a fő ramból (már azt is gyorsabban ddr5 alapokon).
Én mindenképp a zen4 vagy zen5 időszakára várnám a következő nagyobb design ugrást emiatt. Azt nem tudom persze ez már 3D tokozás lesz-e, vagy csak esetleg 2.5D, vagy marad 2D mint a mostaniak. Hely szempontjából a 3D a legjobb, de a hűthetőségnek erősen gondot jelent. A 2D ügye sok helyet igényel, és esetlegesen nagyobb távolságokat ami késleltetésben nem jó. A 2.5D egy jó kompromisszum lehet."Igazából az AMD-nek már megvan a technológiája erre: HBCC
Az pont azt csinálja, hogy a GPU fedélzeti ramját csak gyorsítótárként használja.A cache layerekről persze általánosságban elmondható, hogy minden layer hozzáadhat egy adatkérés késleltetéséhez - amennyiben az nem található meg a cache-ben. Ezt persze szerintem okos prefetcherekkel kezelni, meg azért 2-8GB elég gigantikus ahhoz nagy legyen a haszon az esetleges veszteséghez képest.
Azt nem tudom, hogy vajon a HBCC milyen késleltetést adott hozzá a pcie-en keresztüli adateléréshez? És hogy ehhez képest ha egy ilyen megoldás a RAM előtt van L4$-ként, akkor ahhoz képest ez milyen. Valamint hogy mennyit számíthat az a ram késleltetésében, hogy a HBM2 nagyon közel (pár mm) van az IP chiphez szemben a RAM-mal, ami pár cm-re.
Teszem hozzá, a HBM2 valószínűleg nem késleltetés-bajnok, különben már rég használnák ilyen célre.
A 3D szerintem abban segíthet "csak", hogy szükséges-e interposer. Mert ha most az IOD tetejére rá lehetne pakolni HBM-et, az már most is működne.- (Más kérdés, hogy vajon a két lapka közötti szintkülönbséget mivel hidalnák át?)
Ugyanakkor meg azt is tudjuk, hogy az interposeres lapka-összeköttetés lényegesen tudná csökkenteni a fogyasztást, ami pedig az IF esetén így se kevés.
Bár az IO lapkára pakolni valamilyen cache-t egészen adná magát, hiszen azon keresztül fut minden memória felé való kérés. Én ugyanakkor lehet, hogy több potenciált látnék abban, hogy a compute lapkák 3D tokozásával alá, vagy alá-fölé akár több rétegben (nem is feltétlen HBM) cache-t tennék. Valószínűleg L4$-nek nevezném, megtartva jelenlegi L3$ méretét.
Ugyanakkor érdekes kérdés, hogy vajon mennyit érhet (hány % IPC) egy ilyen?
-
Petykemano
veterán
válasz
S_x96x_S #2695 üzenetére
"Lehet, hogy Raja re-inkarnálta a OneAPI -ba a legtöbb HSA ötletet."
Nem volna rossz, de csak hogy lássuk, hogy Abu nem habokra tépte a száját.Amúgy nyilván mindig felmerül a kérdés: mik azok a műveletek, vagy inkább úgy fogalmazok, hogy jobok, batchek, taszkok, amelyeknél egy finomszemcsés gpu gyorsítás megéri mondjuk főleg a vektoros AVX(512)-szel szemben?
Valamilyen elvont értelemben ugye ugyanarról beszélünk: van egy halom adat, amire a frontend ráenged valamilyen feldolgozó egységet. Csak egy CU nyilván lényegesen messzebb van, lassabb adat-összeköttetéssel és a vezérlés sem megoldott.
-
Petykemano
veterán
Nemrég vetettem fel, hogy vajon egy ma $200-250-ért árult ryzen-t és egy $300-ért árult navi10-szerűséget 16GB HBME2-vel össze lehet-e pattintani egybe mondjuk alaplappal és hűtővel $500-ért?
De a két dolgot én szétválasztanám.
Tehát egy dolog egy méretes IGP, ami szükségtelenné teszi a dGPU-t a nagy többségnek (elvileg)
És megint egy másik egy olyan IGP, amit nem feltétlenül grafikára használsz. -
Petykemano
veterán
Csak akkor az, ha a generációk egységnyi időkülönbözettel jelentek meg.
DDR1 - 2000
DDR2 - 2003 (+3év -> 2.7x/3év= +40%/év)
DDR3 - 2007 (+4év -> 2x/4év = +20%/év)
DDR4 - 2014 (+7év -> 1.5x/7év = +6% /év)
DDR5 - 2020 (+6év -> 2x/6év = 12% / év)Hát itt a végén Kicsit belehúztak, de szerintem azért az évenkénti gyorsulás a memória sebességében lassuló üteműnek mondható a technológia 20 évében.
-
Petykemano
veterán
Az a "baj", hogy szerintem ez kétféleképpen valósulhat meg:
1.) Egy gyártó kvázi ingyen ad a CPU mellé egy olyan számottevő számítási kapacitást (közös memóriacímteret használó és nem.pcie sávon kommunikáló kapacitást.), ami az eladási értékben csak igen kis mértékben számít bele.
Ugye kábé ezt vártuk még a kaveritől, csak épp az volt a baj, hogy a nagyon alacsony penetráció miatt nem lett belőle semmi.Az Intel ugyan kábé ingyen adta az igpt és az nagyon sok gépben ott szunnyadt, viszont ha jól tudom, se közös címtér, se jelentős számítási teljesítményt nem jelentett.
Jelenleg úgy tűnik, hogy az AMD sem lát a HSAban akkora potenciált, hogy érdemesnek lásson minden ryzen CPU mellé egy radeon igp-t, amihez 2-3-4 éven belül Lehetne olyan software.stacket adni, amivel jelentős előnyre tehet szert.
Egyébként jelen állás szerint egy ilyen harcot elveszítene - se a penetrációja, se a szofterkörnyezet támogatására a pénzügyi háttere nincs meg ahhoz, hogy egy ilyen harcba belefogjon.
(Pedig egyébként már az is elég Lehetne, ha a radeon driver így működne. De mondjuk Mit nyerne vele? Ugyanahhoz a dgpuhoz egy olcsóbb ryzen is elég. Biztos megérné.)
Ennélfogva én igen kevés esélyét látom bármi ilyesminek.
Bár ott.HSA.nem.került szóba, de a fenghuang raven egy big apu volt. Kár, hogy kereskedelmi forgalomba nem került.
2.) Ha semicustom megrendelésre készítik el. Pl ha Apple, Sony vagy MS így kéri és ők ott akkor a saját szoftverkörnyezetükben ennek direkt hasznát is veszik.
-
Petykemano
veterán
válasz
S_x96x_S #2671 üzenetére
szerintem inkább
- az erős APU-k tesznek be a high-end GPU-knak.
Igen, sokáig így tűnt. Mondjuk 4-5 éve az a várakozás (nem remény, hanem trend értelemben), hogy az apuk felfalják a dGPU-k alsó szegmensét. Természetesen ez csak akkor igaz, ha közben nem nő ezzel egyenesen arányban a játékok teljesítményigénye is.
A dolognak kicsit megálljt parancsolt az, hogy az intelnél leálltak a fejlesztések és az AMD lehetőségeit is korlátozta a nem GDDR/HBM ram által elérhető sávszéleség, amit nem próbáltak áttörni.Ugyanakkor szerintem az apukra is igaz, hogy egyre drágább lesz. Jelenleg egy 3400G-t, amivel ha jól emékszem, 1080p-ben 60fps-sel low-ban lehet játszani, 50eFt-ért (+körítés) kapsz meg. Én sajnos nem hiszem, hogy egy ennlé erősebb IGP.vel rendelkező Renoirt ezért az árért lehet majd megkapni. egy 6 magos szerintem igazodni fog a 6 magos Matisse árához, tehát minimum $200, de lehet, hogy akár $250 (80-90eFt) is lehet.
A lényeg: az lehet, hogy azonos áron egyre nagyobb teljesítményű apuk jelennek meg (évről évre egyre több tflops), de azt a trendet nem látom, hogy azonos áron az is kapaszkodna fel, hogy milyen minőséget tudsz elérni (évről évre 1080p-ben egyre jobb grafikai beállítás, és/vagy egyre több fps - nyilván nem ugyanabban, hanem az újabb és újabb játékokban értve)
- És jönni fognak az Intel oldaláról is a hasonló CPU-k erős integrált grafikával )
- És az új konzolokról se feledkezzünk el.Azzal kapcsolatban nekem is van várakozásom, hogy az intel oldaláról érkező verseny akár a dgpu-kra, akár az apukra nézve lehet jótékony hatású. És sokan várják ugyanezt a konzoltól - hogy ha $600-ért lehet kapni egy remek konzolt, akkor kevesebben fognak $1000-t fizetni egy remek videokártyáért. NYilván a két piac nem teljesen átjárható, de lehet zabolázó hatása a felbukkanó részlegesen helyettesítő termékeknek.
(Én magam is felvetettem, hogy talán megvalósítható lenne és milyen remek lenne egy $500-600-os big apu 8 maggal és 40CU-val 16GB HBM2E-vel.)
A felhasználási szokások persze sokrétűek. Az igazság az, hogy én el szoktam mondani, hogy ma már irodai munkára sem elég egy 2/4-es cpu. De ettől eltekintve ha én döntően játszom, akkor mi motiválna arra, hogy 12-16 magos aput vegyek $400-500-ért (amin elketyeg valami 1080p&60fps high) mondjuk egy $200-os chromebook helyett vagy egy $120-os rpi helyett, amivel $5 ellenében máris tudok játszani IS nagyjából ugyanebben a minőségben. Nyilván renderelni nem fogok.
Ezzel most azt akartam mondani, hogy lehet, hogy az apuk esetleg elhappolják a teret a diszkrét GPUk- elől, de eközben meg úgy tűnik, mintha a cloud gamint meg elhappolná a teret/létjogosultságot az olyan apuk elől, amiknek épp az lenne az érdeme, hogy már rendesen lehet rajtuk diszkrét GPU nélkül is játszani.
Ennek a trendnek, vagyis a felhősödésnek csak az szabhatna gátat, ha
1) olyan workloadok alakulnának ki a többletteljesítmény hátán, ami nehezen felhősíthető
2) a technológiai fejlődés a többletteljesítmény megvásárlását megfizethetővé is teszik. Tehát az egy zsákutca, hogy a szűkülő piac miatt egyre többet kel fizetni a több teljestményért, amit aztán egyre kevesebben vesznek meg és még tovább drágul.Teszem hozzá, szerintem az AMD, az intel és az nvidia - feltéve, hogy nem tudnak profitjukat megtartva teljes mértékben átállni a felhő és más ipari szolgáltatók kiszolgálására - érdekelt abban, hogy konzumer piacon nagy volumenben értékesítsen hardvert.
-
Petykemano
veterán
válasz
S_x96x_S #2667 üzenetére
Csak találgatok :
Lehet-e offloadolni raytracinget, vagy bármilyen grafikai munkát cpura, ami nem kötelező, de hasznos lehetőség a sokmagos cpuk eladásához és amihez jól jöhet a pcie4.
Esetleg nem CPU, hanem egy m.2 foglalatos compute stick?"2-3 év múlva pcie5-ös gpukat akarnak majd ránk sózni"
Itt is felteszem a kérdést. Az a tapasztalat, hogy jó internet kapcsolat mellett kár most is jó a GFN. Ez persze csak 1080p, de csak havi $5. Ez kibírható. Miközben ugye arról beszélünk hogy ma már egy 1080p 60fps ultra grafikával tudó gép azért 200eFt, SFF/noti esetén minimum 300eFt
Persze lehetnek platformfüggő címek, ami miatt mégsem lehet $5-ból megúszni, biztosan nagyobb a lag, mint kliensen futtatva, bizonyos körülmények között kompromisszumokat kell kötni, de tévén, mobilon, jóval olcsóbb, vagy meglevő eszközön is működik.Természetesen az apuk fejlődésével azt várná az ember, hogy lassan elérünk oda, hogy 1080p 60fps ultra meglesz, tehát hogy ezt a teljesítményhez egyre olcsóbban hozzá lehet jutni, ami mind a cloud, mind a kliensoldali minőség igényét egyre magasabbra tolja.
Viszont nem ezt látjuk, hanem azt, hogy bizonyos teljesítményszintek nemhogy egyre olcsóbbak, hanem inkább drágábbak lesznek. A technológiai fejlődés nem lehetővé teszi a magasabb számítási igényű, jobb minőségű grafika előállítását, hanem sokkal inkább arról van szó, hogy a ár/érték arány stabil, de a magasabb, extrém minőség bevezetése (pl az, hogy 16GB RAM kelljen, meg a raytracing is így debütált) igazából csak ösztönző a még drágább hardver megvásárlására. A maximumhoz egyre többet kell fizetni, pont úgy, ahogy az 1080p-hez is.
Eközben abu azzal riogat, hogy valóban egyre drágábbak lesznek a.hardverek.
Tehát ha adott minőséghez egyre drágább hardver szükséges, akkor egyre kevesebben fognak vásárolni, szűkül a piac, emiatt megint áremelkedések várhatók, stb. Közben elindulnak a cloud gaming szolgáltatások.
Így kinek fognak 2-3 év múlva pcie 5 kártyákat eladni?
Mit Lehetne felvillantani, hogy jelenlegi széles tömegek vásároljanak. A volumen nyilván nem mindegy. Persze lehet olyan gyártó, amelyik átáll kliens hardverek helyett cloud hardverek gyártására. (Mondjuk nekem eddig mindig úgy tűnt, hogy a cég, amelyik nem tudja nagy volumenű gyártásra szétkenni a költségeit, annak vége) Pcie5 ott is kelleni fog nyilván.
De bennem most az merült föl, hogy vajon lesz-e még egyáltaln high performance client gpu piac 2-3 év múlva akkor, Amikor $5-ért cloud gaminget? -
Petykemano
veterán
válasz
S_x96x_S #2642 üzenetére
Bár ha jól látom, nem teljesen egyértelmű, hogy mit mutatnak a csíkok. Geekbench Single thread? körülötte IPC-t emlegetnek.
Mindenesetre azt gyaníom, hogy a fekete az Apple A13-mal a végén.
De ez nem lehet IPC. mert az A13 valójában már elég durván magasabb IPC-t hoz - legalábbis Geekbench5-ben.
A13: ~1350 @ 2660MHz
x86: ~1700 @ 5000MHzNem nehéz kiszámolni, hogy közel 50%-kal magasabb az IPC.
Más kérdés, hogy vajon magas frekvenciát is el tudna-e érni.
És más kérdés, hogy vajon az x86 a frekvencia néhány %-os elengedése mellett tudna ilyen 20-30%-os IPC-t hozni.Az biztos, hogy a frekvencia nem megy feljebb. Mindenki tegye meg tétjeit, hogy vajon a x86 tud-e a tranzisztorbüdzsé erre való áldozásával IPC-t növelni és hogy az ARM-nál ez a folyamat meredekebben tarthat-e anélkül, hogy hasonlóan elszállna a fogyasztás.
Ugye sok esetben sok energiát nem is a számítás elvégzése emészt föl, hanem hogy egy nagy lapkán belül az adat utazik. Ezért mondják, hogy a jövő a "Data locality" fejlesztésében rejtőzhet.
Mindenesetre ez valamilyen ST teljesítmény lehet. Abban meg tényleg nem volt jelentős előrelépés az x86 terén.
-
Petykemano
veterán
Az én tapasztalatom az, hogy a chrome egy átlagos weboldal megnyitásakor is több szálat.megmozgathat 2-nél, a javascipt intezív weboldalakra meg 2 mag kifejezetten kevés.
Világos persze, hogy élete nagy részében kihasználatlan és 2-nél több mag netezni már olyan pazarlás. De felhasználói élmény számít.
A "netezni jó lesz" is mára már elinflálódott.Pedig nemsoká jön a GF 12nm+, úgyhogy a raven velünk marad még egy ideig, az biztos.
-
Petykemano
veterán
Bocs, ha félreérthetően fogalmaztam.
Az icelake átlag 18%, de ezt illettem kihagyott lépcsőként.skylake -> sunny -> willow -> golden => ez lesz 40%
Ezekből az icelake kap sunny cove magokat és azért hagytam ki, mert "csak" 38 magosként említik, ami a 28-től persze több, de a 48/56-hoz képest nem. Bár egyelőre nem egyértelmű, hogy a 38 vajon valami összeragasztott valami, mint a 48/56, vagy egy lapkában lesz 38.Persze nem kizárt, hogy icelake-et fog tudni majd érdemleges volumenben gyártani az intel. De ha a 7nm gyártás nem késik, akkor akár egymásra csúszhat.
(Mindenesetre jöhetne már valami, mert pl a gcp-ben még mindig szolgálnak haswellek.) -
Petykemano
veterán
Jó, talán a "holnap", meg "harmadnap" valóban túlzás volt.
De azt is látni kell, hogy a jelenleg mindenféle javításokkal és patchekkel terhelt skylake után egy lépcső kihagyásával (icelake) "rögtön" egy 40%-kal nagyobb IPC-t kínáló golden cove érkezik. Mondjuk 2022? Addigra sok idő telik el, persze, csak ha az sikerül, azt is vinni fogják, mint a cukrot, mert 40%-nál biztos nagyobb előrelépést jelent ugyannnyi socketben és TDP keretben.Ráadásul most olyan mennyiségben megy a kapacitás pótlása, hogy az intel alig bír lépést tartani az igényekkel. Most csomó kapacitás ment el a biztonsági rések javításával. Szerintem biztos lesz majd 2022-2023 táján újra VM licenc feltétel változás, amikor majd sikerül ezeket a 2019 során kényszerből vásárolt gépeket elkezdik szanálni.
-
Petykemano
veterán
A VMWare lépése a saját szemszögéből nézve érthető.
Ahogy mondtad, más szereplők már korábban meglépték.Egy sor más tényezővel kapcsolatban az a kérdés merül föl, hogy azokra nézve bárki számláz-e? Tehát ahogy mondtad, az optane diszruptív lehet a memóriakapacitás vonatkozásában. Emiatt nyafoghatnának például a memóriagyártók, akiket ez esetleg kiszorít, vagy kevésbé szükségessé teszi a nagy kapacitások irányába történő fejlesztéseiket. De ha licencdíjak alakulását kevéssé befolyásolja a "ram" kapacitás hirtelen megugrása, arra nyilván nem fognak lépni például a VM szoftver licencelő cégek. Magyarul a diszruptív optane térnyerését nem fogja hátráltatni mondjuk azzal, hogy hohó, hát ha te eddig 128GB-ot használtál és holnaptól 1TB-ot szeretnél, akkor a szoftverre mi is 4x annyit elkérünk.
De átvitt értelemben válaszoltál a kérdésre:
lehet diszruptív technológiával piacot nyerni, ha az nem sérti valamilyen a szerver működéséhez szükséges más jelentős befolyással bíró szereplő érdekeit. -
Petykemano
veterán
A VMware és a mag vagy socket kérdéskör egy dolog. Valójában ez nem csak az AMD-t érinti, hanem az ARM szerver procikat.
Azt gondolom, hogy a kérdést igyekeztem úgy megfogalmazni, hogy minél inkább független legyen az AMD-től, illetve attól a kurrens helyzettől, hogy az AMD több magot kínál.
A kérdés nincs kihegyezve az AMD-re. csak annyi köze van az AMD-hez, hogy épp most ez a cég jelentkezik be az egyik legpotensebb kihívónak a szerver piacot domináló intel számára. Holnap lehet, hogy az ARM gurít valamit.
Ahogy mondtam: ha holnap valaki 4 szálas procit dob be, vagy harmadnap 50-100%-kal nagyobb IPC-t, olyan "diszruptív" előrelépést, ami meghaladja az igények annuális növekményét, akkor azzal nem csak a közvetlen versenytársnak a lábára lép rá, hanem a VMware, de a már core bázison licencelő Hyper-V-ére is. -
Petykemano
veterán
-
Petykemano
veterán
válasz
S_x96x_S #2575 üzenetére
"úgy kell a teljesítményt növelnie, hogy a tágabb üzleti partnereket (pl. VMware) se haragitsa meg .."
A 64 magos cpu lényegében megduplázta az egy socketből kihozható teljesítményt.
Ez a vmware-re nézve mindenhol bevételkiesést jelenthet,.ahol nem a számítási igény nőtt meg, hanem spórolni akartak: több tflops/kWh, kevesebb gép, kevesebb socket, kevesebb licencdíj.
Mondjuk minden cég, ahol a számítási igény nem nőtt, de kettőnél több socketet használtak. Ha jól tudom, a.vmware virtualizációt valósít meg, tehát elég valószínű, hogy ez elég sok vmware ügyfelet érinthet.Na, de oda akarok kilyukadni, hogy
Világos, hogy a 4 szál nevezetese is hasonló hatást váltana ki a vmwaretől, illetve más cégektől, amik jelenleg socketre, vagy magra vetítve számláznak.De mi az, ami nem?
Tehát ha holnap az AMD kihozna egy olyan procit, ami felépítésében megegyezik a jelenleg piacon levőkkel, de 50-100%-os IPC emelkedést hoz, vagyis egy ilyen 32 magos processzor ellátná egy mai szerver feladatait, amire ma 2x32 magos licenct kell megvásárolni, akkor az is sérti a vmware érdekeit, nem?
Ezek szerint a hardver kapacitás csak olyan mértékben nőhet, amennyire a számítás igény, különben a fejlődés túl diszruptív ami a hardver vásárlónak jó lenne, azt az előnyt - részben - elgáncsolja a licencelő.
Persze nem állítom, hogy nem ezt tenném, csak kérdezem, hogy mi az az előrelépés, a számítási igények stabilitása mellett, Amivel piacot tudsz szerezni, de nem lépsz rá a szoftveresek tyúkszemére?
-
Petykemano
veterán
válasz
S_x96x_S #2566 üzenetére
"szerintem ha az AMD -ha "szemétkedni" akarna,
akkor simán át tudná alakitani a ccx - et úgy, hogy a rendszerből
4c/16thread -nek látszódjék ami amúgy 8c/16t .."Hogy?
Mondjuk egy olyannal trükközhet, hogy 8 ép mag van a lapkán, és az, hogy ebből mi aktív és mi nem, az dinamikusan váltogatható. Így a turbózás ideje maximalizálható.Én elképzelhetőnek tartom, hogy 2 lépcsőben egyesítik a zen magokat - pont úgy, ahogy elvileg a zen is hasonlít két összeolvasztott bulldozer integer magra.
Mindig az jut eszembe, hogy valamit csinálni kell, hogy lépést tartsanak az arm évi 30%-os növekményével. A magasabb frekvencia nem tart ki örökké.Aztán persze mivel a számítási kapacitás növelésének legnagyobb gátja az, hogy egy központi memóriából kell kiemelni a számolandó adatot ws az eredményt visszaírni, ezért valamikor biztosan jön az a fajta elosztott számolás, hogy minden számolóegység saját memóriával rendelkezik.
(Jim Keller) -
Petykemano
veterán
-
Petykemano
veterán
-
Petykemano
veterán
A vicces az, hogy ebből egy stack - 16GB és 400GB/s - elég lenne egy igen komoly komplett gép - egy 6-8 magos proci és egy navi 10 képességű IGP - meghajtására is.
Mondjuk egy 6-8 magos proci $250 manapság, egy navi10 $300 (PCB + cooling included), 16GB DDR4 az mondjuk $120.
Mondjuk egy 300mm2-es 7nm-es lapkát mellépakolt 1 stack HBM2E-vel már megérné és el lehetne adni $500-ért? (Vagy $600-ért úgy, hogy akkor ebben benne van az alaplap is és a hűtő is, pont úgy, mint egy sima GPU esetén.)
-
Petykemano
veterán
válasz
#82819712 #2540 üzenetére
Most már csak abban bízom, hogy az, hogy a Milan nem növeli a magszámot, pont ilyesmire való felkészülés miatt történt.
(Bár tegyük hozzá, hogy a VmWare döntése az arm magos cpukat is rosszul érinti. )
Remek válasz lenne az AMD részéről kihozni 4 szálas szerverprocikat.
(Persze erre egyelőre semmi jel nem utal. És lehet újra módosítani a licenc feltételeket.) -
-
Petykemano
veterán
VMWare
29-64 magos cpu: 2 cpu licence
2x 64 magos cpu : 4 cpu licence -
Petykemano
veterán
"$AMD: We are expecting 80% [of semi-custom revenue] in the back half of the year. But by that time, the new generation products in the other businesses, including data centre and client, will be ramping.
So.... Zen 3 before consoles? Am I misinterpreting that correctly?"
[link] -
Petykemano
veterán
[link] Áreső
-
Petykemano
veterán
válasz
Cathulhu #2488 üzenetére
Lehet, hogy az Intel gyártókapacitása a legnagyobb a világon. 14nm-en, amit az Intel termékeire gyúrtak ki.
De az intelen kívül - jelenleg - ki akarna ezen gyártani? Ez arra lenne elég, hogy az olyan másodvonalbeli szereplőket kiszorítsa a másodvonalbeli piacról, mimt az umc, smic, gf.Azt nem is értem, hogy hogy gondoltad, hogy verseny. Az Intel épp azért választaná le, mert (ha) NEM versenyképes, amit ki tud izzadni magából. Tehát lehet, hogy másodvonalbeli gyártókkal versenyképes lenne, de az Intel az igényeit épphogy a jelenlegi két élvonalbeli gyártóhoz vinné át. Az új gyár nem harmadik lenne az élvonalbeli gyártók körében, hanem negyedik a másodvonalbeliek között.
Maximum olyasmi Lehetne, hogy az Intel direkt a rosszabbik samsunghoz viszi a gyártását, mert olcsóbb és megfinanszírozza így annak versenyképesnek maradását. De ezt eddig egyik cég sem igazán tette meg, mindenkinek a jobb node kell.
A 10nm pedig pontosan olyan rossz volt, hogy tavaly csupán 2magos igp nélküli lapkára futotta. 2020H2 most a ramping up ígéret.
Ha valamivel nem értesz egyet, légyszi mondj példát, mert Szeretném megérteni, hogy hogy gondolod, de így nem tudom elképzelni, hogy ez nem holt teher levetése lenne. A modemek, amiket írtál pont ilyen olcsóbb másodvonalbeli gyártók/nodeok termékei.
-
Petykemano
veterán
"All processes are expensive. The design cost for a 3nm chip is $650 million, compared to $436.3 million for a 5nm device, and $222.3 million for 7nm, according to IBS. These are “mainstream design costs,” which means one year after a given technology has moved into production."
(Src)
Persze Nekem az még továbbra is kérdés, hogy ez from scratch ennyi, vagy ha például van egy már 7nm-re elkészített IP blokkod, és azt áremeled a másik designba akkor is minden lapka tervezési költsége ugyanannyi-e vagy azért ha több design átfedésben van egymással, akkor az IO blokkok újrahasznosótásával lehet csökkenteni az egymást követő lapkák tervezési kőltségét?
Persze a $600m akkor is.brutális. Nem hiszem, hogy akkor ne az lenne például az AMDnek, hogy 1db gpu lapka és 1db CPU lapka, és ezek összekapcsolva aktív interposerrel, 3d stacking, vagy ilyesmi.
-
Petykemano
veterán
válasz
Cathulhu #2483 üzenetére
Én nem hiszem, hogy az intel és gyárai különválás mindkét üzletágnak előnyös lenne.
Láttuk, hogy a GF esetén nem volt az. Egyrészt a GF fő partnere megmaradt az AMD. Még az IBM gyártórészlegének beolvasztása után (még az IBM fizetett az átvételért!) sem sikerült az AMD és az IBM mellett más lényeges megrendelőket szerezni. Feltehetőleg a GF még most is abból él, hogy az AMD onnan rendeli a zen1/+ és IO lapkákat.Mi a helyzet az intellel? Iszonyatos gyártókapacitásuk van 14nm-ből. Ez annyira nem rossz, de az intel épp azért fontolgathatja a leválasztást, mert nem elég jó. a 10nm és a 7nm pedig vagy elég jó és akkor nem kell leválasztani, vagy bukás és senki másnak sem lesz elég jó.
A nem cutting edge, azaz nem elég jó node-okból szerintem elég nagy a kínálat, a GF, a Samsung, a TSMC, de az UMC és talán az SMIC is kínál már ilyet. Biztosan sokan átálltak már arra az üzletpolitikára, hogy ezt minél olcsóbban. De még a GF SOI irányának eredményei sem láthatóak. Olcsón nem szupergyors node kell, márpedig az intel 14nm-es gyártástechnológiája az. mármint az intelen kívül kinek kéne még 5Ghz egy amúgy nem elég jó gyártástechnológián?Tehát szerintem az történne, hogy amíg az intel használja ezeket a gyártósorokat, addig életképesnek tűnne, persze a 7 és 10nm-es fejlesztések finanszírozása nyilván megcsappanna, lelassulna. És ahogy az intel kiszáll a 14nm-ből, vagy fölös kapacitások alakulnak ki, amire már az intel is alkudna, hogy legyen olcsóbb, a gyártó cég összeomlana.
-
Petykemano
veterán
válasz
joysefke #2480 üzenetére
Ebben a három figurában az a különös, hogy mind amerikai arc. mármint persze így ránézésre.
A lényeg, hogy az AMD-ről azt mondják, hogy az elmúlt években eléggé indiai és kinai irányban orineltálódtak. Talán mintha egyszer lett volna szó arról, hogy 2-3x annyi indiai fejlesztőt tudnak foglalkoztatni, mint amerikait. Azonban a szóbeszéd szerint a távol-keleti munkaerő minősége azért nem 100%-ban felel meg az amerikainak, ami viszont sokkal drágább. Ott van például a cat core csapat, akiket aztán a samsung vett meg, és most nemrég eladott. Vagy sokat emlegetik, hogy a régi atiból részben szétszéledt kanadai csapatok azért jobbak.
Szóval ha ez igaz, akkor úgy tűnik, az amd pénzügyileg megerősödött ahhoz, hogy közel jó munkaerő helyett tényleg jókat foglalkoztasson. -
Petykemano
veterán
válasz
joysefke #2472 üzenetére
Ebben a kérdésben szerintem azt érdemes nézni, hogy hol lehet piacot szerezni, vásárlói kört szerezni azzal, hogy a jelenlegi kínálatnál még jobbat teszel ki az asztalra.
Ha jól emlékszem 14 hónapos piacra dobási ciklusokról volt szó. Tehát matekra július helyett ezúttal egy szeptemberi rajt lenne előirányozva az asztali Ryzen 4k-nak. mármint a lényeg, hogy a 14 hónapos fejlesztési ciklus mellett addigra kész kell legyen a következő lapka. Az, hogy milyen piacra mikor vezetik be, az egy másik kérdés. De ha addigra elkészül a lapka, a szervereknél szerintem jó selling point lenne, ha nem halogatnák a piacra vezetést (Milan)
Ha viszont ezt megteszik, akkor felszabadulhat zen2 gyártókapacitás (feltéve, hogy nem ugyanazokon a gyártósorokon készül majd a zen3), amit lehet arra felhasználni, hogy árcsökkentéssel növeled az eladási volument. Lehet, hogy a Comet Late érkezése után egy kis kiigazítás amúgy is indokolt lesz.
-
Petykemano
veterán
micro-op cache L2/L3
METHOD AND APPARATUS FOR VIRTUALIZING THE MICRO-OP CACHE
Abstract
Systems, apparatuses, and methods for virtualizing a micro-operation cache are disclosed. A processor includes at least a micro-operation cache, a conventional cache subsystem, a decode unit, and control logic. The decode unit decodes instructions into micro-operations which are then stored in the micro-operation cache. The micro-operation cache has limited capacity for storing micro-operations. When new micro-operations are decoded from pending instructions, existing micro-operations are evicted from the micro-operation cache to make room for the new micro-operations. Rather than being discarded, micro-operations evicted from the micro-operation cache are stored in the conventional cache subsystem. This prevents the original instruction from having to be decoded again on subsequent executions. When the control logic determines that micro-operations for one or more fetched instructions are stored in either the micro-operation cache or the conventional cache subsystem, the control logic causes the decode unit to transition to a reduced-power state. -
Petykemano
veterán
válasz
S_x96x_S #2456 üzenetére
Coreteks az utolsó "broken silicone" interjúban azt mondta, hogy
1. Az AMD eredetileg nagyon agresszív tervekkel rendelkezett a zen3-ra nézve.
2. De az utolsó kezébe jutó roadmapek azért szerényebb előrelépésről tanúskodnak, olyan, mintha sok cumót hátra soroltak volna későbbi releasebe.
3. Ugyanakkor az AMD kommunikációja továbbra is mintha a nagy előrelépsre íródna: pushing the envelope.(Tehát hogy a mai zen3 terv nem ugyanaz, mint, aminek 2-3 éve tűnhetett )
Igazából egy szemszögből nem meglepő, hogy lassítanak, hiszen ha alig tudják kiszolgálni az igényeket, akkor lazíthatnak, amíg az Intel előáll valami ütőképessel.
Másrészről meg azért az armos megoldások az intel bénultságától függetlenül jönnek fel, mint a talajvíz. Nincs idő lazítani, mert akkor intelestül amdstül dobják az x86-ot.Coreteks dátumot ugyan nem említett, de azt mondta, nem tartja elképzelhetetlennek, hogy nyomnak egy refresht a zen2-n egy új 7nm-es nodeon.
De az se kizárt szerintem, hogy nem egy zen3 design létezik, vagy inkább úgy mondom, hogy zen3 ipre építő design. Ugye a frontier is zen3 ip. De az semicustom: Megmagyarázná pl az smt4 pletykákat.
Mindenesetre ha a zen3 tényleg oly későn jön (2021Q1-Q2), akkor egy zen2 refresh belefér.
-
Petykemano
veterán
Korábban olyan pletykák voltak, hogy a B550 egy X470. Ha ez igaz, akkor az X490 lett volna az X570.
Azt nem hiszem, hogy a CPU PCIe4 engedélyezéséhez kellett ennyi idő, mert akkor nem lett volna szó arról, hogy korábbi lapoknál is ez mehet-e vagy sem. Ha Magán a chipseten nem lesz PCIe4 "kivezetés", akkor csak az kerülhetett időbe, hogy az upstream connection PCIe4 legyen. De valahogy még ezt is kétlem. Úgyhogy lehet, hogy a kínai hekkerel felé nyitott kiskaput kellett zárni.
-
Petykemano
veterán
China Times szerint: B550/A520 2020Q1
Chipset nem PCIe4, de a cpu PCIe4 képessége használható. (Erről volt nagy vita, hogy végülis lesz-e)
"The X570 chipset uses four high-speed PCIe 4.0 channels to connect to the processor, while the B550 chipset uses four PCIe 3.0 channels. However, HKEPC said that the B550 can still use the PCIe 4.0 x16 slot directly connected to the Ryzen 3000 series processors and a PCIe 4.0 x4 M.2 interface. In this way, the B550 can also perfectly use the RX 5700 graphics card and PCIe 4.0 that support PCIe 4.0. SSD too."
Azért így kevéssé érthető, hogy ez miért késett ilyen soká -
Petykemano
veterán
Micron x100
Sejtelmes dícsérgetés. Feltehetőleg azt tudja, mint az optane. Csak ahogy a cikkbis írja, mivel saját dram cache van, ezért úgy is, hogy nem kell dimmbe RAM mellé tenni.Vajon lehet ez bármilyen memóriaár problémára megoldás?
Videokártyák esetén ahelyett, hogy 32GB ramot tennénk rá, csak 8GB, de rámegy 64GB quantx, hbcc
Vagy az olcsóbb kliens gépek esetén ugyanez apu mellé 32GB HBM helyett 64GB quantx, valamennyi dram cache egy m.2 csatlakozó lapkán.
Vagy ez a megoldás csak szerver? -
Petykemano
veterán
válasz
solfilo #2406 üzenetére
Egy pillanatig nem vitatom, hogy a kék csík hosszabb.
Csak szeretem, ha a csík hossza megmagyarázható ilyen szempontokkal és nincs elintézve annyival, hogy "We're just better"Természetesen nem gondolom, hogy egálba hozná a csíkokat, ha a ryzen 3750H is 45W TDP-t kapna. Az talán inkább igaz, hogy ha az intel konfig is 35W lenne, akkor lehet, hogy kisebb lenne a difi. De ahogy mondtam, az 9k-s intel 14nm elég jó alulra-fölülre is.
-
Petykemano
veterán
válasz
solfilo #2404 üzenetére
A táblázatban, amit linkeltél, a Ryzen 7 3750H-nek van 35W TDP-je. Annak épp pluszosnak kéne lennie. Vagy legalábbis magyaráz egy részt abból, hogy a 6 magos hogy tud annyival gyorsabb lenni, mint a 4 magos. kiváltképp,ha tudjuk, hogy az a ryzen 4Ghz fölé nem szívesen megy.
-
Petykemano
veterán
válasz
Petykemano #2402 üzenetére
Mondjuk ez így sokmindent megmagyaráz
Used 2080+9980HK 8C $3300
Compared to
2060+9750H 6C $1400
2060+3750H 4C $1100Az intel 14++++++ eljárása nem rossz, remekül skálázódik, remek a fogyasztása alacsony és magas órajeleken is.
Ezzel együtt nyilván a fogyasztási adatoknál nem véletlenül nem a 2080-ast vették elő a kalapból, hanem az icelake-t
-
Petykemano
veterán
Az az igazság, hogy ebből a szempontból noob vagyok, nem tudom megmondani, hogy a két 2060-as gép között mi különbség lehet, ami miatt az inteles jobb.
Az általad felhozott példa a 2060 vs 2080-ra nekem akkor állná meg a helyét, ha egyébként egy árban lenne kapható. DE nyilván itt a hosszabb csíkok mutogatása volt a cél. -
Petykemano
veterán
Az intel sietve bemutatta, hogy mennyivel jobbak a vadiúj termékei.az AMD 2 éves designjához képest.
Új hozzászólás Aktív témák
Hirdetés
- Futás, futópályák
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Melyik tápegységet vegyem?
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Építő/felújító topik
- The Division 2 (PC, XO, PS4)
- PlayStation 5
- Spórolós topik
- OLED TV topic
- Redmi Note 9 Pro [joyeuse]
- További aktív témák...
- i5-13600KF, RX 9070, DDR5 32GB, 1 TB M.2, Fractal North TG és sok garancia
- Logitech Combo Touch iPad Pro 11" (1., 2. a 3. gen), szürke - UK billentyűzet ipad tok billentyűzet
- újszerű iPad Pro 11" (3. generációs) (2021) M1 chip Wi-Fi 128GB silver ezüst Apple
- szinte új iPhone 16 Pro Max 256GB desert titanium sivatagi titán független Apple 3 év garancia
- újszerű iPhone 16 Pro 256GB white titanium fehér titán iStyle független Apple 3 év garancia
- Bomba ár! Lenovo X1 Yoga 1st - i7-6G I 8GB I 256SSD I 14" WQHD Sérült I W10 I CAM I Garancia!
- LG 27GR93U-B - 27" IPS - UHD 4K - 144Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDR 400
- AKCIÓ! Sapphire Nitro+ RX 6800 XT 16GB videokártya garanciával hibátlan működéssel
- Dell latitude, precision, xps, magyar világítós billentyűzetek eladóak
- Apple iPhone SE 16GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest