- iPhone topik
- Garmin Forerunner 970 - fogd a pénzt, és fuss!
- Motorola Edge 30 Neo - wake up, Jr...
- Youtube Android alkalmazás alternatívák reklámszűréssel / videók letöltése
- Apple iPhone 16 Pro - rutinvizsga
- Xiaomi 14T - nem baj, hogy nem Pro
- Samsung Galaxy A55 - új év, régi stratégia
- LTE frekvenciák
- Honor Magic6 Pro - kör közepén számok
- A sógorokhoz érkezik a kompakt Vivo X200 FE
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Busterftw
nagyúr
válasz
Petykemano #60114 üzenetére
"a DELL egyelőre az egyetlen, amelyik kizárólag AMD EPYC forgalmazása mellett döntött"
Nem emlekszem pontosan melyik topikban volt ez korrigalva, ha jol tudom csak ez bizonyos "utas" szerverre igaz, tehat az Intel nem lett dobva, csak abban a kategoriaban AMD only. -
válasz
Petykemano #60095 üzenetére
A 3. verziód nekem is ésszerűnek tűnik, de hiányzik az "M" betű a 7700 után. Persze ez csak egy akárki által összedobott táblázat, bármit írhat bele.
Remélhetőleg ez a 8xPCIe sáv dolog megmarad az RX x600 szintjén és nem léptetik feljebb az RX x700 szintjére. Azonban érdemes észben tartani, hogy az x700-as kártyát se nagyon limitálná a 8xPCIe 3.0 csatlakozás, hiszen egy 3080 is csak 4%-ot veszít (16xPCIe 2.0 = 8xPCIe 3.0) egy ilyen felállásban a TPU szerint.
Viszont az eddig kiderült Navi33 speckókból szinte kizárt, hogy 7700 XT-t csináljanak. Sokkal inkább a Nav32-t fogják kiadni 7800 XT (256bit - 16GB) és 7700 XT (192bit - 12GB) formában, de azok 16x sávot fognak tartalmazni. Néhány napja kikerült RedGamingTech videója, ami a 7700 XT-t Navi33 alapúnak mondja, de az kizárt dolog.
-
S_x96x_S
addikt
válasz
Petykemano #60095 üzenetére
> Vajon mi lehet az oka, hogy a 7700 series is 8x PCIe4 busszal szerepel?
a szokásos:
- költségcsökkentés .. [ minden cent/penny/fillér számít .. ]
- hosszú távon szeretnék gyártani, amikor is már a Gen3 kevésbé számít.
- a célcsoport nagy részének ( ~ játék) az x8 is elég.
Aki meg munka/AI/Rendering célra használná és az x8 levesz 10-20% teljesítményt az vegyen egy drágább kártyát ..amúgy meg kell várni majd a benchmarkokat ...
// persze ha mobil célpiacra is megy .. akkor oda elég az x8 is...
-
Asshur
tag
válasz
Petykemano #60097 üzenetére
Logikus. Ha a Navi23 alatt érkezne árban, az elég ütős lenne.
Akkor csak az 50%-al több VRAM maradna, mint előny, de borsos felárral...
TPU-n nézegettem a chartot, ott Navi23 szintre teszik, bár mi alapján?
Na, majd kiderül. -
Asshur
tag
válasz
Petykemano #60095 üzenetére
Eszerint akkor jól tettem, hogy nem vártam, ma megyek a 6700XT-t átvenni.
Ugyanaz a gpu erő, de kevesebb VRAM a Navi33-nál. És ha X8 a PCI-E, 3.0-ás deszkánál-procinál még szépen vissza is fogná...
Nem túl fényes. -
válasz
Petykemano #60087 üzenetére
Igen ilyesmi kb 5 % teljesítmény különbségen lesznek egymáshoz nézve Anélkül hogy ismernéd elméletileg a másik gyártó SKu-it órajeleit, fogyasztását , más architektúrát és felépítést használsz.
-
válasz
Petykemano #60074 üzenetére
szokásos teóriám.. Kartel. Nvidia ezért veszi vissza 160 W ra.
Minden SKU párban a másik gyártó kártyáival. . érdekes fejlesztések ezek....
Ofc... -
PuMbA
titán
válasz
Petykemano #60074 üzenetére
A fő kérdés még mindig az, hogy mi lesz a memória alrendszerrel. A GPU erősebb lesz oké, de már most látjuk, hogy az RTX3060 128bit 8GB-os GDDR6 változata 25-30%-kal kikap a RTX3060 192bit 12GB GDDR6 változattól memória sávszélesség igényes játékoknál. Az új kártyák pedig nem fognak fejlődni a mostani generációhoz képest, mert marad a 128bit 8GB GDDR6. Így nagyon érdekes lesz a sebesség különbség az előző szériás kártyákhoz képest
-
válasz
Petykemano #60076 üzenetére
A levezetésben írtam hogy szerintem a kisebb SKu-k árazása és teljesítménye függ a 4070 teljesítményétől így függ össze a navi 33 ezzel.
-
válasz
Petykemano #60074 üzenetére
Nem néztem meg a cikket és a videót de ezek az Ada-k laptop verziók nem?
A 4070 től függ majd az egész , hova esik be. Ha a 4070 valahova a 3080 és a Ti közé érkezik akkor nagyon egyszerű a matek mert Nvidia az előző genhez képest 1 vagy fél( Ti) SKu lépcsőnkként lépked lefele.
Azaz ha a 4070 ≈3080 lesz akkor a 4060Ti ≈3070 Ti a 4060≈ 3070.Ha a 4070 eléri a 3080 Ti-t néhol akkor 4060Ti ≈ 3080 10 GB, 4060≈3070Ti
A 4050 elkülönül teljesítményben ezektől. mert a fő lapos GPu lesz, olyan 3060 max.
Tehát a navi 33 megítélése majd a 4070 teljesítményétől is függhet. -
Petykemano
veterán
válasz
Petykemano #59874 üzenetére
Ennek a posztomnak a folyományaként írom.
MLiD prezentálta az AD106 és AD107 lapkákat: [link] (by VCZ)
Ez alapján:
AD106: 180-190mm2 és kb adatok alapján kb 2/3-t tudhatja annak, amit az AD104-re épülő 4070Ti
Picit necces, mert a shader szám kevesebb, mint 2/3, viszont a kisebb kártyákat általában magasabb frekvenciára szokták állítaniAD107: 150-160mm2 és úgy ránézésre az előzőnek akár a 3/4-ét is hozhatja, hiszen elvileg nem változik az L2$ és a memória busz szélessége. Ez egyébként a 4070Ti teljesítményének a fele volna.
Tételezzük fel, hogy a 4070 a várakozásoknak megfelelően AD104 vágott lapka lesz
Akkor a 4060Ti fog épülni a - nagyjából - vágatlan AD106-ra.
A TPU adatbázis szerint a A 4070Ti 2/3-a pont a 3070-nél van. Persze lehet, hogy elérheti a 3070Ti-t is. Az előző posztban linkelt grafikonon rendre 70 és 77 fps-t jelent. Én a 4060Ti-t sacc/kb alapon 75fps-re lőttem be, amit a most napvilágra került specifikációk visszaigazolnak.A 4060Ti TDP értékét a pletykák szerint 160W-ra csökkentették [link]
Emiatt szerintem inkább a 3070-hez lehet majd közelebb a teljesítmény.
Természetesen az árazásról nincs információ. De most nem is ezt akartam górcső alá venni.Itt van egy kis video a Navi33 várható teljesítményéről. Semmi extra, semmi új, csak vizualizáció. A 6700XT alá várható, ami az előző techspotos grafikon alapján 60 fps-t jelenthet. Ez alatta van az AD106 várható teljesítményének. Tehát az AMD a legjobb Navi33-mal is legfeljebb csak a 4060-nal versenghet. ami vélhetően egy vágott AD106 lesz.
De ez akkor is egész jó helyzet. Az AD106 elvileg nem lesz jelentősen gyorsabb a Navi33-nél.
AD106-ból legjobb esetben is 300 felhasználható lapka jöhet ki egy waferből, míg a Navi33-ból mondjuk csak 250.
Ha Abu számaival ($35000/$5000) számolunk, akkor egy AD106 $116-ba, míg egy NAvi33 lapka csak $20-ba kerül
Ha más számokkal ($17000%$6000), akkor $57, és $24Abu számaival brutális, de még így se se elhanyagolható különbség, főleg ha rászámoljuk a marzsot is.
Itt az AMD jelentős árelőnyhöz juthat.
Most már persze csak az a kérdés, hogy vajon hogy alakulnak a fogyaztások. A Navi33-at mondjuk fel kell húzni 200-225W-ig, hogy elérje ezt a teljesítményt? Mert akkor a hűtő drága és hangos lesz. És még így is csak a vágott AD106-tal fog tudni versenyezni, amihez nem is biztos, hogy kell 160W TDP, lehet, hogy elég 140W is, ami ebből a szempontból szintén jelentős különbség.
Ez talán egy olyan terület, ahol az AMD bátorkodhat belemenni árversenybe, mert talán bővebb a waferkapacitás háttér, tud nőni és elvileg valamivel olcsóbb is a termék előállítási költsége, tehát van tere az árral való játéknak.
-
válasz
Petykemano #60033 üzenetére
Viszonylag "ecceru".
Payment terms alapjan, szinte biztos, hogy atlag 30 (nagyon max kiemelt ugyfelnek nagyon kedvezo szerzodes alapjan atlag 60) napossal operal a TSMC.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #60033 üzenetére
Ezek üzleti titkok. A TSMC-nek az AMD manapság amúgy is bonyolultan fizet. Szóval az nehezen követhető. A Sony a PS4-nél megrendeléskor fizetett az AMD-nek, esélyes, hogy a PS5-nél is így van.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #60031 üzenetére
Nem tudni az arányokat.
Ha most normalizálódott a PS5 elérhetősége, akkor a Q2/Q3-ban kellett megtolni a SoC gyártását. A Q4-ben gyártott SoC-ok majd a tavasszal csomagolt PS5-ökben lesznek benne.
Ezért ilyen eltolt ciklusú a gaming részlet. A konzolgyártóknak Q2/Q3-as rendelések kellenek, hogy lefedjék az ünnepi szezont. A Q4-ben gyártott rendszerchipek tavasz előtt nem kerülnek a konzolokba.
-
awexco
őstag
válasz
Petykemano #60024 üzenetére
Számomra a gaming nem tiszta ...
client az ryzen . -
fLeSs
nagyúr
válasz
Petykemano #60008 üzenetére
Évesen $1.955 -> $3.771 milliárd.
-
Busterftw
nagyúr
válasz
Petykemano #60008 üzenetére
A konzol az Embedded vagy Gaming?
-
S_x96x_S
addikt
válasz
Petykemano #60008 üzenetére
(#AMD Q4)
És az AMD is rámegy az AI-ra...- "MI300 sampling this Q, launch in 2H"
- "2+ Exaflop El Capitan is MI300"
- "Client and gaming will decline - 2H22 was rebalance, made progress exit Q4. Will still ship below consumption in 1Q. Grow in 2H, but overall client will decline. Gaming similar. But console demand is strong."
- "So to confirm, AMD doesn't have capacity constraints in DC or client any more. There is still some capacity constraint in embedded for older-gen 28nm+ Xilinx stuff that's still got 10+ years lifecycle. That's a wrap, will work on an article soon""""
Q: Goldman Sachs - AMD gaining share in mature markets. In AI, haven't shown - at what point do we see AI strategy in P&L?
A: Believe that AI is huge driver of compute growth. For our product sets for AI, MI300 of course on GPU training. Launched Ryzen AI in PC, expect additional AI acceleration in server. See it broadly in roadmaps. When we talk about DC ambitions, see it as an opportunity.
First user of MI300 will be supercomputers, and large cloud vendors to qualify MI300 for workloads, contribute to P&L in 2024.
"""
( via https://twitter.com/IanCutress/status/1620552720511008770 )(spekuláció)
én már ki is találtam mi lesz az MI300 -as
consumer verziójának a neve: csakis "ThreadMI"
EDIT:
> Viszont... valaki találkozott inventory adattal?Inventory - dolgoznak rajta ..
Q: UBS - Client, competitor uses rebates. For AMD, that's more in legacy parts? Any AMD impact?
A: Parts of ecosystem, OEM, retail, distribution, all working through elevated inventory.
Made good progress, have good visibility, as it relates to pricing - it matters most when clearing older products is more competitive. Modelling client GMs to be under corp, that's different to prev modelling."Q: Drivers of long term revenue given more mix embedded and DC vs lower client?
A: Margin driven by mix, expansion as market grow. Sequential Q4 to Q1 is a mix. Client inventory clearance, especially older products. Margin expansion in 2H."Q: Bernstein - FY GMs, 2H?
A: Embedded and DC have strong 2H GM. Major headwind is client. 1H22 vs 1H23 impact was client inventory correction - into 2H, normalization in client will help to expand GM. Depends on how the client segment recovers to drive GM. -
Yany
addikt
válasz
Petykemano #59999 üzenetére
Az a helyzet, hogy én is erre gyanakszom, de _biztos_, hogy nem csak ennyi önmagában, mivel következtetései is vannak, illetve állít elő akár új aspektusból készült összevetéseket is, ami még soha nem volt. Én speciel megkértem, hogy különböző szempontok alapján vessen össze két konkrét járműfizikát modellező Unity assetet és táblázatban vegye sorra a szempontokat. Megcsinálta. Konkrétan a szemem előtt szedte össze bele az adatokat szépen lassan kb. 1 perc alatt.
-
Busterftw
nagyúr
válasz
Petykemano #59965 üzenetére
Pontosan errol van szo.
Azok a dolgok, amikrol hosszu wishful thinking cikkek szulettek, nem nagyon hozta el nekunk az AMD.
Az ilyen messias varo cikkek ugyanugy jonnek, a valosag meg az, hogy lassan a konkurencia visszapillantojaban sincsenek. -
HSM
félisten
válasz
Petykemano #59923 üzenetére
"...hanem a notebookok esetén is"
Notebookoknál nagy kérdés, melyik mennyit fogyaszt.Egyébként ott lényegesen rövidebb lehet a vezetékek távolsága, az épp segít a jelminőségnek/árnyékolásnak. Szerintem sem lenne sok értelme egyébként tovább csökkenteni az interfészt, 16-ról 8-ra menni sokkal több kivezetés megspórolása, mint 8-ról 4-re.
-
Petykemano
veterán
válasz
Petykemano #59918 üzenetére
"In fact, at the same node, an RDNA 3 WGP is slightly smaller in area than an RDNA 2 WGP, despite packing double the ALUs." [link]
Nem új, csak felidéztem.
Ez a magyarázat arra, hogy miért nem csak simán portoltál az Navi23-at N6-ra, és valószínűleg ez lehet az oka annak is hogy miért váltotta a Phoenix Pointban az RDNA2-t az RDNA3 annak ellenére, hogy korábban egy ilyen tik-tok megoldásról volt szó, hogy félgenerációnként készül egy-egy új változat, egyikben a CPU magokat, másikban pedig a GPU-t fejlesztve.Mivel hogy Navi31 arról tanúskodik, hogy egyelőre az RDNA3 WGP-k alig látható mértékben járulnak hozzá a teljesítménynövekedéshez, ezért a Phoenix pointtól sem várható komolyabb előrelépés a Rembrandthoz képest amennyiben
- nem kerül bele több WGP
- nem pörög magasabb frekvencián
- nem kerül bele Infinity CacheEz a dual issue érdekes dolog. Próbálok óvatosan fogalmazni. Mert ha működik, használatba veszi valami, akkor az tényleg olyan lehet, mintha kétszer annyi számítási kapacitása lenne. Mondanám, hogy az RT-ben hasznos, de ki használ APU-val RT-t?
@HSM
A Navi23-ben jelenleg 8x Pcie4 sáv van van. Ha ez így marad, az szerintem kielégítő és passzol a célszegmensben kapható alaplapok képességeivel. A PCie5 huzalozása szerintem nem csak az asztali alaplapok esetén drága, hanem a notebookok esetén is. Szerintem 2-3mm2 spórolásért a lapkaméreten azzal, hogy 8x PCIe4 helyett 4x PCIe5 legyen (amikor még a csúcskártyák sem PCIE5-sök) asztali és notebook piacon is hiba volna. -
HSM
félisten
válasz
Petykemano #59918 üzenetére
"Igen, természetesen nyilván a legolcsóbb kártyához fogod venni a legdrágább alaplapot..."
Műszaki oldalról nézve viszont indokolt lehet a döntés a PCIE sávok csökkentésének pici GPU-k esetén... Egyfelől laptopokon gyakran nincs bekötve mind a 16 sáv, ami ezeknek a fő piaca, másfelől a nagyon pici lapkák erősen I/O limitáltak lehetnek, ami azt jelenti, hogy nem tudnak egy bizonyos csipméret alá menni, ha nem nyúlnak az IO-hoz. Kellő mennyiségű VRAM-al egyébként szvsz ez nem akkora gond.#59920 morgyi : Ezzel a három tervezett csippel (Navi31, 32, 33) szerintem elég kerek lett/lesz a portfólió, illetve az alul "ottragadt" Navi24 is kellően modern GPU-nak tekinthető, különösen a megcélzott feladatra/piacra/teljesítményszinten, így nem tartom jogosnak a kritikádat.
-
válasz
Petykemano #59894 üzenetére
ez mekkora .
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59903 üzenetére
És ettől vártátok, hogy a waferár majd biztos esni fog? Hát ez sajnos nem ilyen egyszerű. Egy csomó dolgot lehet még csinálni nem teljes kihasználás esetén, mielőtt a waferárhoz hozzányúlnának.
-
awexco
őstag
válasz
Petykemano #59894 üzenetére
Feliratozod ? [link]
-
paprobert
őstag
válasz
Petykemano #59894 üzenetére
Tetszett.Az amúgy miért van, hogy az AMD csak addig gyárt GPU-t N7-en és N6-on, amíg az "drága"?
Amint bezuhanna az ára a wafernek, beszüntetik a teljesítményben még egész erős, méretben enyhén pazarló RDNA2 kártyák gyártását(Navi21,22). Pont akkor, amikor már beleférne pazarolni egy kicsit.
A következő 2 évben úgyis csökkene az N7/N6 CPU-k részaránya az N5 javára, azaz lehetne átlapátolni a CPU-któl a GPU-k irányába a termelést.A nagy képet nézve kilóg a lóláb a "még drága vagy már nem drága, tarolni akar a cég vagy margint akar maximalizálni, be kell osztani a wafert vagy nem, a konzolok elveszik a foglalt kapacitást vagy nem, ránk rohad a 6600XT, sokkal drágább az N5, rengeteg N5-ünk van & több mint az NV-nak, visszamondják a rendeléseket a cégek és emiatt kong a TSMC gyártósora" tengelyeken.
Ezek egyszerűen nem lehetnek egy időben igazak.Ezt a teljes katyvaszt és ellentmondást csak az oldja fel, hogy igazából bőség van minden gyártósoron, pangás a TSMC-nél, arányaiban minden olcsó, mégis margin maximalizálás folyik az AMD-nél, a volumen rovására. Egyfajta biztonsági játék, válság stratégia.
Egyenes út a fix egyszámjegyes részesedésbe. -
válasz
Petykemano #59894 üzenetére
- 100%! vagy több is! Öregem, ez tuti!
Én örülök, hogy Abu mond dolgokat és mi tudunk róla beszélni, de még nem látjuk a piszok olcsón kínált Navi33-at és a mellette dömpingáron kiszórt Nav23 kártyákat. Ha nem így lesz, az AMD nem fog piacot szerezni. Jó, a felső kategóriákban nyökögős a dolog, de alul, ahol a nagy volumen forog, lehetne nagyot húzni. Csak kérdés, van-e szándék.
-
válasz
Petykemano #59892 üzenetére
Jól tudjuk, hogy az AMD egyelőre messze van a Ryzen-féle piacszerzéstől dVGA terén. Az iGP-k bevezetése miatt lesz egy értékelhető penetrációja azon a téren, de a dVGA-ra még várni kell. Ha egyáltalán van olyan szándéka az AMD-nek, hogy értékelhető market share-t akar azon a területen valaha is.
-
válasz
Petykemano #59889 üzenetére
Én azt gondolom, hogy ha $350-ért jönne a Navi33, az egész jó lenne, mert a $479-es 6700 XT helyét veszi át a teljesítmény skálán, azaz olcsóbban ad azonos teljesítményt, ha az MSRP-t nézzük. Ugyanakkor már most lehet kapni $370 körül (itthon is, csak +Áfa) 6700 XT-t, tehát a valós piaci árhoz képest nem adna többet, sőt, a kezdeti árazás tulképpen nagyon rossz vétellé tenné a 6700 XT-hez képest.
De mondjuk azt, hogy $350 jó lenne a Nav33-ért (ami 6700 XT teljesítményt tud, a 6750 XT-t nem éri el). Ekkor a jelenleg $300-ért (Amazon) kínált 6650 XT perf/$-ban pont ott lenne, ahol a Navi33. Hogy vonzóbb legyen a Navi23, teljesen igazad van, hogy kellene rajta vágni néhány 10 dollárt, és az alatta lévő kártyák árából is. Tehát a 6650 XT mehetne $270-ért, a 6600 XT mehetne $250-ért, a sima 6600 $220-ért (ez most $250-től), a gyalázatos 6500 XT $120-ért (most $160-tól), a 6400 pedig legfeljebb $100-ért (most $140-től).
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59885 üzenetére
Mert le van gyártva egy rakás Navi 23, és időgépet kellene építeni, hogy visszautazzon a cég a múltba, hogy az egy évvel korábbi mennyiséget visszamondják a TSMC-nél. Ennél egyszerűbb, ha eladják a hardvereket.
#59886 Yutani : Pozicionálni tök egyszerű. A Navi 33 bemegy a Navi 22 helyére, a Navi 23 meg marad a helyén. Esetleg utóbbi árán lehet engedni egy picit, hogy gyorsabban vigyék a készleteket. Az az AMD-nek csak jó, ha mondjuk a tesztek azt írják, hogy perf/price alapon jobban megéri a 6650 XT, mert pont van egy rakás lapka hozzá raktáron.
-
válasz
Petykemano #59885 üzenetére
Abu azt akarja mondani szerintem, hogy van sok százezer Navi23 GPU legyártva, amire kártyát fognak építeni a partnerek, és a Navi33 alá lesznek pozícionálva. Persze akkor meg azt nem fogod érteni, hogy miként, ha a Navi33 csak 15%-kal gyorsabb a Nav23-nál.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59883 üzenetére
Navi 21 meg 22. De mivel az olcsóbb hardverekkel tovább terveztek, így azokat gyártották rendesen. A Navi 24-et még most is gyártják, és iszonyú mennyiségben. Zsákszámra rendelik a kormányzati projektekhez. Szöveget szerkeszteni jó.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59878 üzenetére
Mivel ezeket már legyártották, és kurva sok Navi 23 készült, így vagy megsemmisítik az összeset, vagy megpróbálják eladni. Szóval egy darabig mindenképpen marad a Navi 23. Függetlenül attól, hogy a Navi 33 jobb üzlet az AMD-nek. Visszamenni már nem tudnak az időben leállítani a gyártást.
-
válasz
Petykemano #59878 üzenetére
A 7nm-es Navi23-at valószínűleg olyan olcsón kapja már az AMD, hogy bent tarthatja a kínálatban, a drágább Navi33-at pedig fölé tudja pozícionálni, mert van annyi teljesítmény többlet benne. Feltéve, ha Abu értesülése helyes.
-
fLeSs
nagyúr
válasz
Petykemano #59874 üzenetére
Abu is asszondja, MLID is asszondja (meg én is erre gondoltam), hogy az N33 piacszerzés miatt készül 6nm-en.
6650 XT sebességgel max $250-ért kéne adniuk.
6700 XT sebességgel $300 még OK (szvsz).
Az a baj, hogy ezek a kártyák már nem léteznek, mármint a $300 alattiak, a 6500 XT/6400 kivételével, de azok olyanok is. Ebben a $300-as árkategóriában sztem az NV a 4050-et indítja. -
válasz
Petykemano #59874 üzenetére
Csak így hova jön akkor a 6800-6700XT utódok vagy milyen számozáson és áron?
-
bjasq99
tag
válasz
Petykemano #59852 üzenetére
Köszi a cikket!
belöle:
The Register file size remains untouched on Navi 33 GPUs
Ez a navi 31 ben 1.5 szeresére nőtt (simd -nként) -
Abu85
HÁZIGAZDA
válasz
Petykemano #59852 üzenetére
A vektorregiszterhez nyúlni nem túl szerencsés. IGP-nél még oké, de dGPU-nál azért hasznos, ha mindegyik lapkát a családban ugyanazzal a regiszternyomással lehet optimalizálni.
De amúgy valóban sok tranyót lehet így megspórolni.
#59853 bjasq99 : De ez normális dolog, hogy az ALU/tr arány változik. Nem ezen múlik igazán a teljesítmény, hanem inkább a regiszternyomás optimalizálásán. És ez minden hardverre igaz.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59821 üzenetére
Az AMD partnerei az előző évben heti ~50 ezer Navi 31-et szállítottak. Négy hét alatt ~200 ezret a teljes évre, de valószínűleg az ünnepek miatt nem ez volt az átlagos lebontás. Az NV partnerei ~180 ezer AD102-t és ~105 ezer AD103-at szállítottak összesen. Heti átlagban ~18 ezer AD102 és ~15 ezer AD103.
Ez nagyjából megfelel az elérhető gyártókapacitásnak is, amire rárepültek jelenleg a cégek.
Látható, hogy mennyivel nagyobb a jelenleg lekötött kapacitás a TSMC-nél, hiszen az AMD december közepén adta ki a Navi 31-et, és 200k-t elnyomtak belőle a partnerek a múlt évben. Ez a mennyiség a kétharmada annak, amennyit a GeForce RTX 4080-ból és 4090-ből nyomtak el a partnerek és nem csak az utolsó két hétben árulták őket.
-
Busterftw
nagyúr
válasz
Petykemano #59803 üzenetére
Van ott mas is
-
válasz
Petykemano #59801 üzenetére
Abban az esetben lenne igazán értelme ennek a feláras dolognak, ha az AMD annyira felültervezné az adott generációt, hogy bőven maradna benne tartalék úgy, hogy veri az NV-t (nem kell hozzá 100% potenciálon hajtani a GPU-t), így fennmaradó 10-15% teljesítmény többlet feláras termékekben lenne elérhető.
Persze ez soha az életben nem fog előfordulni, szóval nem értem az egész dolgot.
-
HSM
félisten
válasz
Petykemano #59794 üzenetére
Én azt gondolom, ennek az 5.3TB/s-nek azért nagyon nagyon sok mindenre elégnek kellene lennie. Az RDNA2-höz képest ők pl. 1.8X-os sávszélesség növekedést mértek a cache-re [link] . V-cache-el már lehet okozna némi hátrányt, de a jelenlegi rendszer nekem inkább tűnik GCD, mint MCD limitáltnak.
#59798 Petykemano : Az előző linkem alapján még mindig 4X gyorsabb elérésű lenne a cahce-hit, az még mindig emberes gyorsulás. Maradt az arány a VRAM/IC elérés sávszélessége között, mint ami a Navi21-en is volt.
#59799 Hellwhatever : Ennek sokan nem fognak örülni....
A szomorú, hogy sokan nem is az opciók/performance miatt használták az MPT-t, hanem mert gyárilag nem volt normálisan beállítva a GPU. Nem is lehetett vele a gyári értékek fölé menni, nem engedte már az RDNA2 sem, csak lefelé.
Én pl. lecsíptem kb. 100mV-ot a 6800XT-m feszültségéből, így alacsonyabb fogyasztáson hoz valamivel magasabb órajelet (2400Mhz, kb. a gyári BOOST teteje lenne ha ráadnám a gyárilag engedett +15% power limitet), halkabb, hűvösebb, takarékosabb működéssel (így szűk 300W helyett bő 200W a GPU részéről). Gyárilag nincs ilyen konfig, megvehetem vagy a jóval lassabb, fogyasztásra jobban optimalizált, de jól megvágott 6800-ast, vagy a gyárilag szénné feszelt 6800XT-t vagy 6900XT-t.#59800 Yutani : A zöldeknél régóta kőbe meg digitális aláírásokba van vésve pl. a power limitek. Viszont náluk szabadon lehetett eddig állítgatni a V/F görbét Afterburnerből, ami igen hasznos opció volt. Az RDNA2-nél hasonlót az MPT-vel lehetett. Az RDNA3-nál úgy tűnik, marad korlátozottan, amit a WattMan felajánl.
#59801 Petykemano : A "tuning felárát" eddig is meg kellett fizetni. Az RDNA2 sem engedte felfelé a gyári maximum fölé sem az órajeleket, sem a feszültségeket, sem a limiteket.
Viszont engedte beállítani a ventilátort, feszültség görbéket. Remekül lehetett vele finomhangolni a működést.
#59802 Abu85 : Ha az új API is tudni fogja, amit a régi, akkor nem lesz gond. Pl. feszültség görbék, ventilátor finomhangolása...
-
HSM
félisten
válasz
Petykemano #59781 üzenetére
"Ha a chipletezés balul sül el? (Balul sült el.)"
Az elérhető információk alapján az a rész pedig elég jól sikerült.Ami a pletykák szerint nem sikerült jól, az az elért GCD órajel (a tervezett fogyasztási kereten belül), és elvileg jelentősebb bugok vannak a lapkában, amik hatnak a teljesítményre (túl sok mindenbe nyúltak bele rövid időn belül). Nem tudom, mi és mennyire igaz ebből.
Érdekes lehet majd ebből a szempontból a Navi32, azt mondják, ott a bugok már elképzelhető, hogy javítva lesznek. -
Busterftw
nagyúr
válasz
Petykemano #59779 üzenetére
"Tényleg van olyan szignifikáns különbség a modellek között, amiért érdemes 30-40-nek léteznie?"
AMD-rol nem tudok nyilatkozni, de Nvidianal peldaul a 3000 szeriaban azert megkellett nezni melyik gyarto melyik modelljet veszi az user, mert hatalmas elteresek voltak hofokokban/zajszintben peldaul.Mostani gennel viszont pont az ellenkezoje latszik, a jo fogyasztas es hutes merete miatt konkretan tokmindegy melyik tipust veszed. (legalabbis a 4090/4080 eseteben)
-
válasz
Petykemano #59769 üzenetére
Mondjuk ehhez képest az RDNA3 több mint 40% eladásokat produkál, az nvidia 55% körüli eladásaival szemben, szóval az hogy most itt megfeszül ez a valaki elég vicces mert piacilag az Nvidia horror árazása és az RDNA3 megfelelő teljesítménye így egyben vonzóvá teszi a vásárlók felé.
Ami gáz, hogy alig van AIB kártya választék. Míg egyes Nvidia modellekből van vagy 30-40 féle egy helyen addig AMD ből választhatsz 4-5 ből.
A 4070Ti jelenleg hasít a zöldeknél, ami sajnos a 7900XT és a 4080 árazása miatt érthető annak aki új genes kártyát akar venni.
A 7900XT-t le kellene dobnia AMD-nek 599 re a 7900XTX-et 899 re, simán hoznám is el az XTX karit,de a jóslatokkal ellentétben úgy néz sokkal több helyen még elérhető a teljes előző genes készlet az AMD től míg Nvidia alig van már, gondolom addig ők sem tudnak lépni, tekintettel az AIB gyártókra. -
HSM
félisten
válasz
Petykemano #59723 üzenetére
A legérdekesebb, hogy szerinte nem is a bányászat volt a gond, hanem a szakszerűtlen tárolás.
#59729 fLeSs : AMD-nél is a hangos/meleg/instabil tapasztalatok is gyakran rossz minőségű AIB termékekből fakadtak. Érdekes mód AMD-nél nem az jött magyarázatnak, hogy hangos/meleg/silány ez az XYZ kártya, meg blackscreenel az XYZ kártya, hanem így AMD meg úgy. Szerencsére az RDNA2-nél már egész jó modellek jöttek az AIB-októl is, és a referencia is végre kitűnően sikerült.
"Melyik vonzóbb?"
Értem a gondolatodat. Ugyanakkor számomra elég gáz a DLSS meg a túltolt AI téma. A DLSS 1-2-nél simán csak gyomor kellett a homályos képhez, a DLSS3 meg számomra egy trükk a számokkal, kb mint az AFR CF/SLI volt annak idején. Ezzel szemben én igen érdekesnek tartom pl. az RDNA3 belső fejlesztéseit, amit szépen be is mutattak a diasorban. Én szívesebben vásárolok olyan terméket, ahol transzparensebb a gyártó, abban, hogy mit ad el, mint amikor magabiztosan a főnök a kamerába néz, hogy "Ai van benne, hidd el, nagyon jó lesz".
Számomra az is vonzó egyébként, hogy nyílt technológiákat fejlesztenek, pl. GPUOpen, így pl. az RTX 3060-amon össze tudtam direkten hasonlítani az FSR2.1-et a DLSS-el, hiszen az FSR2.1 gyártófüggetlen/nyílt, míg az RX 6800XT-men sajnos nem tudom bekapcsolni a DLSS-t egy árva teszt erejéig sem, mert zárt technológia... Mondjuk túlzotan nem zavar, számomra egyik sem opció, nem tetszik a képminőségük, inkább játszom kisebb felbontásban, vagy kevesebb FPS-el. -
mozesapo
tag
válasz
Petykemano #59723 üzenetére
"
Úgy tűnik, az AMD botrányt eredményező súlyos hibát véthetett a kártyák másodkezi értékesítési folyamatában."És mi köze ehhez az AMD-nek? Semmi. Valaki felvásárolta bányászoktól és eladta. Sehol nem írják a cikkben, hogy az AMD-nek ehhez bármi köze lenne.
-
Yany
addikt
válasz
Petykemano #59716 üzenetére
Szerintem a kulcs az, hogy mindegyik hazudik, mint a vízfolyás, csak az NVIDIA termékei egyszerűen jobbak. Vagy ebben, vagy abban, vagy többmindenben, de drágább létük ellenére is egyszerűen a nagy többség tényleg jobban jár velük, ennyi. Itt nem a gyártók által elmondottak alapján mérkőzik meg a két termék, az kb. a retail debüt pillanatában szerte is foszlik és van nekünk GN és HUB és LTT (bár én ez utóbbit nem csipázom) akik megmutatják, hogy mi a tényleges szitu. És hangsúlyozom, nem az FPS értékekről beszélünk, mert ott hozza a kötelezőt az AMD is. De az a storynak csak egy pici része. És ez a story teljes terjedelmében szivárog szépen be az emberek tudatába, szó sincs vakon hívőségről. Legalábbis nem ott kell keresni a probléma gyökereit.
-
paprobert
őstag
válasz
Petykemano #59720 üzenetére
Én pont ugyanannyira vagyok mérges mindkét cégre, ha ez megnyugtat.
Az NV elérte, hogy teljes mértékben át lehet ugrani a teljesítményre vonatkozó részt a prezentációjukban.
De igazából az árra vonatkozót is, mert az sem a valóságról beszél.Az elvárásokbeli különbségben szerintem az van, hogy az AMD-t körüllengi a "na most majd megmutatjuk ezeknek" étosz. Most jön a megváltás. Most fordul a 90-10. Gyakorlatilag a reddit hangulata.
A CES előadáson a két nagy ígéret is ezt támasztotta volna alá, és amikor kiderül, hogy lufi az egész, az visszafele sül el. Se teljesítmény, se megváltás.Ezzel szemben, ha a piacvezető lódít a +200%-ról, miközben +40-60% a vége, az az emberek szemében rendben van, mert van magas teljesítmény hazugság nélkül is.
-
fLeSs
nagyúr
válasz
Petykemano #59720 üzenetére
Látom téged nagyon érdekelnek ezek a slide-ok.
Ez csak az enthusiast közösséget izgatja, az átlag vásárló nem is hallott ezekről a slide-okról, nem néz ilyen VGA bejelentő eseményeket.
De ha már slide-ok: az AMD következetesen +54% perf/wattról és "up to" 50-70%-ról beszélt több slide-on keresztül, a bejelentés nagy része erről szólt, míg az NV-ánál ez csak egy slide volt ami kb. 10 mp-ig volt a képernyőn.
A tápcsatlakozó problémáról kiderült, hogy user error (nemtom, hogy az-e, de ez a hivatalos magyarázat), szóval nem az NV sara.
Az AMD-t azért is övezi nagyobb figyelem az enthusiast körökben, mert ezek az emberek az AMD-től várják a piaci tendenciák helyrebillenését mivel két monopólium ellen harcolnak. Az Average Joek 90%-a viszont nem is hallott még az AMD-ről, de az Intelről és az Nvidiáról (valószínűleg) igen.
Nézd. Az AMD sokak szemében ez: forró, hangos, bugos driver, lassú RT, nem támogatja az nvenc-et, nem jó streamingre, olcsó (pejoratív értelemben), stb. Van ami igaz, van ami régről maradt rá a márkára.
Ez a vita abból indult ki, hogy ezeket a problémákat vhogy le kéne vetkőzniük (akár átnevezéssel). Azt nemtom megmondani, hogy mi miért van többszáz millió ember fejében. -
fLeSs
nagyúr
válasz
Petykemano #59716 üzenetére
A botrányok vagy rossz döntések amíg rövid életűek vagy csak ritkán, egyszer-egyszer fordulnak elő addig csekély hatással vannak egy márka vonzerejére, mert a fogyasztók általában megbocsátják és/vagy elfelejtik az ilyen félrelépéseket. Ez a helyzet az NV-vel. A kutyát nem érdekli, hogy a slide-okon a 4070 Ti 3x gyorsabb mint a 3090 Ti, mert ezt kb. senki sem látta és/vagy nem veszi komolyan és/vagy elfelejti 1 hét múlva és/vagy nincs hatással magára a termékre.
Amikor viszont egy márka (brand) következetesen nem képes teljesíteni az általa megfogalmazott ígéreteket olyankor vonzereje csökken, ilyenkor a márkanév (brand) megtépázásáról vagyis sérüléséről beszélhetünk az idő előrehaladtával. A márka károsodhat ha 1. rossz az ügyfélszolgálat 2. a megjelent termékek nem felelnek meg a márka imázsának, nem teljesítik az ígéreteket (Polaris fogyasztás? Poor Volta vs Vega? RX 5700 "Jebaited"? idióta termékelnevezések/számozások/átnevezések) 3. a gyártó weboldala rossz élményt nyújt 4. az ügyfelek véleménye rossz a termékekről (asszem erről sem kell mesélni - mindegy hogy igaz vagy sem, ha ez a többség véleménye akkor gáz van)
Hosszú távon ez a márkahű vásárlók csökkenéséhez vezethet illetve a legrosszabb esetben a piaci részesedés csökkenését vonja maga után.
Tehát pl. nem az RDNA2 kártyákkal van a gond, nem azért nem veszik őket mert rosszak lennének, hanem azzal van gond ami az RDNA2 előtt volt.Ezt most egy tervezett blogbejegyzésemből szedtem ki.
Sorry ha offtopic. -
PuMbA
titán
válasz
Petykemano #59662 üzenetére
A 3060-nak szerintem van két ütőkártyája. Egy a DLSS. Például a most kijött FSR 2.2 frissítés az F1 22-ben a DLSS-hez képest minőségben egy nagy nulla lett. Kettő, én például Cyberpunkot tolom RT-vel és a 3060 így pár fps-sel az RX6800 mögött van teljesítményben, szinte egál. Én ezek miatt vettem 3060-at használtan 120k-ért
Ha ezek nem számítanak, akkor a 6700XT szerintem a legjobb vétel, használtan.
-
hokuszpk
nagyúr
válasz
Petykemano #59657 üzenetére
bánygépbe celeronokat meg pentiumot pakoltak 4-5 db RX570...RTX2080...RTX3080 mellé.
-
hokuszpk
nagyúr
válasz
Petykemano #59644 üzenetére
"Egy 4090 mellé ugyanis nem fogsz belépőszintű processzort venni, "
dehogynem. csak épp nem játékra ; es gyorsan kopogjuk is le, nehogy visszajöjjön a kryptoőrület.
-
M.T.
senior tag
válasz
Petykemano #59648 üzenetére
Szerintem Totál felesleges 6 magot 3D cache -el ellátni már játékokban és az elkövetkezőkben is elkél a 8/16 ha több nem is. Persze lenne rá vevő de nem lenne annyival olcsóbb.
-
Alogonomus
őstag
válasz
Petykemano #59648 üzenetére
Egy lényegesen olcsóbb 7600X3D csak a 7800X3D eladásait csökkentené jelentős mértékben, amivel pénzt veszítene az AMD. Egy minimálisan olcsóbb 7600X3D pedig keveseket érdekelne, mert akkor már kifizetnék a teljes gép költségének a szintjén maximum 5%-ot jelentő felárat a lényegében egy 7700X "felturbózott" változatának tekinthető 7800X3D-ért.
Új AM4 processzorra pedig azért nem számíthatunk szerintem, mert az AM5 elterjedését így is nagyon akadályozza az 5800X3D megléte. Anno lényeges volt annak a processzornak a kiadása, hogy az Intel utolsó "bástyáját" is ledöntsék vele, de jelenleg már inkább az AM5 felé szeretné terelni a vásárlókat az AMD, mert az alaplapgyártók már AM5 lapokat szeretnének eladni.
Egy lényegesen olcsóbb 5600X3D bemutatásával csak új lendületet/reményt kapna az AM4-es tábor, és kevésbé lenne hajlandó AM5-re váltani. Főleg úgy, hogy az új kártyák is maradtak PCI-E 4-esek. -
válasz
Petykemano #59648 üzenetére
Nekem R5 3600 van 3060 Ti mellett. Dying Light 2-vel játszom mostanában, RT be van kapcsolva. Afterburner szerint a CPU elvan ilyen 35W fogyasztással, míg a VGA teker 160W-on. Előtte 1600X volt, és szerintem az is kiszolgálná ugyanígy a 3060 Ti-t, mert nem a CPU a szűk keresztmetszet.
Igazából csak azt akarom mondani, hogy persze, hogy jó az 5800X3D, de egyrészt egy közepes VGA-hoz overkill, másrészt meg ha azt nézem, hogy 40k körül van újonnan R5 3600, míg a legolcsóbb új 5800X3D 157k, legfeljebb 50% teljesítmény többletért nem fizetnék háromszoros árat. Persze ez mind az én szemszögömből nézve igaz, másnak más preferenciái vannak.
-
X2N
őstag
válasz
Petykemano #59631 üzenetére
Csak 2 dolgot felejtettél el.
1. Nvidia is csinálhatna éppenséggel handheld/asztali konzolt saját hardverrel.
Elnézve a steam deck népszerűségét még akár sikeres is lehetne.
2. Ahogy Linus Torvalds is mondta: Nvidia is the sigle worsth company we've ever dealt...
Közös termék a Sony-val háát..szerintem kérdéses.
+1 Cloud akkorát bukott hogy csak na. Ezt senki nem fogja bevállálni mégegyszer. AI az új buzzword, ettől nem lesznek jobb játékok.
-
T.Peter
őstag
válasz
Petykemano #59627 üzenetére
Habar en nem latok bele, de fejlesztoi oldalrol nezve nem hiszem, hogy orulne a szakma ha mindent amit eddig az amd-vel kitapasztalt dobhatna ki. Plusz a ket konzol kozti kulonbseg is megnone ami ugyanugy megnehezitene a dolgunkat. A visszafele kompatibilitas is megszunne. Emellett pedig sok elonyet sem latom a valtasnak.
-
válasz
Petykemano #59627 üzenetére
Az Arm az adatközpontok miatt kellett az Nvidiának, a z a zsíros falat, ahogy Grace oda is jön. Játék vonalon marad a Tegra szerintem. Remélem az idén bemutatják az újat. 80 SM verziós Ada-t pletykálnak az új Switchnek, ami nagyon odatesz a nagyoknak is, ha igaz.
-
Busterftw
nagyúr
válasz
Petykemano #59548 üzenetére
Ami ugye a 4080, épp hogy.
Ha a 4090 mellé még jön 4080ti és 4090ti, akkor már csak 4. -
Abu85
HÁZIGAZDA
válasz
Petykemano #59548 üzenetére
Simán gyorsabb a 7900XTX a 4080-nál.
-
paprobert
őstag
válasz
Petykemano #59542 üzenetére
A Navi33 mindenre választ fog adni szerintem.
6nm esetén rengeteg tapasztalat van már, mindent ki lehet facsarni a szilíciumból, nincs 5nm, ami új változó.
Ha tényleg van 3GHz+ az architektúrában, akkor azt látni fogjuk.
Ha tényleg tud gyorsulni az órajel növeléssel, akkor annak is látszódnia kell(ene), mert nincs chiplet, mint esetleges zavaró tényező.A fogyasztást háttérbe helyezve ez egy tökéletes tesztkártya lesz az RDNA3-at vizsgálva, mint architektúra.
Amennyiben a Navi33-mal is csak felemás lesz az eredmény, ha nem lesz súlycsoport fölé ütés, akkor viszont kijelenthetjük, hogy a tervezőasztalon csúszott meg ez a generáció. -
válasz
Petykemano #59542 üzenetére
Igazából nem lett olyan borzasztó a 7900 XTX. A TPU szerint 4k-n raszterben 47%-kal jobb, mint a 6900 XT, és csak 22%-kal gyorsabb a 4090 ugyanebben a kontextusban. 4k RT-ben is jobb lett hasonló mértékben a 6900 XT-nél, de itt a 4090 55%-kal gyorsabb. Ha csak RT-t nézünk (miért is ne, mert aki nem RT-vel játszik, az bizonyára b*zi), akkor a $999 MSRP-s 7900 XTX nagyjából ott van, ahol lennie kell a $1599 MSRP-s 4090-hez képest. Ha meg rasztert nézünk, akkor sokkal jobb vétel a 7900 XTX a puszta számok alapján.
A 4080-nal összevetve ($1199 MSRP) a 7900 XTX 3%-kal gyorsabb 4k raszterben, de lassabb 14%-kal 4k RT-ben, de MSRP-t nézve ~17%-kal olcsóbb is. Tehát még ezt az összevetést is kiállja a 7900 XTX.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59519 üzenetére
Az újat igen. Azt fel lehet rá pakolni, csak nincs értelme, mert 96 MB-tal is 75% körüli a találati arány 4K-ban. Ha felraknak mindegyik MCD-re egy cache-t, akkor ezen maximum 80-85%-ra javítanak, ami nyers teljesítményben lesz +5%, és eközben a gyártási költség ennél bőven jobban nőtt meg a tokozási költség miatt.
Ennek akkor lehet majd értelme, ha nem csak tiling védőhálóra használják az IC-t, de egyelőre csak annak van érteme, mert minden más tényezőre kigyúrták az L0 és L1 cache-et, mert azok kapacitása nőtt.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59517 üzenetére
A GDDR6 tuningja az nem az Infinity Cache tuningja. A helyzet az, hogy az RDNA 2-nél az IC tulajdonképpen ugyanaz volt, mint a CPU-kon, mert a Zenből emelték át a dizájnt. Az RDNA 3-nál az IC egy grafikára áttervezett dizájn, és kisebb kapacitással is nagyobb a találati arány. Tehát ha növeled a kapacitást, akkor nem nyersz vele kiugróan nagy találati arányt, így nem sok értelme van azt növelni. Ettől még, ha egy játék sávszéllimites, akkor még gyorsulni fog nagyobb GDDR6 órajellel, mert az IC az valójában egy védőháló a tiling rendszernek. Oda nem kerül ám be minden adat.
-
HSM
félisten
válasz
Petykemano #59508 üzenetére
-
HSM
félisten
válasz
Petykemano #59505 üzenetére
"Ha tippelnem kéne ... hogy a Packed Math feature nem jött be"
Szerintem más oka lehet. Pl. az utasítás kódolás oldaláról már lehet túl bonyolult lett volna 4db FP16-ot sűríteni egy utasításba, az már elég sok operandus címet igényelne. -
Raggie
őstag
válasz
Petykemano #59505 üzenetére
Értem.
Ezek alapján ha jól veszem ki a szavaidból, akkor a gaming workload főleg FP32-t használ.
Ha ez tényleg így van, akkor még valóban elég nagy kihasználatlan potenciál van az RNA3-ban. Csak kérdés, hogy ezt mennyire tudják driver-ből megoldani majd és mennyire kell ehhez a játék programozók szándéka és megfelelő kódja is.Valamint azt megtaláltam én is, hogy az FP64-et inkább csak tudományos számításoknál és suimulációknál használják.
Még talán arról is olvastam, hogy az Nvidia ezt mesterségesen le is korlátozza a Geforce kártyáknál formware-ból, hogy az ilyen igényekhez inkább Titan és Quadro termékeket vegyenek a tudományos pénzes felhasználók. -
Raggie
őstag
válasz
Petykemano #59502 üzenetére
Ezek nagyon érdekes adatok.
Egyébként arról nem találtam most gyors google kereséssel sem jó cikket vagy összefoglaló táblázatot, hogy a mai modern játékok kb milyen %-ban használnak FP16-32-64 számításokat.
Ezzel kiegészítve volna igazán sokat mondó a lenti grafikon. -
Petykemano
veterán
válasz
Petykemano #59485 üzenetére
Abu!
A késleltetéssel kapcsolatban akartam tőled kérdezni.
Mint azt említettem, elég magasnak tűnik számomra az infinity cache és a VRAM eléréséhez a chiplet-kapcsolódás általi hozzáadott késleltetés.
Előbbi esetben kb 30ns, utóbbi esetben 60+ns
Szerinted ez bug (lehet-e ez egy a hardveres bugok közül), vagy tervezett?
Persze a kérdést le lehetne csapni annyival, hogy hát a chipletezés természetes velejárója a megnövekedett késleltetés. Természetesen a a magasabb késleltetés érthető, csak a mértéke tűnik számomra túlzónak. Mondom, miért jutottam erre a következtetésre:
Itt már felmerült egyszer, hogy esetleg az AMD a 2.5D kapcsolathoz egy GLink 2.3LL nevezetű technológiát használhat. Ez gondolom egy PHY.
Nem tudom, hogy létezik-e más IP erre a célra, nem biztos, hogy az AMD tényleg ezt használja, de nem tartom valószínűnek, hogy saját IP-t terveztek volna.Ha rákeresek az "info_os" és "latency" kifejezésekre, akkor elég sok találat pont a GUC GLink termékéről szól. (Egyébként ez egy elég jó ismeretető: [link] )
Ezt a PHY-t 5ns-os end-to-end hozzáadott késleltetéssel hirdetik, ami lényegesen kevesebb, mint amit a Chips&Cheese mért, mint regresszió. Sőt, megkockáztatom, az 5ns egész tűrhető érték lenne.
Szóval, mit gondolsz?
- Az AMD nem ezt az IP-t használja, hanem valamit, ami ennyivel nagyobb késleltetést ad hozzá?
- Ezt használja ugyan, de az 5ns az csak egy elméleti érték.
- Ezt használja ugyan, de valami hibás?
- Valami más? -
Petykemano
veterán
válasz
Petykemano #59485 üzenetére
Ez az ábra mutatja, hogy azért lenne potenciál az architektúrában.
De ha jól értem, akkor ez a számítási kapacitás csak akkor jön ki, ha a drivernek sikerül VOPD utasításokat előállítania. De ez már a driveren múlik, és sajnos úgy ismerjük az AMD-t, hogy
az optimalizálások jellemzően utólag készülnek el (FineWine)Gyanítható ez alapján, hogy a peltykált driverből hozható +10% épp ez. Tartok tőle, hogy lehet az több is, de tartok tőle, hogy beletelik majd 1-2 évbe, mire beérik a dual-issue cucc.
-
válasz
Petykemano #59487 üzenetére
Szerintem érdemes a gyártási ár/ értéket is hozzávenni ennél, mennyi plusz költséget jelent a 3D most és mennyit fog 1-2 év múlva a tervezési/ mérnöki tapasztalattal együtt érni és így bekerülni , mert szerintem egyre többen fognak erre rátérni és maga az eljárás fel fogja venni a versenyt árban is a régebbi gyengébb libekre való áttéréssel, azaz nem vagyok benne biztos, hogy megéri.
Tehát amit most csinál AMD szerintem jó kezdeti lépés és egyfajta egyensúlyozás a gyártási költségek és a bevállalt hátrányok között de nézd meg Apple-t aki kimaxolja az egész 2 D-t de milyen áron és mérettel.
Nvidia is a Grace kombóit erre fogja használni AMD is a professzionális szegmenst erre építi 2 gen múlva ez általános eljárás lesz. -
válasz
Petykemano #59485 üzenetére
Várj Ada-nál nem az L2 nőt?
-
bjasq99
tag
válasz
Petykemano #59482 üzenetére
Azért ez szerintem nem reális, vagyis hogy az rx 6800 közelébe érne, de majd meglátom. Számításaim arra alapozom, hogy az rx 7900 xtx durván 34% -al jobb a 6950 xt nél 4k ban!!! ahol a legelőnyösebb a dual Alus kialakítás, és mindezt úgy hogy 1.2 szer annyi Cu található benne, tehát 1.34/1.2 =1.12 ennyivel jobb egy új Cu a régihez viszonyitva.
Nézzük az óra jelet az a 6650xt -n 2.6 ghz volt kb míg a beszél 3.2 Ghz (ami azért elég magas így igaz) 1.23 szoros növekedést jelent.
Így összességében 1.23*1.12= 1.38 szoros teljesítményjavulás várható maximum átlagosan, míg a 6800 54% -al jobb mint 6650xt 1440p ben -
PuMbA
titán
válasz
Petykemano #59482 üzenetére
A gond megint az, hogy hiába van a GPU sebessége 6700XT / 6800 szinten, ha csak a pletykált 8GB VRAM-ot tesznek mellé és 128 bites memória buszt. Okosak ezek a VGA gyártók és nem fognak túl jó alsó kategóriás kártyát kiadni.
-
paprobert
őstag
válasz
Petykemano #59475 üzenetére
"Ez akkor lenne wasistdas, ha ezt a szuperolcsón, mérete és a kiöregedő gyártástechnilógia miatt még a Navi23-nál is olcsóban gyártható kártyát $200-250 szint körül kezdenék árulni."
De hát az még a végén jó lenne a fogyasztóknak. Hát hülye vagy te?! -
válasz
Petykemano #59473 üzenetére
De az csak feltételezés, hogy amit bemutattak, Navi33. Mi van, ha a mobil 7600 egy Navi34?
-
GeryFlash
veterán
válasz
Petykemano #59467 üzenetére
Lemaradtam, nem ugy volt hogy Abu azzal turnezott, hogy az N33 dVGA lapka (is) lesz ami majd kb 400 dollaron fog 6800XT-6900XT kozotti/koruli teljesitmenyt, es hogy ezzel fogjak letarolni a piacot?
-
válasz
Petykemano #59467 üzenetére
Ahogy Raymond irja.Mert keszleteik vannak az elozo genbol.Zoldek marciusban hozzak a 4070 kartyat nyar elejen a 4060 karit igy lehet kalkulalni majd az AMD nel is.
-
Raymond
titán
válasz
Petykemano #59467 üzenetére
De miert jelentettek volna be barmit is ha tele a piac 6600, 6650, 6700 es 6750 kartyakkal? Majd ha azok elfogytak akkor lesz uj termek.
-
Petykemano
veterán
válasz
Petykemano #59466 üzenetére
+1
Persze abu már jóelőre beharangozta, hogy az navi33 mobil lapka. De attól még az a kérdés fölmerülhet, hogy miért nem jelentettek be desktop.változatot is. Az RDNA2-re épülő mobil lapkák Legalábbis nem voltak annyira elterjedtek szerintem. Mi alapján lenne várható, hogy ez majd az lesz?
Erre csak az lehetne a válasz, hogy mert olcsó, mint a dög, hiszem lényegesen olcsóbban gyártható, mint az nvidia 4N alapú lapkái.Attól még egy bejelentés lehett volna. De azt gyanítom, hogy ez azért nem történt meg, mert az N33 lapka is érintett a frekvencia regresszióban, mint ami miatt az N31 sem az elvártnak megfelelően teljesít.
Ez persze részemről csak tipp. Abu majd biztosan elmagyarázza, hogy ez a stratégia része és ezúttal brutálsok notebook lesz AMD gpuval szerelve.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59461 üzenetére
Magas szintű kódnál ezzel ritkán törődnek. Ez inkább egy fordítói dolog, vagy magas szintű kódnál lehet írni olyat, hogy a fejlesztő figyelembe veszi az alacsony szintű optimalizációt. De aki ilyet ír, az tudja, hogy miképpen kell írni az egyes hardverekre, szóval ott azért nem szokott gond lenni.
Igazából ezekről, így specifikusan, hogy wave64 vagy wave32 legyen nem nagyon dönt a fejlesztő. A kódot elemzi a fordító és majd eldönti.
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59455 üzenetére
Mindegyik ilyen dual-issue és co-issue modellnek vannak limitjei. Ha nem lennének, akkor állandóan működnének, és mindig eredményt adnának.
Amik fel vannak sorolva, azok az efféle rendszereknél tipikus limitek. Például ugye a regiszterre vonatkozó limit, ami ugye a statikus regiszterallokációból ered, és nem lehet vele mit kezdeni.
Egyébként a TFLOPS wave64-gyel mindig 66. Wave32-vel lehet 33, ha ugye a fenti limitek nem teljesülnek. A wave32 leginkább azért fontos, hogy mondjuk egy wave32 mellé be tudj szúrni egy RT vagy egy kikódolási műveletet mondjuk a DirectStorage-hoz. Ezzel az RT és a DS ingyenessé válik, mert ugyis van már egy wave32-d, ami fut, csak mellette nem fut semmi.
A legtöbb esetben wave64-et fordít a rendszer, mert ugye azzal maximális a kihasználás, de ott az szokott lenni a gond, hogy nagyon sok a lane, és a tipikusan per lane érzékeny feladatokhoz nem optimális.
Az a nagy különbség, hogy az RDNA1/2 esetében a wave32 volt a legjobb mód. Amikor wave64 ment a hardver felé, akkor az le lett bontva két wave32-re, és egy skalár ALU volt aktív a két SIMD-hez. Az RDNA3-ban a wave64 nem lesz lebontva, mert kétszer szélesebb a SIMD. Viszont erre a SIMD-re a VOPD-vel rá lehet fűzni két wave32-t. Tehát a működés lényegében megfordult, és ennek a fő oka az, hogy amíg az RDNA1/2-nél igazából a késleltetés áthidalására lehetett optimalizálni a wave64-vel, addig itt ez az alapértelmezett mód, és a független wave-ek egymás melletti feldolgozására lehet optimalizálni a wave32-vel.
Itt egyébként nincs akkora különbség amit az NV és az AMD csinál. Persze maga a modell más, de valószínűleg architektúraspecifikusan nem optimális a co-issue a Radeon dizájnjának, és nem optimális a dual-issue a GeForce dizájnjának. Ezért az NV beépít egy extra ALU-sort amit különböző limitek mellett lehet használni (co-issue), míg az AMD a kibővített ALU-sort különböző limitek mellett másképp is használhatóvá teszi (dual-issue). Végeredménybe, ha célzod a co/dual-issue képességeket, akkor ugyanott vagy.
#59459 Alogonomus : A Snowdrop 2 egy külön állatfaj. Ott különböző eljárásokat be se tudsz majd kapcsolni, ha nem AMD-d van. Az nem igazán a sebességről szól, hanem az effekt megvalósíthatóságáról.
-
HSM
félisten
válasz
Petykemano #59457 üzenetére
Egyébként az Amper architektúrán is megfigyelhető, hogy a dual-issue azért nem olyan hatékony, mint az elméleti maximum, pl. hiába tud a 3080 "papíron" 30 Tflops-ot, RT nélkül sebességben ott van vele egy ligában a 20Tflops-os 6800XT....
"Mindenesetre a kötöttségek sokasága magyarázza..."
Igazából az RT-re leszek kíváncsi, ha majd kicsit jobban kiforrta magát a driver. Úgy emlékszem, azzal (is) magyarázták az új felépítést, hogy a dual issue jól használható RT mellé. -
HSM
félisten
válasz
Petykemano #59455 üzenetére
Az out-of-order vajon honnan jött? A forrásban independentet látok. Ez a limit Nv-n is adott.
Érdekes adalék, hogy ilyen sok megkötés van. Nv-nél is izgalmas lenne megnézni ezt, bár ők nem kötik ezt a publikum orrára.
-
Laca333
tag
válasz
Petykemano #59444 üzenetére
Ez is elég érdekes [link]
-
Abu85
HÁZIGAZDA
válasz
Petykemano #59444 üzenetére
Programfüggő, hogy sávszélhiányosak-e a VGA-k. A Cyberpunkban például biztos, mert igencsak elavult az alkalmazott leképezőtechnika, ami főleg a sávszélt eszi. De mondjuk, ha áttérnének tiledes vagy clusteres leképezőre, akkor már rögtön nem sávszéllimitesek lennének.
-
HSM
félisten
válasz
Petykemano #59432 üzenetére
Benne van. Ugyanakkor én a részükről is érteném a dolgot, nyilván nekik jelentős felesleges pluszköltség lenne, ha hirtelen boldog-boldogtalan, akinek különböző okokból eléri a 110 fokot (pl. rosszul szellőző gépház) egyből szaladni garizni, hogy hibás....
#59433 Ribi : Emelkedik az itt is, csak kezdetben gondolom a hirtelen jelentősen emelkedő ventilátor majd a kezdődő throttling még ellensúlyozza a melegedést valahogyan. Látszik, hogy ott kezd a dióda csökkenni, ahol már nagyon közelíti a hotspot a 110 fokot.
Nem leáll a chamber, hiszen továbbra is nagyjából kordában tartja a kártya hőtermelését, csak drasztikusan esik a hatékonysága valamiért. -
válasz
Petykemano #59425 üzenetére
Ha minden változatlan, csak a kártya térbeli pozíciója változott, akkor a legnyilvánvalóbb a hűtés nem megfelelő kivitelezésének hibája. Veled egyetértve, ezt hogy lehet másképp értelmezni?
Vagy ebben az esetben a logika az AMD körül úgy hajlik, mint fény a nagy gravitációjú égitest körül?
Szerk: Igazából okafogyottak a fentiek, de mivel olyan szépen fogalmaztam, meghagyom az utókornak.
-
HSM
félisten
válasz
Petykemano #59425 üzenetére
Én csak azt mondom, nem önmagában a 110 fok a baj...
Hanem hogy pl. üvölt a venti, vagy hogy nem ez volt a review-okban.
Én nem tartom kizártnak, hogy számítási hiba súlyosbítja az amúgy sem túl rózsás helyzetet. Nekem azonban a fő oknak valami gond tűnik a Vapor-chamberrel. Ahogy der8auer is mondja a videóban, akár tervezési (a forma), akár gyártási (pl. bizonyos példányokba nem töltöttek elég folyadékot) is lehet a probléma forrása. Ezt nem tudjuk még. De az biztos, hogy nem egészséges, ahogy vertikálisan beépítve némely kártya viselkedik.
A dióda által mért, számítási hibáktól vélhetőleg mentes adat is egyértelmű és jelentős hőfok emelkedést mutat a ventilátor szignifikánsan magasabb fordulatszáma ellenére, ami szintén a rendellenes hűtés működést erősíti meg.#59426 Abu85: Szerintem te is tudod, hogy ha max 6% órajelkülönbség volt power virusban, akkor normál játékban sem lesz ennél több. A probléma, hogy közben halláskárosult lesz a kártya 'boldog' tulajdonosa.
-
HSM
félisten
válasz
Petykemano #59418 üzenetére
"a lapka igénybevétele, vagy más mérési pontok jóval alacsonyabb hőmérséklete alapján sok esetben ott azon a bizonyos mérési ponton sem kellene 110°-nak lennie."
Egyfelől igen. Egy "mérési pont" van, ha Abu információi helytállóak, amit látunk is pl. a linkelt videóban, ez az alacsonyabb. Illetve van egy "hotspot", ami számolt, így akár téves is lehet bizonyos körülmények között. A mérési pont és a számolt hotspot között a vertikális állásban 35 fok a különbség, ami erősen szélsőségesnek tűnik. Bár a hűtő hibája is okozhat szélsőséges viselkedést, de ez annál nagyobbnak tűnik, önmagában vapor kamra vörösréz falának át kellene vinnie egy csomó hőt ilyen kis távolságra.Nekem úgy tűnik, hogy egyfelől a vertikális pozícióban nem működnek jól az érintett hűtők (~10 fokkal magasabb hőfok 1750 helyett 2850rpm fordulattal
) másfelől ezáltal mintha valami bugba is belefutna, és irreálisan elszállna a hotspot hőfok, ami miatt elkezdi visszavenni magát a kártya.
Természetesen, előfordulhat, amit írsz. Ugyanakkor nem tartom valószínűnek. De azt is fontos kommunikálni egy ilyen esetben, hogy a 110 fokos hotspot még nem szükségszerűen jelent működési gondot, mivel az emberi természet hajlamos túlpánikolni ilyen eseteket, és már most látszik, hogy sokakban az marad meg, hogy ha 110 fok akkor az hibás, és nem garizzák. Miközben ez ennél mint láttuk sokkal összetettebb. Nyilván, a gyártónak épp elég költség lesz a valóban hibás példányokat cserélni, pánik nélkül is...
-
HSM
félisten
válasz
Petykemano #59408 üzenetére
Én itt nem a 110 fokban látom a problémát... Hanem abban, hogy az érintett kártyákon bizonyos pozíciókban üvölt a refhűtő, és közben a kártya throttlingol, ami szerintem egyáltalán nem az elvárható működés egy prémium videókártyánál.
Egyfelől amúgy úgy látom, Abu magyarázata szerint is hibás a kártya, hiszen a 110 fokos jelenségnél 35 fok volt a dióda és a hotspot között, míg a normális működésű szögben csak 25.
Szerintem ez azon fog múlni, el fogja-e érni a kártya a specifikált "game clock"-ot, ami 2300Mhz [link] . Ha eléri, akkor bajos lesz üzemzavart rájuk bizonyítani, hiszen amit hirdettek az megvan, ha viszont ezek a kártyák nem érik ezt el, akkor bizony garisnak kellene lenniük.... -
HSM
félisten
válasz
Petykemano #59401 üzenetére
A 110 fok hotspot normális, de ha közben a GPU hideg, akkor nem... [link] Ezt Abu is megerősítette, hogy ezügyben vizsgálódnak.
-
HSM
félisten
válasz
Petykemano #59381 üzenetére
Értem a célzást. De így is nagyon érdekes, mert pl. szerintem ez egy SOKKAL fontosabb, és vélhetőleg olcsóbb dolog, mint pl. a bemenő levegő hőfok mérő, amit meg mégis ráraktak.....
#59382 X2N : Nekem is nagyon tetszettek a refek, míg ez ki nem derült róluk.
Számomra inkább az a szomorú, ahogy ehhez hozzáállnak, hogy ez így specifikált működés... Kár a remekül sikerült ref 6800-as sorozat után.
-
Alogonomus
őstag
válasz
Petykemano #59367 üzenetére
Pont az a lényeg, hogy ekkora különbséget vagy drasztikusan eltérő grafikai beállításokkal, vagy a tesztrendszeren belüli szűk keresztmetszettel lehet indokolni.
A PCWorld és a HUB sem kockáztatná a nevét az előírt egységes tesztelési paraméterektől eltéréssel, vagyis az 52%-ot produkáló tesztrendszerben nem volt jelen valami olyan korlátozó tényező, ami a 36%-ot produkáló rendszerben ott volt.
Hogy ez az alaplapi BIOS, a processzor, a memória, a tápegység, vagy más elem eltérő működéséből adódott, azt az AMD szoftvermérnökei valószínűleg látják a teszthez biztosított béta driver által visszaküldött adatokból. Hiszen Abu is egyértelműsítette, hogy a driver-t közvetlenül össze kellett kapcsolni az AMD szervereivel a teljes sebességű működéshez. -
HSM
félisten
válasz
Petykemano #59369 üzenetére
Osztom a feltételezésed.
"De ez a feltételezés csak akkor állná meg a helyét, ha tudnánk, hogy tényleg eltért a CPU."
Még csak a CPU sem feltétlen kell eltérjen....
Pl. azonos, alapórajeles, de emelt limites 5600-as CPU, SOTTR bench FHD + Highest preset AA és RT nélkül, ramok azonos 3733Mhz-en, CL16-16-16-32-48-1T-n, csak a második esetben kézzel megpaprikázva a subtimingeket egy XFX "Merc319 Core" 6800XT tuning nélküli VGA-n:
Ennyi kell 5% eltéréshez....Én még review-t nem láttam, ahol írták volna a subtimingeket....
Ilyen bivalyerős VGA-k alá WQHD-n már erősen kell kakaó az alatta lévő platformtól. -
Ribi
nagyúr
válasz
Petykemano #59367 üzenetére
Az még furább, hogy míg mondjuk 4k-ban hasonló az eredmény, addig 1440-ban meg tök más két tesztoldal között.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- 15" Workstation: Lenovo Thinkpad P1 gen1/gen2 // P52 // P52s // P15 gen1 // FHD, 4K oled touch
- Beszámítás! Sony PlayStation 5 825GB SSD digital konzol garanciával, hibátlan működéssel
- Steam, EA, Ubisoft és GoG játékkulcsok, illetve Game Pass kedvező áron, egyenesen a kiadóktól!
- BESZÁMÍTÁS! MSI B450M R5 5500 16GB DDR4 512GB SSD RTX 2070 8GB Rampage SHIVA FSP 650W
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest