- Android alkalmazások - szoftver kibeszélő topik
- CMF Buds Pro 2 - feltekerheted a hangerőt
- iPhone topik
- Samsung Galaxy Watch7 - kötelező kör
- Megjelent a Poco F7, eurós ára is van már
- Telekom mobilszolgáltatások
- One mobilszolgáltatások
- Vivo X200 Pro - a kétszázát!
- Mobil flották
- Okosóra és okoskiegészítő topik
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Tyrel
őstag
válasz
Oliverda #43796 üzenetére
És hogyan kellhet fittyfasz mobiltelefon lapkákhoz nagyobb kapacitás mint az AMD-nek, hogy lehet az Apple a kiemelt partner? Csak egy lapkát gyártanak, és az is kicsi, az IPhone pedig istenigazából csak amerikában örvend kiemelkedő népszerűségnek.
Az AMD ezzel szemben ott gyártja a teljes szerver, desktop és notebook termékskáláját, CPU-ból és GPU-ból egyaránt, a konzolokat nem is említve. Stadia szintű clusterektől kezdve a PS5-ig mindent onnan szolgálnak, vagy fognak kiszolgálni. Még ha mennyiségileg kevesebb chipet is rendelnének - amit már önmagában erősen kétlek - akkor is ezek a chipek nagyobbak is, kevesebb fér egy waferre.
Gyártókapacitás-foglalás tekintetében hogyan lehet nekik egy akármilyen mobiltelefon gyártó ellenfél?... Több piacot szolgálnak ki (és nem is kicsiket), és nagyobb lapkákat csináltatnak.
-
#82819712
törölt tag
válasz
Oliverda #42664 üzenetére
A szoba neve Radeon találgatós topic.
Az első GCN 1 termékét 2012. január 9-én indították útjának.
Joggal vetődik fel a kérdés hogy miért mutogatsz 1989 és 2009 közötti időkről dolgokat?
Amióta gyárt AMD GPU-t most a legsikeresebbek egy bizonyos szám szerint, szerintem ezt Te is értetted jól.
Voltak a Dínók. aztán Lisa Su, de nekünk az időszámítás az első GCN-el kezdődött. Én is szeretlek ! -
schwartz
addikt
válasz
Oliverda #41766 üzenetére
Ne haragudj de ez ugy jon le mint egy ujpesthez igazolt volt fradis (ott nevelkedett) aki osztja a regi klubtagot/csapatot. Kell ez?
Offtemabavago: Microsoft a cloud bohockodasa elott inkabb intezze mar el, hogy ne kelljen szarakodjak a NAT type-al, router-el, registryben turkalni meg mittomen hany portot forwaldolni igy 2019-ben, ahhoz, hogy hostolni tudjak egy kibaszott multyplayer gamet ami szinten a sajatjuk az operacios rendszerrel egyutt.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #41764 üzenetére
Egyszerű fizika. Az adatközpontok jóval ritkábban vannak elhelyezve a világon, mint a peremhálózatok. Mivel a késleltetést meghatározza az adott géptől lévő távolság, így annak lehet a legkisebb késleltetése, akinek a célzott szervere a legközelebb van az adott géphez. Ezért tud a Stadia konzolhoz mérhető késleltetést elérni. Ha a Google is az adatközpontokban építeni a hardvereket, akkor ezek az értékek sokkal magasabbak lennének.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #41753 üzenetére
Bármennyire is fura, ez bizony TALÁN!!! Oka van annak, hogy a Google a Stadiát nem az adatközpontjaiba építi, hanem a peremhálózataiba. A játékoknál ugyanis sokkal kritikusabb a jó késleltetés, mint a számítási kapacitás elérésénél. Ott egyszerűen ráküldöd a számítást a birtokolt virtuális gépre, majd elmész kávézni, amíg kész nem lesz. Mindegy, hogy a késleltetés ~300 ms, nem igazán valós idejű a munka, amit csinálsz. Egy játéknál azonban a lehető leggyorsabb visszajelzés szükséges, vagyis kitörölheted a segged az adatközpontokkal. A peremhálózatba kell építeni a rendszert, ami ~100 ms-os késleltetést ad (lényegében annyit, amennyit egy konzol), márpedig ebben a Microsoft és a Google azért jár az élen, mert nekik erre szükségük van számos szolgáltatásukhoz. Az Amazonnak nincs ennyire szüksége, közel sem. Ettől még felhúzhatnak egy csomót, mert az alapinfrastruktúrájuk megvan, csak kérdés, hogy érdekli-e ez őket annyira, hogy a Microsoft és a Google ellen küzdjenek. Olyan nagyon láthatóan nem kapkodnak, mert befektetésben drága lenne, a konkurensek erősebbek, a megtérülést pedig hatalmas kérdőjelek övezik.
(#41754) b. : Semminek nem lesz jobb késleltetése a Stadiánál. Még talán a Microsoftnak sem, mert kevesebb peremhálózati rendszerük van, mint a Google-nek. Egy szolgáltató pedig nem úgy fogja csinálni, mint a Google, hogy lényegében mindenhova építenek hardveres hátteret, hanem lesz egy régió, ami kiszolgál majd két-három országot. A Google ennél sokkal sűrűbb kiépítést tervez.
A Stadia esetében nem kell, hogy előfizető légy. Akár ingyen is elérheted a számítási kapacitást (ez jön 2020-ban, Stadia Base). Egyszerűen regisztrálni kell, és vásárolni a Stadia boltjából. Ha előfizető vagy, akkor annyi történik, hogy olcsóbban vásárolhatsz játékot, sokat ingyen megkapsz, illetve nem csak Full HD/60 fps/sztereó lesz a csúcs, amit kapsz vissza streamként. Az ingyenes elérésnél olcsóbban ezt nem lehet megoldani. -
Abu85
HÁZIGAZDA
válasz
Oliverda #41071 üzenetére
Először meg kell értened a sugárkövetés működését. Ennek a tipikus problémája a véletlenszerű elérés. A legtöbb mai eljárás nem ilyen, hanem betöltenek egy rakás texeladatot egy textúra lokális területéről, és ahogy ezek a memóriában tárolva vannak, jó esély van rá, hogy a következő pixel is lényegében ugyanazokat a mintákat igényli. Ergo a cache-ek miatt nagyon gyorsan lehet ezekkel az adatokkal dolgozni. A sugárkövetés ennek az ellentéte, legalábbis a brute force hardverekkel, ugyanis itt konkrétan semmi garancia nincs erre a nagymértékű koherenciára, vagyis egy szomszédos pixelből kilőtt sugár bizony teljesen véletlenszerűen, akár teljesen más memóriaterületről igényelhet adatot. Ez két dolgot okoz. Egyrészt drámai mértékben szemeteli a cache-t, másrészt gyakorlatilag a hardver nem tud igazán cache-ből dolgozni, hanem mindig a memóriáig kell menni az adatért. Emiatt kell a sugárkövetéshez a nagy sávszél. Ugyanakkor persze lehetnek olyan hardveres megoldások erre, amelyek a megpróbálják ezt a problémát nem erőből, hanem észből kezelni, de persze maga a sugárkövetés jellege miatt 100%-os megoldás erre sosem lesz. Tehát lehet, hogy egy bizonyos mennyiségű sugarat tudsz megfelelően csoportosítani, de egy kellően nagy részt pedig nem, tehát a sávszél ugyanúgy kelleni fog.
A mai játékok azért nem tudják igazán megmutatni a sugárkövetés erejét, mert vagy egy sugár per pixellel, vagy akár kevesebbel dolgoznak, pedig az optimális a 4-16 sugár per pixel lenne, csak attól még fényévekre vannak a hardverek. Tehát marad a nagyon lebutított effektminőség, mi pedig sokszor nem ad igazán észrevehető különbséget. Ehhez még hozzátartoznak olyan hülye döntések is, mint a spekuláris visszaverődésre való gyúrás, ami egyrészt az erőforrásigény szempontjából számos ma bevált megoldás százszorosa, másrészt marginális előnye van.
Az egyetlen jó hír, hogy a Microsoft azért nem csukta be a szemét, és a GDC-n is utaltak rá, hogy jobb lesz majd a DXR, és az új verziónál még a kompatibilitás megőrzése sem kritikus.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #39832 üzenetére
A GloFo esetében hol beszéltek ekkora összegről?
A TSMC-nek nem számít, hogy ki mennyit rendel. Ott a gyártókapacitás, és mehet a licit. Nekik mindegy, hogy ki viszi, lényegében az, aki a legtöbbet fizeti. Nem mellesleg az AMD processzorokat is gyárt, amelyeket nagyságrendekkel nagyobb a haszonkulcs, mint a VGA-kon, és így sokkal nagyobb a mozgástér is. Az NV a procipiacon nem tényező, így a VGA-k haszonkulcsát figyelembe véve kell bérgyártót választaniuk. A Samsung itt lehet elég jó alternatíva. Kisebb a verseny, a részesedés miatt alacsonyabbak a waferárak, a technológia pedig papíron nem igazán rosszabb.
A Vega 20 700 dolláros VGA. Bőven belefér. De ami a lényeg a HBM-nél, hogy a NYÁK-nak nem kell bonyolultnak lennie. Egy csomó tűt ki sem vezetsz a tokozáson kívülre, így GDDR-es buktatók a HBM-nél egyszerűen nem létező problémák.
A Vega 10-nél pedig kétféle dizájn van. A Vega 56-hoz a Hynix rakja össze az UMC-vel, míg a Vega 64-hez a Samsung egymaga. Utóbbihoz a Samsungnál készül az interposer is. A Vega 56 verziója emiatt olcsóbb, viszont nem tudnak rá 8Hi stakcet rakni, míg a Samsung esetében ez megoldható. A Vega 20 ugye csak a Samsungnál készül.
(#39834) schawo: Az mákos tészta, de a 2-es variánsból megy sok a Vega 56-re. Ez olcsóbb. Az 1-es variáns a drága, míg a 3-as variáns csak ES volt.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #39828 üzenetére
A TSMC-nél drágábban nem gyárt senki. Ezért szeretne onnan elmenni az NV, mert rohadt nehéz ám az AMD, Apple, Qualcomm hármassal szemben licitálni.
Nem számítod, hogy mennyire bonyolult árnyékolást igényel a GDDR6. Nem olcsóbb az ám a passzív interposernél.
Ha az lenne már rég árat csökkenten az NV. Sőt, az AMD is inkább GDDR6-ot használna a Vega 12-höz.
(#39830) Oliverda: A PC Partnertől nemrég ~6000 dollár/wafert hallottam 12/16 nm FF-re. Az azért nem kevés.
28 cm-es, 12 rétegű NYÁK az ideális 256 bitre 16 GHz-re. Szintén a PC Partnertől. 90 dollár alatt nehéz kihozni, és akkor ott van még a GPU, meg a memóriák pluszban. Na meg a hűtő, és a kimenetek. A legtöbben egyébként a komponensek minőségén spórolnak. A megszokott beszállítók helyett olcsóbb kínai partnerek után néztek. Ez a bányászok miatt is kellett, mert oda nem tudtak a korábbi beszállítók megfelelő mennyiséget gyártani, de az újak olcsóbbak, így maradtak. Ha jól tervezed, akkor innen 30 dollárt le lehet csípni, csak hát a minőség...
-
Abu85
HÁZIGAZDA
válasz
Oliverda #39826 üzenetére
Csak nem mindegy, hogy hol gyártod. A TSMC-nél aukcióban lehet wafert szerezni. A TSMC annak adja, aki többet fizet. A GlobalFoundries esetében más szerződés él, így fix árakkal lehet számolni. Emellett a memória sem mellékes ám. A közhiedelemmel ellentétben a GDDR6 jelenleg messze a legdrágább memóriatípus. Még kell neki fél év, hogy lecsússzon az ára. Ez így volt a GDDR5-nél és a HBM-nél is. Egyszerűen ezek a memóriaszabványok eleinte irreálisan vannak árazva. Egy évvel a megjelenés után már alakul a helyzet, jönnek a megrendelők, kiépül egy rakás gyártósor, és innentől kezdve belefuthat az egész a túltermelésbe, ami viszi le az árat. De amíg csak egy megrendelő van, addig ez nem valósulhat meg, tehát nincs meg az a versenyszituáció, amitől az árak le tudnának menni.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #39309 üzenetére
A 16 GB-os Radeon még mindig a 4Hi-s 4 GB-os stackeket használja. A 4Hi-s 8 GB-os stackek majd valamikor 2019-es esztendő végén lesznek elérhetők. Egyelőre a HBM2-nek ez a specifikációs kiegészítése csak a lehetőség, de még el is kell készíteni hozzá a memóriákat.
A 32 GB-os verziónál az a gond, hogy az 8Hi-s stackeket igényel, és azokra nagyságrendekkel kisebb a kereslet, mint a 4Hi-s verzióra. Emiatt nem tud kialakulni a túltermelés, ami a memóriapiacon le szokta vinni az árakat. A 8Hi stack jó ha van, de nem tudod alkalmazni, mert szinte mindenki a 4Hi stacket rendeli, így csak ennek mozdul lefelé az ára.Nem is a GeForce-on van ebből probléma, hanem a Quadro esetében, ahova marhára nem tudsz ám kiépíteni 8 GB-nál többet HBM2-ből. A 8Hi stack nem igazán realitás, amíg kevesen rendelik. Az AMD-nek ez mindegy, nekik ez a probléma tényleg egy csúszka a driverben, de az NV-nek szüksége van 10-20-40+ GB memóriára, még többre is, viszont náluk ez nem úgy működik, hogy dobja a program a 8 GB-ra az out of memory-t, és majd a driverben kérsz helyette 32 GB-ot, majd minden fasza lesz. Még a mostani 16 GB-os kapacitás is kevés. Nem véletlen, hogy van az új Quadro VGA-knak egy olyan módja, ahol ha veszel az egyik GPU mellé egy másikat, akkor azt be tudod úgy kötni, hogy csak a memóriáját adja hozzá a konfigurációhoz, de a GPU-t magát már ne, így pedig egy extra VGA-val megduplázható az eredeti GPU kapacitása. Kvázi memóriabővítést tudsz így csinálni. Jó drágán persze, de ugyanannyit ér, mint az AMD Vegáknál a driverben a csúszka.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #39298 üzenetére
A HBM2 legnagyobb problémája a kapacitása. Egy lapka túl kicsi, így csak azok tudnak erre építeni, ahol maga a kapacitás nem jelent igazán nagy limitet, például az AMD-nél a HBCC miatt. Mindenki más a nagyobb kapacitást kínáló, de rosszabb karakterisztikájú memóriákra kényszerül, mert egyszerűen nagyobb probléma az "out of memory" üzenet, mint a sebesség, fogyasztás, hatékonyság, ár, stb. Ha nem lenne HBCC a Vegákon, akkor az AMD sem használna HBM-et, mert nem csak annyi lenne a memória mennyiségében a beállítása, hogy feltolsz egy csúszkát akár 64 GB-ra a driverben, így pedig a jelenlegi 1 GB/lapka limitálna.
A HBM2-nek most jönnek a kapacitás szempontjából használható fejlesztései, ugyanis a JEDEC a JESD235 jelölésű specifikáció B verziójában már elfogadta az új lapkatípusokat, így hamarosan már 8 GB-os stack is készülhet 4Hi konfigurációban, de a 12Hi bevezetésével a 8Hi is lecsúszhat megfizethető szintre, ami már 16 GB/stack. Ez kell is egyébként, mert ha megyünk a réjtrészing és a díplörning felé, akkor bizony 2-3 TB/s-os VGA-kban kell gondolkodni minimum, hiszen ez a két újítás leginkább a sávszélre érzékeny.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #39296 üzenetére
AMD Vega generáció (összesen 11 termék)
Intel Kaby Lake-G sorozat, Stratix 10 MX sorozat (összesen 10 termék)
NEC VE sorozat (összesen 3 termék)
NVIDIA GV100 család (összesen 5 termék)
Xilinx Alveo és Virtex UltraScale+ sorozat (összesen 5 termék)A HPC-piacra van egy rakás HBM2-es egyedi rendelés, illetve prototípus. Ezeket technikailag már gyártják, hiszen össze kell rakni rá a szuperszámítógépeket, amihez eléggé kellenek a véglegeshez közeli minták. Kiemelendő a Fujitsu A64FX, vagy Xilinx Versal ACAP-ok. Utóbbiból már most van másfél tucat különböző specifikációjú minta.
-
Tyrel
őstag
válasz
Oliverda #38810 üzenetére
Egyébként ha a hanyatló nyugaton élnék ottani átlag bérrel, és bármilyen okból nem akarnék nVidia kártyát venni, akkor esélyes hogy tök elégedett lennék ezzel a VII-vel... Nyilván itt a többség - beleértve engem is - nem ezt a kártyát várta, de amúgy sztem nem lehet rá azt mondani hogy egyértelműen rossz, ill. hogy rossz lépés volt kiadni. Szerintem ennek a létezésének bőven van több célja is, és lesz piaca is...
Én viszont várok tovább a Navi-ra...
-
Abu85
HÁZIGAZDA
válasz
Oliverda #38624 üzenetére
A HBCC ettől még ott marad. 64 GB-ot ezen is be lehet állítani. Akinek erre van szüksége, továbbra is használhatja. A 16 GB se olyan sok. A Daz 3D öt karakterrel már a 11 GB-os VGA-kon tolja az out of memory-t. Egészen extrém a Unity HDRP-nek is a memóriaigénye, mondjuk az LWRP-hez képest a minőségi ugrás is döbbenetes, de 8 GB VRAM alatt a HDRP eléggé lassú. 12 GB, ahol működni kezd egy komplex jelenet.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #38610 üzenetére
Nincs olyan hardver, amin 2 GB-os HBM2 van. Az oka ennek az, hogy a memóriagyártók nem igazán vesznek ma fel rendelést 2Hi-s stack-re. Ha valakinek ilyen kell, akkor azt úgy csinálják, hogy letiltanak a 4Hi-s stackből két memóriát, és úgy 2 GB-ot kapsz, de az árral már nincs igazán probléma. A 4 GB-os 4Hi stack nagyon olcsó, mivel mindenki ezt rendeli magának. Egyáltalán nem nyersz az ilyen megoldással, mert a memóriagyártónak nem fizetsz igazán kevesebbet, de kevesebb memóriát kapsz. Ha tényleg számottevő különbség lenne a 2 GB-os és a 4 GB-os HBM2 között, akkor sokkal több 2 GB-os stackkel rendelkező termék lenne a piacon. Jelenleg viszont van nulla, mert árban alig olcsóbb a 2 GB-os stack, és úgy már nem éri meg.
(#38611) Z10N: Ezen 2 GHz-es 4 GB-os 4Hi HBM2 lesz, négy darab. Ez a sláger ezen a piacon, mert messze ennek a legjobb az ár/érték aránya. A 2 GB-os alig olcsóbb, hiszen a hardver ugyanaz, csak tiltanak két memórialapkát a tetején, míg a 8 GB-os 8Hi hiába jó méretben, az ára a 4Hi-s stack hatszorosa, mert alig rendelik. Professzionális szintre jó, de konzumerbe nem. Ide olyan kell, amit tömegesen vesznek, mert ennek alacsony az ára. Ezáltal nincs sok választás.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #36028 üzenetére
Egyszerű. Az Intel nem adja bármi áron a Kaby Lake-G-t, az AMD sem a Radeonokat. Előbb-utóbb övék lesz ez a piac, mert nem lesz olyan notebookgyártó, aki a CPU-k mellé csomagolt pGPU-t letiltja azért, hogy vegyen helyette egy dGPU-t. Ez anyagi szinten őrültség lenne, mert se az AMD, se az Intel nem fogja nézni, hogy mi a felhasználók és a notigyártók érdeke. Ők abban érdekeltek, hogy a mobil CPU melletti GPU-t akkor is eladják, ha a notigyártó nem is fogja használni. És természetesen ezt nem teszik majd olyan olcsón, mert procira szükség van notiban, és az árazással kikényszerítik azt is, hogy a partner rá se nézzen a konkurens dGPU-ra, meg se forduljon a fejében, hogy letiltják a pGPU-t. Mondhatni árazópisztolyt tartanak majd a fejükhöz. Ez sajnos megritkítja majd a választási lehetőségeket, és gyakorlatilag kivégzi a gyártók keverését is.
(#36029) stratova: Az EMEA az nem probléma. Inkább Európa keleti része az. A kis piaccal pedig finoman fogalmazol. Emlékszem, amikor az MSI hozta be ide a gamer notikat. Ők mesélték, hogy a magyarországi darabban mért elvárást egy kézen meg tudod számolni ezekre a gémer cuccokra. Azon nevettünk még régen, hogy a HP eladott két drágább gamer notit anno, és viccesen mesélte az akkor még MSI-s ismerősöm, hogy egyben teljesítették két évre is a kvótájukat. És akkor ezzel számszerűsítettem az itteni piacot.
Azóta ugye a forint sokat romlott, a gazdaság sem javult igazán, több gyártó ki is vonult innen, mert az egy eladás is álom kategória.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #35835 üzenetére
Értem. Illetve egyáltalán nem. Tehát a nanométer előtti szám az nem fontos, a táblázatban szereplő számok fontosak, de csak azok, a gyakorlatba áthelyezve már nem fontosak, mert úgyis befolyásolja még rengeteg más tényező a tényleges lapkák tranzisztorsűrűségét, és egyéb adottságait. Az a kérdésem, hogy ha ezeket a számokat úgyis befolyásolják más tényezők is, akkor azok nem fontosabbak, mint a táblázatban szereplő számok?
-
Abu85
HÁZIGAZDA
válasz
Oliverda #35832 üzenetére
Az előbb írtad le, hogy "az eltérő felépítésű lapkák összevetése alapján nem lehet besorolni egy gyártástechnológiát, hisz a logikai áramkörök és pl. az SRAM sűrűsége alapvetően eltér." Vagyis a táblázat igazából a gyakorlatban úgyis lényegtelen, mert végeredményben sokkal több dolog határozza meg, hogy egy gyakorlati lapkánál mik lesznek ezek a paraméterek.
Én nem vitázok a táblázattal, azon a véleményen vagyok, hogy nem lehet ezt meghatározni egy számmal, de még négy számmal sem, sőt, hattal sem. Az egész abból ered, hogy az Intelnek a régi, "nanométer előtti kisebb szám a jobb" marketingje már nem működik, így mostantól azt magyarázzák, hogy miért nem igaz, amit az előző évtizedekben minden gyártástechnológiai váltásnál ecseteltek. Csak én még emlékszem erre, hogy ez mennyire fontos paraméter volt, és minő véletlen, amint beérték itt őket a többiek, ez túl egyszerűsítetté vált, stb-stb. Persze van aki gyorsan felejt.
Ugyanígy azért nem közlik már a tranzisztorszámot és a lapkaméretet, mert nem ők benne a legjobbak. Pedig régen mindig kihangsúlyozták. Nem a cég marketingesei világosodtak meg arról, hogy ezek így hülyeségek, évtizedeken át megvezették őket a mérnökök, na de most aztán felszívták a tudást, és "baromságot" nem közölnek, hanem elvesztették ezekben az első helyet, és így váltak "hülyeséggé" ezek a paraméterek. -
Abu85
HÁZIGAZDA
válasz
Oliverda #35830 üzenetére
És most hogy ezt beláttad, remélhetőleg látod azt is, hogy miért folytatta az Intel a nanométer előtti szám marketinget, mert ez régen sem volt másképp. Csak annyira körülményes lett volna elmagyarázni a felhasználónak, hogy egyszerűbb volt azt mondani nekik, figyeld a kisebb számot a nanométer előtt, mert az a jobb. Viszont ezzel beleestek a saját csapdájukba. Elmagyarázni a jövőben sem tudják ezt, csak egyre kellemetlenebb helyzetbe hozzák magukat, amikor próbálják ecsetelni, hogy régen miért hazudtak erről. Eközben a többiek szépen írogatják a nanométer elé az egyre kisebb számokat, építve az Intel évekig tartó félrevezetésére, hiszen ez a korábban propagált, szinte agymosás szintjén leadott információ most nekik dolgozik.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #35828 üzenetére
Szóval amíg ők írták a legjobb számokat oda, addig hittek ebben, de most hogy beelőzték őket, hirtelen bullshit lett az egész.
Tehát akkor azt mondod, hogy az egész összevetés lényegtelen, mert a gyakorlatiban még sok, elméleti szinten nem jelentkező paraméter határozza meg ezt az eltérő dizájnok miatt?
-
válasz
Oliverda #35771 üzenetére
arra gondoltam, hogy ez a nevezéktan tradicionálisan a tranzisztor Lgate-jéhez van kötve. ez még valameddig valid is volt, és működött. mondjuk a 90es évek végéig.
most viszont már nem planár technológiát használunk, hanem 3d tranyókat, ergo nem a gate fog érdekelni, hanem a fin geometriai méretei.
csak egy példa, a 22ffl Lgateje megegyezik a 32nm Lgatejével. és igen ez marketing, mert az effektív csatornaszélesség nagyobb, mint az Lgate. de ebben a játékban az volt az egyedüli szabály, hogy a kisebb az jobb, akkor a nagyobb számot nem fogod tudni előrelépésnek eladni, hiába más a technológia. -
Abu85
HÁZIGAZDA
válasz
Oliverda #35774 üzenetére
Nem hiszem. Az Intelnél is volt ilyen, méghozzá a Sandy Bridge kapcsán. Az Intel ezt meg is magyarázta anno, hogy ez miért fordulhat elő. [link]
Az AMD mindig valósat ad meg, de egyébként megmondják a sematikusat is, ha megkérdezed őket. Mindkét érték helyes. A probléma az, hogy sok média ezt nem tudta, illetve kicsit kavarást okozott az Intel azzal, hogy egyszer a Sandy Bridge-re sematikust adott meg, de azóta valósat is közöltek mindig, de csak addig, amíg ezt a paramétert közölték is. Egy ideje viszont teljesen leálltak. Az AMD máig megadja a valósat, bár a sematikusat nem, azt külön kérdezni kell.
Szerintem az a problémájuk, hogy még ha a 10 nm-t csodával határos módon el is magyarázzák, hogy miért jobb a 7 nm-nél, a tranzisztorszámokat túl egyszerű összevetni, és abban már azonos "nanométer előtti számmal" is kikapnak, tehát ott úgy már nagyon kevés újságírót lehetne megvezetni. Sokkal egyszerűbb ezeknél a táblázatoknál maradni, és acélosan mutatni, hogy minden a legnagyobb rendben, így terveztük, szándékosan ilyen, stb. Kapaszkodni a végletekig abba a pár számba, amit még lehet mutogatni a médiának, és az erre vevő újságíróknak, és mereven eltitkolni a gyakorlati adatokat, hogy valós összevetés ezekből még csak véletlenül se születhessen.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #35771 üzenetére
És jegyezzük meg azt is, hogy az Intel volt az a gyártó, aki elkezdte titkolni a lapkáinak a tranzisztorszámát. Pedig milyen jól össze lehetne hasonlítani most a GloFo 14 nm-es node-járól a Summit vagy a Raven Ridge-et, az Intel Coffee Lake-kel és Skylake-X-szel. Ezt egyébként miért lépte meg az Intel? Régebben folyamatosan közölték ezeket az adatokat, hiszen jobban voltak, mint a konkurensek, most pedig a legutolsó CPU-s adat a Broadwell-EP LLC 3,2 milliárd/246 mm^2-es értékei. Pedig annyira jól mutat az Intel 14 nm-es csodatechnológiája a GloFo 14 nm-es iparági szarja mellett, amivel a Summit Ridge tud 4,8 milliárd/213 mm^2-t.
Vagy a gyakorlati lapkákkal nem szabad már foglalkozni, csak ami a papírra le van írva azt érdemes összevetni?A gyakorlat akkor nem is határozhatja meg, hogy egy node mire képes, hiszen a táblázatok alapján le is írtuk ezeket, és az a négy paraméter aztán perdöntő, másnak itt szerepe sincs? Az Intel a faszagyerek, csak éppen a lényeget nem árulják el, a gyakorlatban is elérhető lapkák adatait. Nem is értem miért...
-
válasz
Oliverda #35758 üzenetére
a technológia változott az idők folyamán. ezt az elnevezéstant még a 80/90es években találták ki, azóta meg történt egysmás a félvezetőiparban. pl. az intel nagyon agresszíven skálázta a gate hosszt. a finfet bevezetésével pedig már abszolút nem alkalmazható ez az ökölszabály az elnevezésre.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #35758 üzenetére
Nem végzik hanyagul a munkájukat, csak négy paraméternél sokkal többet vesznek számításba. Ezért létezik ez a szervezet, nélkülük mindenki azt írna az adott node-jára, amit csak akar. Nem lenne ellenőrzés, amivel ezek iparágilag igazolhatók. Ha nem tetszik a döntésük, akkor feléjük jelezd, hogy elégedetlen vagy azzal, ahogy ők ezeket a node-okat besorolják.
-
Petykemano
veterán
válasz
Oliverda #35702 üzenetére
Ezt azért eddig is tudtuk... sőt mindig is így volt: az AMD a legjobb időkben is alig tudott mindsharet nyerni.
De te hogy értelmezed, ez annak beismerése, hogy a gaming háttérbeszorítása az AI-al szemben volt a hibás döntés, amiből az következik, hogy vissza kell térni a gaminghez, vagy az "all-purpose goodforall bestofnone" lapkák gyártásával kell felhagyni, mert ezzel soha nem fognak tudni virítani semmilyen kiemelkedőt , és örökké a futottak még de kit érdekel kategóriában maradnak?
-
Cathulhu
addikt
válasz
Oliverda #35702 üzenetére
Ha a cegnel donteni kellene ilyen beszerzesrol en is a V100-at ajanlanam. De ez kizarolag a szoftveres kornyezet miatt van, amit emlitettem is. Nyers eroben a Vega nagyon ott lenne, softwareben kellene felnoniuk. Es ez nem azt jelenti, hogy egyetlen embert dedikalunk tensorflow portolasra...
-
Abu85
HÁZIGAZDA
válasz
Oliverda #35681 üzenetére
Durva, hogy még mindig nem világos a HBCC, de megpróbálom még egyszer. Szóval a HBCC a WDDM 2.0 alá készült. Mivel a Radeon Instinct egy olyan hardver, ami egyáltalán nem fog találkozni Windows környezettel, így ott a HBCC nem is működik. Természetesen Linuxra is megoldható lenne, csak maga a Linuxra szabott ROCm környezet lehetővé teszi a közvetlen memóriamenedzsmentet, tehát nem az OS-en keresztül lesz a memória allokálva, hanem maga a program intézheti ezt az OS kernel megkerülésével. A HBCC ilyenkor nem tud sokat hozzátenni, mert maga a program tudja, hogy mik az igényei, így képes olyan memóriamenedzsmentet biztosítani, amire a hatékony működéshez szüksége van. A HBCC azokban az esetekben hasznos, amikor az OS vezérli ezt, mert az OS sajnos buta hozzá, hogy minden programra optimálisan reagáljon, ezért az allokáció is olyan általánosra van tervezve, amilyenre csak lehet, hogy a programok kompatibilisek legyenek a biztosított környezettel Ez viszont pazarláshoz vezet, mert a program oldalán nincs közvetlen memóriaelérés.
A probléma egyébként ugyanaz, mint a konzoloknál. Amíg a PS4-en és az X1-en a fejlesztő közvetlenül kap egy fix memóriamennyiséget (5-8 GB, tökmindegy), addig a PC-n ilyen közvetlen elérés nincsen, mert program oldaláról lehetetlen lenne lekezelni kismillió memóriakonfigurációt. Ez olyan lenne, hogy az alkalmazást rászabják 8 GB RAM-ra és 8 GB VRAM-ra, és ha több-kevesebb van a gépben, akkor meg vagy lőve, el se indul a program, egyszerűen nem realitás. Emiatt közvetlen hozzáférést az OS-ek nem is engednek, mert senkinek nem érdeke, hogy egy program ne fusson az eltérő memóriakonfigurációkon. Viszont így a vezérlés alsó szintjén az OS-nek kell intéznie és nem tudja figyelembe venni, hogy x és y programnak eltérők az igényei, vagyis van egy általános modell, ami igazából mindenre működik, de közben pazarolja az erőforrást. A specifikus környezetekben, amikor tudod, hogy veszel egy bizonyos hardvert, annak a specifikációit ismered, arra dolgozni lehet. Így ilyenkor a HBCC hasztalan. Például a konzolokban sem lenne értelme, mert az OS-nek egy kis mennyiségű memória van fenntartva, a másik részét a program közvetlenül elérheti. Még lapozófájl sincs.Végeredményben tehát a HBCC csak olyan környezetben hasznos, amikor nincs közvetlen memóriaelérés. A kéréseknek muszáj átmennie az OS kernelen, a VGA-k esetében pedig a display modul felületen. És a hatása is csak annyi, hogy a display modul pazarlását korrigálja. Gyakorlatilag egy teljesen szoftverben keletkező problémát kerül meg. Ha mondjuk teoretikusan gondolva erre, az alkalmazásoknak lenne közvetlen elérésük a videomemóriához, akkor maga a probléma sem létezne.
-
Petykemano
veterán
válasz
Oliverda #35687 üzenetére
TESCO-Zsömle nyilván arra gondolt, hogy a kártya nem RX és nem pedig arra, hogy nem Vega.
Az általam is sokat szidott HBCC-nek ebben a szegmensben, ezeken az árakon pont nem az a lényege és a célja, hogy spórolni lehessen a rammal és elég legyen a szükséges sávszélességet biztosító számú lapkákból a kisebb kapacitásút ráhegeszteni. Hanem az, hogy olyan nagy mennyiségű adatot tudjon egyben kezelni, ami jóval túllog az ésszerűség határán belüli VRAM kapacitáson. Ezzel együtt ha az árba belefér a párszáz dollár költségtöbblet, akkor persze a nagyobb kapacitást érdemes ráépíteni. Minél nagyobb a cache-ként használható VRAM, annál nagyobb - a VRAM-nál nagyobb - adatmennyiséget tud lényeges teljesítményveszteség nélkül kezelni.
Az más kérdés, hogy ezt vajon hány és milyen szoftverek is tudják ténylegesen kiaknázni. De hát gondolom, hogy a HPC felhasználási módban is valahogy úgy működhet ez, hogy a kártyának beállítod, hogy 32GB helyett mutassa magát 64-nek, vagy 128-nak és egyszerűen azt tapasztalod, hogy ha 33 vagy 65GB adatot akarsz betölteni, akkor sem áll le.
Ha és amennyiben ebből a lapkából valaha is lesz RX, azon nyilván csak 4GB-os modulok lesznek. Bár kétségtelen, hogy az is sok.
-
Cathulhu
addikt
válasz
Oliverda #35687 üzenetére
A Vega64 (FE) erosen ott van a V100 nyakan, szoval nem lehetetlen utobbi sem. Masreszt ha felaron adjak, mint aV100-at, akkor is rohogve belefer a 32GB HBM. Nem veletlen nem egy RX-szel inditanak, azon tuti buknanak ilyen pilot kartyaval, itt meg arulhatjak otszoros profittal is.
-
Cathulhu
addikt
válasz
Oliverda #35681 üzenetére
Amennyiert ezt arulni fogjak, megterul. Masreszt az nem szerencses, ha egy testes DNN halot csak felig tud betolteni aztan folyamat a rendszermemoriat baszogatja a maradekert
Jo ez, arra a piacra amire szanjak, oda kell a nyers savszel es kapacitas, fontosabb mint rendernel.
Mar csak rendes tensorflow (es tarsai) tamogatas kellene.
-
-
Cathulhu
addikt
válasz
Oliverda #35649 üzenetére
Nem nagyon akar az apple a deeplearning piacon reszt, ugy latom. Minden CUDA, de elvetve akad nehany openCL port. Metal viszont tuti nem lesz, csak ha ok megcsinaljak. Amugy ugy gondolom amig az intelnek komoly celpont az emlitett terulet addig lesz opencl, mert nekik mas lehetoseguk nincs.
BTW Vulkan fel tudna valtani az OpenCL-t mint a Metal? -
válasz
Oliverda #35640 üzenetére
Nem ismeri ezt a topikot.
-
Simid
senior tag
válasz
Oliverda #35634 üzenetére
Az sem baj, csak prezentáljanak valamit, hogy lássuk mire lehet számítani a 7nm-től. Órajelek, lapka méret, fogyasztás; ha ezeket megtudjuk, akkor nem érdekel mikor jelenik meg. Ilyet úgysem fog itt senki sem venni.
shipping to select customers...
Mondjuk ha hajóval válogatják ki a vevőket, akkor tényleg hosszadalmas lesz. -
-
#45185024
törölt tag
válasz
Oliverda #34565 üzenetére
A GCN kukázás azt jelentené elvesztené a Next Gen konzol a visszafele kompatibilitást
PS5 a PS4-el az Xbox one X meg a ki tudja mivel ezt jelenleg nem hiszem hogy sokan szivesen bevállalnák
Az tény hogy most kellene legjobban porogni a Vegának mert kozel az NV Amper családja és most kellene hatalmas EOL kiárusitásokat tartani ehhez képest nem is gyártja ha igaz a szobeszéd
Ennek ellenére azért nehéz elképzelni egy Intelt konzolgyártonak azokkal a haszonkulcsokkal amivel dolgozik
A NAVIba engem az érdekel hogy Moduláris lesz e nem az hogy ki gyártja max átirjátok a szoba nevét Intel találgatos topicra -
golya87
őstag
válasz
Oliverda #34565 üzenetére
Mondjuk az szép lábon lövés volt, hogy Raja-t elengedték a konkurenciához. Ennyi idő alatt már nem hiszem, hogy a Navi után következő architektúrát át tudnák tervezni komolyabban, ő pedig biztosan teljesen ismeri az egészet. Továbbra sem értem, hogy ilyen hamar hogy mehetett át egy ilyen szintű ember a konkurenciához.
-
Abu85
HÁZIGAZDA
válasz
Oliverda #33496 üzenetére
Az NVIDIA régebben azt mondta, hogy azért vitték a Samsunghoz a kisebb lapkákat, mert feleannyiba kerül a wafer, mint a TSMC-nél. Konkrét szám viszont nem hangzott el. Ekkora különbség már számít, lehet, hogy a TSMC-nél ezek a kis lapkák nem is lennének nyereségesek ilyen eltéréssel.
(#33497) gbors: Az AMD helyzete még speciálisabb, mert nekik eléggé bonyolult szerződésük van a GloFo-val, egy rakás büntetési tétellel, ha máshova mennek, és ezért cserébe nyilván még alacsonyabb a waferár.
(#33499) Oliverda: Egy meghívásos Q/A briefingen. Volt egy kérdés, hogy miért a Samsung gyártja a kisebb Pascalokat, amikor látszik rajtuk, hogy nem annyira hatékonyak, mint a nagyobbak, és erre volt a válasz, hogy üzleti megfontolás, mert a waferár kb. feleannyi náluk. Persze konkrétumok nem hangzottak el. Mellé meg volt jegyezve percekig, hogy így is nagyon jó, stb-stb. szokásos termékfényezés.
-
válasz
Oliverda #33496 üzenetére
Alacsonyabb órajel -> alacsonyabb feszültség -> sokkal alacsonyabb fogyasztás. Érdekes lenne egy olyan mérést látni, ahol valamelyik Vega be van lőve az 1080 fogyasztására, mennyi úgy a bukta a teljesítményben.
(#33495) Abu85: akkor lehet, hogy nem is fáj nekik, de igazából ez mindegy, a beépítőt minimálisan érdekli.
-
Raggie
őstag
válasz
Oliverda #33491 üzenetére
Elvileg már kicsit visszafogott órajeleken is rohamosan nő a perf/watt aránya a VEGA-knak. Lásd még: "power save" mód.
Én el tudom képzelni, hogy 1000-1200 MHz környékére levitt és kicsinyített Vega igenis felvegye a versenyt energia hatékonyságban a geforce-okkal.Nem mondom, hogy tuti, de el tudom képzelni.
-
-
-
Petykemano
veterán
válasz
Oliverda #33376 üzenetére
Nos hát a szakírók és egyéb hozzáértők azt szokták hangoztatni, hogy egy tapeouttól a piacra kerülesig eltelő idő 3-4 negyedév. Meg azt is, hogy többtíz-százmillió dollár, és a tervezés is még biztos pár negyedév. Tehát már minimum 1, de inkább másfél éve meg kellett hogy szülessen a döntés a tsmc irányába. Ennyi ideje azt lehet tudni, hogy a tsmc jobb lesz, vagy azt, hogy hamarabb?
-
Z10N
veterán
válasz
Oliverda #33376 üzenetére
Kivancsi leszek arra a pipe-cleaner-re. Az mcm-nek mar tenyleg itt az ideje. Volt ido gyakorolni. Kerdes, hogy ha tobb Fab-bol lapatoljak ossze a lapkakat, akkor megint lesz gap kulonbseg.
Ui: Remelem a hbm3 is hozza az arcsokkenest. Az InfFabric latency-je hol tart jelenleg?
-
Petykemano
veterán
válasz
Oliverda #33374 üzenetére
Erre több teória is szolgálhat magyarázatként.
- az amdnek már van tőkéje, hogy a kisvolumenű highend lapkákat ott készítse. A mainstream továbbra is a glofonál készül. Ez örömteli.
- a glofo késik a 7nm-rel
- a glofo 7nm gyártástechnológiája az IBM és a zen2 által teljesen foglaltak.
- nem a.lapka miatt indokolt a double sourcing, hanem a hbm2 szerelése miatt.Az AMD most nem fizet büntit, ha nem tudja kiszolgálni az igényelt volument?
-
Petykemano
veterán
válasz
Oliverda #32956 üzenetére
Én ezt, ezeket az üzleti döntési folyamatokat a curlinghez hasonlítanám:
1) Egyrészről kell egy jó irányba megfelelő erővel elindított golyó == kell egy évekkel előre jól eltalált, megfelelő képességekkel rendelkező hardver
2) És kell még két ember, aki ha a lökés mégse volt önmagában tökéletes, akkor a golyó előtt elkezdi a megfelelő szögben sikamikázni a jeget úgy, hogy a golyó eredeti irányából a korrigált irányba és a korrigált sebességgel (kevésbé vagy jobban lassulva) haladjon és pontosabban betaláljon a cél közepéreA játékot ugye két csapat játsza egymás ellen
Namost úgy tűnik, az AMD-nél is van egy jónak ígérkező lökés és kétféleképpen lehetne megfogalmazni a sikertelenséget:
- Az Nvidia olyan mélyen beépítette már a golyóit a cél közepére, hogy az AMD egy jól sikerült lökéssel és jó sikamikázással is csak azt tudja elérni, hogy beleütközve egy irányban álló nvidia golyóba kipattan a céltól és még mindig ott marad több másik nvidia golyó. Ilyen volt például a DX12/Vulkan, meg az Async compute.
(és/vagy)
- Az AMD sikamikázói nem annyira jól végzik a dolgukat, ezért nem annyira pontosan és/vagy nem olyan erővel érnek célba a golyók. Ilyenekre példa a nem kész driver.Tulajdonképpen minden szar, amit Abu technológiai csúcsnak és remekműnek állít be, az a lökő játékos szemszögéből nézve tényleg bámulatosan jó esélyekkel indulónak látszik. Aztán vagy a sikamikázás nem sikerül jól, vagy beleütköznek az ellenfél egy golyójába. Az Async Compute például pont ilyen volt.
Aztán persze az nvidia is lök a következő körben és bármilyen közel kerültek is esetleg, megvan az esély, újra kipöckölődnek. -
Cathulhu
addikt
válasz
Oliverda #32944 üzenetére
Ez megint egy ellentmondo pletyka. Volt itt mar minden. Jol fogy a vega, nem fogy jol a vega, banyaszok viszik, hollywood viszi, nincs keszlet, van keszlet, logisztikai problemak. Volt ahol 50000-es startkeszletrol irtak es kb foldreszenkent olyan 1000-2000 darab mehetett el eredeti MSRP-n a tobbi a bundle. Szoval van itt minden pletyka, csak rendes hivatalos allaspont nincs, es amig nincs, addig csak megtobb pletyka lesz.
Ami viszont latszik, hogy keszlethiany az biztos nincs, 600-650 euroert barhol kapsz, mindenutt lesz raktaron.
Csak hogy en is kitalaljak egy osszeeskuves elmeletet, szerintem az AMD bealdozta a gamer vegat, nem is igazan akarja eladni, azt a parat ami elmegy 600 folott megeri, a tobbi le van ejtve. Majd fogy az FE meg a Pro, azon van haszon, gamer kartyanak ugyse jo, csak olyan aron, ami az AMD-nek nem eri meg. Sose lesz itt szerintem nagy keszlet, de mindig lesz raktaron. Latszik az AIB partnereken mennyire nem jelentettek meg be semmit, ASUSt kiveve, lehet ok is tudjak, nem lesz ennek piaca.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Vezetékes FEJhallgatók
- Miskolc és környéke adok-veszek-beszélgetek
- Óvodások homokozója
- A nagy Szóda, Szódakészítés topic - legyen egy kis fröccs is! :-)
- Kecskemét és környéke adok-veszek-beszélgetek
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Revolut
- 3D nyomtatás
- További aktív témák...
- BESZÁMÍTÁS! Gigabyte B760M i7 12700K 16GB DDR4 512GB SSD RX 6700 XT 12GB Rampage SHIVA Enermax 750W
- ÁRGARANCIA! Épített KomPhone Ryzen 5 4500 16/32/64GB RAM RTX 3060 12GB GAMER PC termékbeszámítással
- ÁRGARANCIA!Épített KomPhone i5 13400F 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- AKCIÓ! Lenovo IS8XM LGA 1150 DDR3 alaplap garanciával hibátlan működéssel
- Csere-Beszámítás! Gamer PC Számítógép! R9 3900X / RX 6700XT / 32GB DDR4 / 1TB SSD
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest