- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Honor 400 Pro - gép a képben
- Samsung Galaxy Watch7 - kötelező kör
- Milyen okostelefont vegyek?
- Nothing Phone (3a) és (3a) Pro - az ügyes meg sasszemű
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
- Samsung Galaxy S23 Ultra - non plus ultra
- Samsung Galaxy Watch5 Pro - kerek, de nem tekerek
- iPhone topik
- iGO Primo
Új hozzászólás Aktív témák
-
Sziasztok!
Olyan kérdésem lenne, hogy egy 1080 Ti ki tud hajtani teljes mértékben egy 1440 @144 Hz monitort?
-
A: Nocsak, lehet olyan DX12 játékot írni, ami jól kimérhetően gyorsul Nvidián is?
B: Áh, tuti a DX11 kódot lassították le, hogy ki tudják mutatni a DX12 gyorsulást!
-
pengwin
addikt
válasz
huskydog17 #39186 üzenetére
Jé, az a szar DX12 mégis tud ~35-40%-os sebességelőnyt hozni az isteni DX11-hez képest...
"Lehet" kár volt a vérpistikéknek sírni itt a fórumon az elsődlegesen DX11-es címek DX12-es teljesítménye miatt?
-
Abu85
HÁZIGAZDA
Azt, hogy a kilengések nem túl nagyok, így érzésre jellemzően nem számítottak, de alacsony sebességnél eléggé észrevehetőek voltak.
A másik bejegyzés, hogy a játék 4K-ban 13 GB-ot kér max textúrák mellett, de nincs érezhető hátránya a 11 GB-os kártyáknak. 8 GB-ot kér WQHD-ben és 6 GB-ot Full HD-ben.
(#39188) huskydog17: A streaming rendszerű textúrázás miatt ugye pont az a lényeg, hogy a memória igazából sosem fogy ki amolyan hard jelleggel, hanem állandó töltögetés lesz. A TechReportos Scott Wasson nemrég csinált egy mérést a korábbi tesztrendszerével, hogy hol számít igazán, ha nincs elég memória: [link] ... lényegében a memóriatöltéseknél mindig 50 ms fölé csúszik a frame-time. Igaz ez itt a Far Cry 5, ahol ugye még a DX11-es meghajtó él, így még a driver menedzselte a memóriát, de az látszik, hogy ha átdobod a hagyományos VRAM modellt HBCC-re, vagy raksz még egy csomó memóriát a GPU mellé, mennyivel csökken a kilengések száma. Az átlag fps tekintetében viszont ez nem igazán látszik.
Ezért nem túl szerencsés egy normál menedzsmentet használó VGA-t a Division 2-ben a HBCC-s Vegákkal összemérni, mert a Vegán nem azt látod, hogy a GPU ennyivel jobb, hanem azt, hogy a HBCC kikapcsolhatatlan. A driver az ECM-mel csak az ICM-et váltja. Ha mondjuk rá lehetne kényszeríteni a Vegát, hogy működjön szimplán VRAM-ként az a 8 GB-nyi memória, akkor ugyanolyan kilengései lennének, mint a GeForce-oknak.
-
válasz
huskydog17 #39188 üzenetére
ez mit jelent?
-
huskydog17
addikt
"Da die Ausreißer auf den beiden Nvidia-Grafikkarten nicht allzu groß ausfallen, lassen sich die unregelmäßigeren Frametimes normalerweise nicht spüren. Bei geringen Frameraten machen sich diese aber durchaus bemerkbar."
"Für die schönsten Texturen in „Ultra HD“ ist eine Grafikkarte mit mehr als 8 GB empfehlenswert. Auch wenn das Spiel im Test teils 13 Gigabyte an Speicher adressiert hat, gibt es mit einem 11-GB-Modell keine spürbaren Nachteile. Auch mit 8 GB sind 3.840 × 2.160 Bildpunkte noch spielbar – um auf Nummer sicher zu gehen, ist aber mehr Speicher sinnvoll. Für 2.560 × 1.440 sind auch Grafikkarten mit 8 GB ausreichend, bei 1.920 × 1.080 gilt das für 6 GB."
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #39186 üzenetére
Eléggé unfair összemérni a Vega 64, a 2070 és az 1080 frame time-ját. Hiába 8 GB-os mindhárom kártya, a Vega 64 kikapcsolhatatlanul ICM-ben működik, tehát nyilván nem fut ki a 8 GB-ból, míg a másik kettőnél látszódnak a 8 GB okozta spike-ok. Az ICM-et egyedül a driveres ECM tudja felülírni, de az is lényegében ugyanaz.
Erre mostantól figyelni kell, mert hiába van ugyanannyi memória a VGA-n, mostantól jönnek az alkalmazásszintű ICM HBCC-t támogató programok.
-
huskydog17
addikt
-
szmörlock007
aktív tag
Microsoft brings directx 12 to windows 7
Lol
Még hogy activision nem dolgozik. -
Abu85
HÁZIGAZDA
Egyrészt ők eléggé jól tartják a finanszírozhatóságot, tehát valószínűleg megcsinálják, ahogy eddig lényegében minden váltást a FinFET bevezetése óta, másrészt a Krzanich által kirúgott mérnökök a Samsunghoz és a TSMC-hez mentek. Nem annyira közismert, de francia nyomtatott Canard PC korábbi írásából valószínűsíthető, hogy az Intel problémái ahhoz köthetők, hogy Krzanich a kinevezése után jól leépítette a gyártástechnológiák fejlesztéséért felelős mérnöki csapatokat, mert sokallta a fizetésüket, és egyetemekről éppen kikerült fiatalokkal töltötte fel az állományt. Feltételezhetően ez lehet az oka annak, hogy az Intelnek a 14 nm is zűrös volt, míg a 10 nm nem jött össze. Ezzel szemben a Samsung és a TSMC terveknek megfelelően fejleszt.
Egy gyártástechnológiai váltást el lehet rontani. Az benne van a pakliba, bár manapság egyre inkább csak pénzkérdés az egész, mert a problémákat igazából a szükséges berendezések ára adja, és nem az átállás nehézsége (lásd GlobalFoundries, ahol ott volt az IBM technológiája, de extrém beruházások nélkül nem finanszírozható az egész). Két váltást egymás után rontani már inkább menedzsmenti probléma.
-
Egon
nagyúr
Addigra a TSMC és a Samsung GAAFET node-on lesz.
Há'persze. A Samsung és a TMSC útja le van zsírozva, ők biztos nem fognak szívni egyetlen csíkszélesség-váltással sem, olyannal főleg nem, ami alapvető technológiai váltást is jelent - ez meg van írva valahol?
A reményeidet feltételes módban kellene megfogalmaznod, és akkor nem hánytorgatnának fel olyan kijelentéseket tőled utólag, amik - finoman fogalmazva - nem igazán jöttek be...
-
Abu85
HÁZIGAZDA
Az mindegy igazából. A gyártósorok átalakítása is ugyanolyan jó, csak mivel az EUV itt nem kizárható, így olyan gyárak kellenek, amelyek az EUV-s berendezések hőtermelésére készülnek. Ezért csinált a TSMC két 7 nm-es verziót. Mert az EUV-s opcióhoz nem jó mindegyik üzem, míg az EUV nélküli alapvetően a meglévő üzemeken belül is biztonsággal kiépíthető.
Trump bácsi támogatása csak annyit jelent, hogy nem lesz akkora veszteségük a 7 nm-es átálláson, de valójában sokkal többre mennének, ha 2022-ig lenne versenyképes node-juk. Marha sok idő van még a 7 nm-ig, mire azt normálisan beindítják simán 2023 végét fogunk írni. Addigra a TSMC és a Samsung GAAFET node-on lesz. Az Intel CEO-ja sajnos pénzügyes, így nem látja a hosszabb távú következményeket, de ha mondjuk lenne egy mérnök CEO, akkor most valószínűleg azon dolgozna, hogy licenceljék a Samsungtól az 5 vagy 3 nm-es node-ot. Azzal gyakorlatilag legalább arra a szintre hozhatják magukat, ahol az ipar áll, és akkor nem kellene a saját 7 nm-ükbe pénzt ölni, hanem mehetne a befektetés olyan területre, ahol vissza tudják szerezni a gyártástechnológiai előnyt. Azért érdemes már számolni azzal, hogy a 14 nm-t az Intel nagyon jóra ígérte, és alig indult be, a 10 nm-nél kevesebb problémát ígértek, és nem működött. A 7 nm most megint nagyon durva lesz, és... Amikor zsinórban elrontanak két node-ot általában érdemes elgondolkodni rajta, hogy nem-e érdemes lenne némi strukturális átalakítás. Csak ehhez tényleg egy vérbeli mérnök CEO kellene végre. Renduchintala ott volt most alternatívának, csak hát indiai születésű.
Pedig amióta ott van az Intelnél igen sok jó döntést hozott. Ha anno Perlmuttert választják CEO-nak, már rég előrébb lennének, csak ő meg izraeli volt.
-
pengwin
addikt
válasz
Devid_81 #39174 üzenetére
Szerintem elég sok átfedés lehet a két node technológiájában, vagyis tudják hasznosítani a 10nm-es felkészülés tekintélyes részét a 7nm-hez.
Viszont ha kihagyják a teljes termékpaletta átvitelét 10nm-re, akkor azzal megspórolnak egy csomó gyártáshoz kapcsolódó finomhangolást, tesztelést, ami egyébként sok pénzbe és időbe kerülne.Nem hülyék ám, biztos látják, hogy ezt kell csinálni, ha az ütemtervüket legalább nyomokban tartani szeretnék.
-
válasz
Devid_81 #39174 üzenetére
7 nm direkt erre épített gyárakban készül, nem a jelenlegi gyártósorok átalakításával egyenlőre.Elmelétileg régebb óta történik a fejlesztésük és beállításuk, de legalább ugyan olyan rég, mint a 10 nmé.
Azokat a gyárakat és gépsorokat eleve 7 nm és az alatti csíkszélre tervezték, erre adott állami támogatást is nekik Trump bácsi. -
Devid_81
félisten
Intel could end up skipping over 10nm and diving right in to 7nm development
Intel previously said it would begin mass production of 10nm Ice Lake parts in the second half of 2019 although according to Digitimes Research’s upstream supply chain sources, Intel’s production schedule for the 10nm process still has lots of issues… so many that Intel may skip over 10nm entirely and dive into development of the 7nm process.
Aha, tehat ha jol ertem a 10nm bukos, nem megy nekik, de majd a 7nm menni fog...?
Erdekes ev lesz elottunk szerintem
-
pengwin
addikt
Szerintem igazad van, meg ez is közrejátszhat:
Intel already has a heavy presence in the InfiniBand market through its line of products that come as the fruit of its $125 million acquisition of QLogic's IP back in 2012, while Mellanox is the only large-scale InfiniBand competitor.
Lehet az Intel csak nem akarta, hogy valaki verseny nélkül vehesse meg a konkurenciát. Így kicsit feljebb tolhatták az árat, amit más cégnek fizetnie kell, de nekik is tudniuk kell, hogy egy ilyen felvásárlás miatt csúnya nézéseket kaptak volna a hatóságoktól.
-
válasz
szmörlock007 #39169 üzenetére
Szerintem inkább NV nek kell. Elég sok licenszben benne vannak,van nekik CCIX, bár ez szerintem nvidianak szerver szinten fontos, de ki tudja, lehet mi is kamatoztathatunk valamit belole.
-
-
proci985
MODERÁTOR
válasz
Puma K #39157 üzenetére
nincs frametime grafikon / 99% / 99.99% frametime. nem derul ki, hogy a denuvon kivul mas valtozott e a patchben. pl a denuvo nelkuli gyengebb eredmeny emiatt is lehet.
pl a Mass Effect Andromeda-ban eléggé látványos
marmint ugy erted, hogy egyedul az Andromedanal van kulonbseg? ahol meg nem derul ki, hogy az a latvanyos minfps milyen gyakori. mivel ez nem benchmark siman lehet ott egyeb indok is. es egesz biztos csak egyszer mertek mindent.full disclousurera hivatkozni nyilvanvalo meresi hibanal (mad max) eleg vicces egyebkent. tetejeben egesz biztosan csak egyszer mertek atlagolas helyett. mondjuk azert dicseret, hogy open world jatekot is valos korulmenyek kozott probaltak benchmarkolni.
tetejeben egy i7-2600kval, ami kb a 120 euros ryzen 1400nal is lassabb mar, parositva egy 1080TIvel.
egyebkent szanalmas a vergodes a kommentek kozott, avagy a nyolc eves 2600k is tul jo. meg realis, hogy aki annal is gyengebb cuccon ul az teljes aron venne AAAs jatekot.
a Doomot emlitik rossz peldakent, az az elso patchek alatt tenyleg nagyon sokat gyorsult, viszont a denuvo kivetele elott es utan en nem ereztem, hogy mashogy viselkedne.
-
válasz
Petykemano #39163 üzenetére
Cuda magok alapján 1408 vs 1536 , a boost órajel valamivel magasabb a non TI esetében. A sávszél szerintem nem lesz limitáló tényező itt.
Nem biztos, természetesen de az 1060 nál biztos hogy erősebb lesz. -
-
NightGT
senior tag
Épp most néztem egy PCX tesztet. ahol kihozták a Ryzen 2600at jobbnak, mint a 9400f-et...
Konfig, ryzen:
B450-F Strix lap
FlareX 3200 cl14es ram (70k+)
Strix gyári OC-s 1660 Tiugyanez intelnél:
B360 Pro4
Ballistix 2400Mhz
Armor 1660TiAztmondja egy kicsit drágább lett most a Ryzen, de csak a VGA miatt...őőő
(link)
-
erre az egészre szerintem térjünk vissza majd 3-5 év múlva addig nem hiszek ebben. Ennél sokkal nagyobb összefonódások/ kartellezések vannak a háttérben, a memóriagyártók és az egyéb partnercégek bevonásával.
meg hát ott az ARM ami mostanában nagyon eltűnt sajnos megint... -
válasz
Petykemano #39150 üzenetére
Nem arra terveztek,de Samsunghoz átviszik a gyártást és ott nem fogják parlagon heverni a 7 nm kapacitást amit elméletileg Samunál ők nyertek meg.
HBM re is valószínűleg( szerintem) beneveznek majd a csúcs karikkal náluk.
Gondolom van is erre valami szerződésük, hogy mennyit kell rendelniük tőlük adott csíkszélen és meddig. jelenlegi RTX generáció TSMC , amit egy nekik átépített 12 nm gyártósorokon gyártatnak, ami tulajdonképpen 16 nm Oliverda szerint. Baromi sokba kerülhet nvidiának ez a különcködés, nem véletlenül váltanak és hát ugye nem véletlenül kerülnek ennyibe a kártyák sem.
Amúgy a jelenlegi Turing genben is szerintem kb 10-15 % teljesítmény bent maradt az elavultabb gyártástechnológia miatt mert eredetileg nem ez a csíkszél lett volna.
Ha ősszel vagy legkésőbb télen bemutat egy csúcs karit, abból 1660 szintű alsó kategóriás termék nyárra lesz, ami majd másfél év piacon kint maradás a jelenlegi Turing alsó kategóriának és majdnem ugyan ennyi felsőnek is.Régen ez volt a normális ütem, hogy egy gen 1-1,5 év a piacon.
Szerintem is egy Volta szintű megoldás jön bemutatóba egyébként aztán nemsokára rá jön a 2080 Ti helyett valami. -
Abu85
HÁZIGAZDA
válasz
Puma K #39152 üzenetére
Ennyit nem lassít!
Igen a Denuvonak valóban van teljesítményevő hatása, de egyrészt leginkább DirectX 11-ben érződik, mert ott ugye nincs explicit többszálúsítás, illetve még az is kell, hogy alacsony felbontást és grafikai minőséget állíts be, és akkor kb. ki tudsz mérni maximum 10% mínuszt, átlagban számolva (persze kereshetsz egy olyan jelenetet, ahol van egy extrém különbség, viszont az a teljes futtatás 0,0000001%-os része). Ugyanakkor ez például Full HD-ben már hibahatáron belülre csökken, DX12-ben pedig teljesen eltűnik, mert explicit többszálú lett a parancsgenerálás. -
Abu85
HÁZIGAZDA
válasz
imi123 #39151 üzenetére
Érdemes tudni róla, hogy DirectX 12-ben shader modell 6.2-t is tud használni, ha megvan a megfelelő Windows 10 frissítés.
Eléggé megkavarták egyébként a shadereket:
DirectX 11-ben kétféle shader van szállítva... AGS 5.3 az AMD-nek és szabványos a többieknek.
DirectX 12-ben az AMD mindig AGS 5.3-at kap, míg a többiek szabványos SM 5.1-et Windows 10 októberi frissítés alatt, de felette az Intel Gen9+ és a Turing bizonyos shaderekre szabványos SM6.2 kódot kap. Így működik ezeken is az FP16, nem csak a Vegákon.
Sajnos ennél több nem lett szabványosan portolva, így az UAV Overlap, illetve a barycentric optimalizálás csak AMD-n megy. Utóbbi viszont állítólag később át lesz dobva SM6.2-re, csak a kód mostani állapota inkább lassít, így ezzel nem akarták visszafogni a GeForce-okat és az Intel IGP-it. -
imi123
őstag
-
Petykemano
veterán
Nemrég jött ki a 2060, ami jó, persze vágott TU106, de most jött ki az 1660Ti is, rajtra kész a 1660, meg 1650 is. MEg megy a szóbeszéd valami 1180-ról is, de ez lehet, hogy csak kamu.
Gondolod, hogy ezeket csak fél évre tervezte az nvidia?
Szerintem Ha jön is 7nm az Nvidiától, az a 2080-at és 2080ti-t válthatja - mármint úgy hogy fölé, nem feltétlenül abban az értelemben, hogy a 2080(ti) kapna EOL-t. Tehát én inkább számítanék valami olyasmire, mint a volta volt ,hogy egy lapka, amit elsősorban méregdrágán adnak HPC-be HBM-mel, de kegyeskednek a GPU teljesítmény-koronát egy szinttel feljebb vinni egy $2000-3000-os Titan példánnyal is.
Ha ősszel tényleg jönne a most kiadott 1(5|6)60(ti)?-re ősszel 7nm-es mainstream (esetleg performance = 2070-2080) szintű kártya, akkor az azt jelenti, hogy az AMD-nek sikerült valami nagyon jót húznia. Ettől azonban én nem aggódnék. Tudjuk, hogy milyen a piaci/brand beágyazottság. Ha a Navi elképesztően jól sikerült is, akkor is csak 30-35%-ig emelkedne az AMD részesedés és meg se látszana a Steam survey statban. Ez ilyen tótum-faktum.
-
Abu85
HÁZIGAZDA
A jövőben ezek a gyártók nem tudnak mit kezdeni egymás hardvereivel. Megmarad ugyan a PCI Express, de ki lesz egészítve. Az AMD-nél PCI Express with CCIX lesz. A Rome platform már támogatja, és innen nyilván hozhatod asztaliba is, viszont marhára nem lehet mit kezdeni a CCIX képességével, ha nem CCIX hardvert raksz bele. Az Intel azért nem lépett be a CCIX-be, mert zárt kiegészítést hoznak a PCI Express-hez. Tehát amit veszel majd hardvert az Inteltől GPU-ban, az sokkal többet fog tudni, ha az Intel CPU-ja mellé rakod, mintha egy AMD GPU-t raknál a gépbe. Ezzel szemben az AMD GPU-ja sokkal többet fog tudni, ha AMD CPU mellé rakod, mert működni fog a CCIX képesség, szemben az Intel GPU-jával, ami saját UPI kiegészítést használ a memóriakoherencia problémájára.
Ha tehát egy cég vásárolni akart, az már nem tud, mert az AMD az IF és CCIX, az Intel a UPI, míg az NVIDIA az NVLINK protokollt dolgozta ki a memóriakoherencia kezelésére. És persze a PCI Express mint alap csatoló meglesz, de ha például egy CCIX-es hardvert nem CCIX-es PCI Express vezérlőhöz raksz, akkor a CCIX képesség nem fog működni. És ugyanez van más protokollokkal is. A hardver működni fog gyártói keveréssel, de a tudás egy részét bukod.
Annyira előrehaladottak már ezek a fejlesztések a gyártóknál, hogy ha hirtelen megvennék a másik divízióját, akkor négy évet buknának, mert át kellene tervezni a hardvereket. Vagy a CPU-kat vagy a GPU-kat.Egyébként a CCIX ugyan szabvány, tehát mindenki mehetne erre, de az Intel és az NVIDIA különcködik. Ők úgy érzik, hogy elég erősek ahhoz, hogy saját zárt rendszerrel arra kényszerítsék a vásárlóikat, hogy az Intelnél a CPU-khoz Intel GPU-t vegyél, míg az NVIDIA-nál a GPU-khoz, NVLINK-et támogató CPU-t vegyél.
-
Televan74
nagyúr
válasz
huskydog17 #39146 üzenetére
Már nem,eléggé stabilak régóta a százalékok.Van aki soha nem venne Nvidiát és van aki soha nem venne Radeont. Pár százalék mozgás van a két tábor között,nem nagy az átjárás és lemorzsolódás.
(#39147) b. 7nm mindkét félnek fájdalmasan drága lehet majd,amit megpróbálnak a vásárlókkal lenyeletni,ha tudják.Intel első körben nem nagyon fog nagyot szólni a dgpu piacon,de lehet hogy nem is oda készül.Nyilván lesz rá megoldásuk,de szerintem nem az a fő cél.Pár éven belül a dgpu -k és vele együtt az asztali pc -k is luxus lesz.
-
válasz
Devid_81 #39145 üzenetére
Valószínűnek tartom, hogy Nvidia bemutat valami 7 nm cuccot ősszel ha jön a Navi kb a körüölre időzítve, hogy lelohasszák vásáslókedvet azoknak akik a navira várnak. Úgy gondolom a Turing 7 nm ( Ampere vagy nem tudom mi lesz a neve) lesz az igazán nagy előrelépés ezzel az architektúraval és azt szánják válaszul a Navira. Biztos nem lesz olcsóbb, de jelentősen gyorsabb lesz, ez szerintem most elkönyvelhető.
huskydog17 : Az nem lenne jó, félő lenne hogy AMD kiszáll akkor a DGPU ból.Valószínűleg első körben rájuk jobban veszélyt jelent az Intel féle kategória is, hisz gondolom nem 2080 TI sebességű kártyával nyitnak a kékek.
Ne legyen igazam, de simán bele tudom vizionálnia dologba hogy kék lesz a radeon márkanév, ha esetleg felvásárlás szóba kerül. -
Devid_81
félisten
válasz
TTomax #39143 üzenetére
Sajnos nagyon elavult termekskala van csak AMD-tol jelenleg, es fogyasztasban sem allnak a helyzet magaslatan.
Mondanam, hogy majd a Navi...de ha kinn lenne mar is majdnem keso lenneSzerk: ahogy elnezem meg a GTX 1660 is erosebb lehet az 590-tol itt ott, szoval van mit behozniuk
-
-
-
TTomax
félisten
válasz
Petykemano #39139 üzenetére
Jajja...Jensen Su
-
TTomax
félisten
válasz
Petykemano #39136 üzenetére
Nem fogják a legális mutyihoz szükség van egy inkompetens bandára is...
-
Abu85
HÁZIGAZDA
válasz
Petykemano #39133 üzenetére
Az Intelnél az eDRAM leginkább sehogy sem működik. Nagyon régi leképezőknél ad előnyt, de az újabb GPGPU-s cullingot alkalmazóknál már semmi haszna. Annyira sok a modern leképezőknél a feldolgozandó adatmennyiség, hogy gyakorlatilag nem tudsz építeni a nagyon aprócska tárkapacitásra. Nem véletlen, hogy az Intel is Counter Strike-kal demonstrálta és nem Battlefielddel.
Az Xbox One-ban az ESRAM azért működhet, mert közvetlen elérése van rá a fejlesztőknek, tehát például tudnak olyannal trükközni, hogy a back buffer color és depth targetjeit használod az egyes effektek számításánál. Viszont ha nem trükköznek, akkor ugyanúgy nem ér semmit. PC-n meg erre nincs semmi, az Intel eDRAM egy mezei L4 cache, így a hatásfoka fényévekkel van a közvetlen elérhetőséget biztosító Xbox One ESRAM mögött, már ha utóbbit használod ugye. Szimpla cache-ként ez sem valami hasznos. Az Xbox One X-ből ügye ezt ki is vették, illetve a rendszermemóriából emulálják ha szükség van rá. Egyszerűen ezek a kicsi, de gyors memóriás konfigurációk a Counter Strike-hoz jók ugyan, de a mai motorok nem így működnek.A Samsung mondta a Low Cost HBM-re, hogy mindenképpen olcsóbb a JEDEC HBM-jüknél. Bár azt nem írták, hogy mennyivel. 0.X-et írtak.
-
Petykemano
veterán
Az Intel esetén, vagy az xboxban az edram úgy működött, mint egy hardveresen kezelt cache Layer a memória fölött, vagy csak egy addicionális tárhely, gyorsítótár, aminek használatát szoftveresen kellett használni?
Értem, hogy egyszerűbb implementálni a low cost hbmet, és azt is elhiszem, hogy ideálisabb megoldás lenne, de szkeptikus vagyok, hogy valóban olyan széles körben elterjed-e, hogy valóban olcsó legyen. Legyen neked igazad, a lényeg, hogy valamiképp oldják meg.
-
Abu85
HÁZIGAZDA
válasz
Yutani #39130 üzenetére
2-3 watt körül van. Órajeltől függően.
(#39131) Petykemano: Csak az eDRAM az Intelnél sem volt több dísznél. Xbox One-ba jó. Oda rátervezik a játékot. PC-be nem az, maximum csak dísznek jó.
A Low Cost HBM elsődlegesen azoknak jó, akiket a HBM bonyolultsága tartott vissza az implementációtól. Azért 1024 bites TSV-t stackenként tervezni nem egyszerű ám. 512 bitet sokkal könnyebb.
Az AMD-nek a tervezés szempontjából valószínűleg mindegy, mert nekik azért elég nagy itt a tapasztalatuk, viszont egy APU-nál a hely azért korlátozott, így más tényezőket is meg kell vizsgálni. Például a Si-less interposert opcióként.
-
Petykemano
veterán
Samsung Low Cost HBM-et mi fog még használni?
Az eDRAM-nak megvan az az előnye, hogy ha az AMD beletervezi az io lapkába pl, azt le is tudja gyártatni magának kb úgy, mintha csak sram cellák lettek volna. a Samsung low cost HBM-jét viszont csak a samsung gyártja és senki más. És Te magad mondtad a HBM-ről, hogy ha valamire van sok vevő, azt gyártják nagy mennyiségben, annak az ára tud alacsonyabb lenni, és pont emiatt nem tud az AMD alacsony kapacitású HBM2 stackeket olcsóbban vásárolni, mert nem lenne olcsóbb, mert a kisebbet nem venné rajta kívül senki más, ezért nem gyártják olyan mennyiségben.
Tehát ki venne még Low Cost HBM-et, ami ezt a terméket piacképessé tenné szemben az alacsonyabb kapacitású HBM2 stackekkel? -
-
Abu85
HÁZIGAZDA
Samsung Low Cost HBM. Az 200 GB/s-ot tud nagyjából, per stack ugye. Ez nem szabványos, sokban különbözik a JEDEC HBM-től, például csak 512 bites a busz, nincs pufferlapka, nincs ECC, más a struktúra, illetve sokkal kellemesebbek az interposerre vonatkozó igények. A Samsung-féle Low Cost HBM előnye, hogy érezhetően olcsóbb a JEDEC HBM-nél, viszont hátrány, hogy többet fogyaszt. Persze a HBM szintjén mérve, tehát ha még 50%-kal nő is a fogyasztás, az is eléggé lófütyi kategória.
-
pengwin
addikt
Sokkal valószinűbb a HBM.
Ha az eDRAM nem volt elég olcsó ahhoz, hogy az Intel széles körben építsen rá, akkor nem lehet olcsóbb a HBM-nél sem. És az Intel ilyen 128-256MB eDRAM-okat használt az aranyáron kínált APU-iba.(#39125) Venyera7
Az is jó lenne, bár én akkor biztos, hogy CPU-t veszek és nem APU-t.
Azért el tudnám képzelni a csúcs APU-t 6/12-es felállásban, de nem fog beleférni ennek a generációnak a felépítésébe. -
válasz
pengwin #39120 üzenetére
Én csak arra próbáltam rávilágítani, hogy ezer sebből vérzik ez a leak, szóval jobb ha mindenki nagyon óvatosan kezeli a benne foglaltakat.
Azt tudjuk, hogy a 3xxxG széria 14-ről csak 12nm-re vált, azt is tudjuk, hogy Vega IGP, meg azt is tudjuk, hogy a Raven ráncfelvarrása mindössze ([link][link]), 12nm-en, nem 7nm, mint a 3xxx széria IGP nélküli tagjai, így ezen gondolatmenet mentén kizárt nem csak a 15CU, hanem a 8 mag is a G-s procik esetében.
Az ugyanolyan gyártástech miatt órajelben is hasonló lehet a 3xxxG, mint a mostani 2xxx széria, hiú ábránd 4,8GHz-et várni. -
pengwin
addikt
válasz
solfilo #39119 üzenetére
Értelme semmi, QC DDR4 is kevés lenne neki, én is tudom.
De ha csak 15CU lesz a nagyobbik IGP már az is durva lenne. Igazából az a kérdés, hogy mennyit fejlesztenek a belső dizájnon, és mennyivel tudják ebből kifolyólag növelni a CPU-ik méretét.Ha igazak lesznek az órajelek, és esetleg még (egy akár kisebb) IGP mellett is tudják tartani a 4,8GHz-et 6-8 magon, akkor le is cserélem az 1600X-et.
-
válasz
pengwin #39118 üzenetére
De mi értelme volna duplázni majdnem a CU számot, ha már a Vega11 is erősen memsávszél limites? Vega8 is jobban gyorsul húzás hatására, mint a Vega11, a Vega3 is gyorsabb a nagytesóhoz képest, mint amit a CU-k száma indokolna.
Meg hogy dupláznák a CU-k számát, ha a Picasso maradt 12nm-en?
De biztos elfér majd a lapkán 8/16 mag/szál meg 20 CU... -
Hublot
őstag
Radeon 7 power mod-al közelebb kerül a 2080 Ti kártyához. A fogyasztás is magas de legalább gyorsul a kártya. [link]
-
válasz
atok666 #39108 üzenetére
Na varjunk csak, azt azert latni velem, hogy a magszam novelesevel nem nagyon csokken a frekvencia... Amit te mondasz, az alapjan eleg lenne 10-12 mag/sub 4ghz is, es az is lazan verne a 4.8ghz 6 magosokat.
A Ryzenek esetén eddig nem a magszám miatt volt alacsonyabb az 1-2 magra kitolható max turbo frekevencia, hanem mert a gyártás technológia miatt nem tudtak magasabb órajelet kipréselni.
-
Abu85
HÁZIGAZDA
válasz
atok666 #39106 üzenetére
A mai rendszereknél a magszám növelésével nem igazán kell hozzányúlni az órajelhez. Maga a hardver elintézi ezt, ha nem tudja tartani az adott fogyasztási kereten belül. Egyszerűen fel van rá készítve, hogy a megfelelő szintre vegye vissza, ha az adott munkafolyamat ezt megkívánja. Például bizonyos AVX módoknál még a közölt alapórajel alá is visszamehetnek a procik. Nem probléma, mert stabilitási gondokat nem okoz, tehát nyugodtan meg lehet adni a specifikációra a magas órajeleket, a hardver majd eldönti, hogy mit állít be magának.
Simán meg tud verni egy 12-magos egy hatmagost egy NUMA-aware motorban, amely nem tartalmaz legacy pathot az öreg API-kra. Ilyen motorok készülnek most. Nyilván a fejlesztők is tudják, hogy az órajelben már nem bízhatnak. Ezt az Intel is folyamatosan kommunikálja nekik. Már csak azért is, mert a 10 nm-es Ice Lake mintája 3 GHz fölött nem stabil. Ezen persze még lehet növelni, de a 10 nm-es node-ot nem a magas órajelre tervezték, hanem egy rendkívül low-power optimalizált megoldás annak érdekében, hogy annyi magot lehessen a lapkába rakni, amennyi van a dinnyében. Ezért sem lesz Ice Lake asztali szinten egy jó darabig, de egyébként készül oda egy 20-magos verzió, csak egyelőre jobb a Comet Lake, viszont 2020-ban már jöhet a sok mag, mert bőven skálázódnak majd az új játékok.
-
Abu85
HÁZIGAZDA
válasz
pengwin #39096 üzenetére
Nem olyan nehéz ez. Kínálnak valamit x pénzért, de ami kellene a partnereknek azt nem kínálják fel kevesebb pénzért. Antikompetitív? Az hát. Hogyan tudsz védekezni ellene? Maximum nem veszed meg a terméket, de az sem megoldás, mert valamit árulni kell, tehát belekényszerítenek és kész.
El tudják látni a piacot. Ha az eladás garantált, már csak amiatt is, mert az OEM bele van kényszerítve a megvásárlásába, akkor nyilván nem gond többet gyártani.
A második foglalat az nem jó. Azzal az a gond, hogy drága lenne. Senki sem akar drága megoldást, mert azon kevés lenne a haszon. Sokkal célszerűbb oda berakni a CPU mellé a tokozásba. Ehhez már minden technológia adott. Régen nyilván nehézkes volt, mert maga a tervezés nem chipletek szintjén zajlott, de ma már átálltak. Az AMD mindenképpen, és az Intel is át fog, mert sokkal hatékonyabb ez a megközelítés.
(#39098) atok666: Nézd meg azokat a motorokat, amelyek erre vannak kitalálva. Például a Nitrous. Ott nagyon szépen skálázódik a sok mag. Ezért is lépdel az AMD és az Intel is inkább a magok növelésének az irányába. Idén az AMD-nél 12 mag lesz a mainstream maximum, bár nyilván csinálhatnának 16 magot is, de nem fognak, mert a 12 mag is túl sok lesz a 10-magos Comet Lake-nek. Az viszont tisztán látszik, hogy merre mennek. Nem az órajelet hajkurásszák, hanem a magokat öntik bele a lapkákba, mert összességében sokkal hatékonyabb, és természetesen tudják azt, hogy az új motorverziók már úgy vannak megírva, hogy ezeket a magokat ki is használják. Ha nem így lenne, akkor nem ilyen hardverek jönnének, de magát az alapproblémát a Microsoft és a Khronos kezelte egy-egy új API-val.
(#39102) Zsébernardo: Azt számítsd bele, hogy se az Intel, se az AMD nem az aktuális játékokra készíti az idei csúcsprocesszorát. A 10-magos Comet Lake, illetve a 12-magos Matisse a 2019-es címekre jön. Azokra a címekre, ahol egyébként nem egy el fogja hagyni a DX11-et, így meg lehet válni a legacy feldolgozási modellektől. De egyébként lehet, hogy lesz 16-magos, mert az id tech 7 azt mutatja, hogy skálázódna rá, csak az AMD nem annyira rajong az ötletért, mert a Threadripperek piacát enné a cucc, és az Intelnek úgy sincs a 12-magosra sem válasza. De persze a Bethesda nagy partner, nyilván van némi beleszólásuk, hogy csinálnak-e nekik egy külön szupererős mainstream procit. Ha nagyon nyalnak, akkor talán megteszik.
-
Abu85
HÁZIGAZDA
válasz
korcsi #39093 üzenetére
Attól függ, hogy milyen dedikált. Egy GeForce MX200 sorozat igen olcsó, miközben gyorsabb az Intel IGP-jénél. De érdekes lesz majd látni a Ryzen Mobile 3000-et. Ott már az AMD rárakja a pénzt azt a 30-50 dollárt IGP-re, és így például a Lenovo nem rak mellé dedikált GPU-t, mert most már fizetni kell az IGP után is.
Nagyban meghatározza az OEM-ek döntéseit, ha az IGP-s prociknál az ár úgy van szabva, hogy az IGP ajándék legyen, vagy úgy, hogy azt a cég felszámítja. Utóbbi esetben nem igazán van lehetőség dedikált GPU-ra, még akkor sem ha befér, mert a Ryzen Mobile 3000 alaplapja kb. akkora, mint az Intel Coffee Lake U-s modelleké. És az is lényeges, hogy az AMD szokott csomagot kínálni, alig 20 dollár a legkisebb Radeon, ha valaki vesz egy mobil Ryzent, tehát még ez a 20 dollár sem éri már meg a gyártóknak, ha az IGP-ért az AMD azt mondja, hogy most már fizetni kell. Képzeld mennyire sikítva tenyerelnek a NEIN gombra, ha nem 20, hanem 200-300 dolláros extra kiadásról lesz szó. -
#00137984
törölt tag
Zen 2 processzormag önmagában még több magot fog tartalmazni és teljesitményben az Intel procikhoz még közelebb kerülhet. Viszont a játékokban ez a sok mag még nem használható ki megfelelően, mert a jelenlegi Ryzen Pinnacle Ridge processzorok a magasabb Turbó órajelekre gyorsulnak az alkalmazásokban és a játékokban. AMD érdekesség a témában, hogy az elérhető órajelek régen a kevesebb magos procikban emelkedtek (4 magos CPU órajel @3.8GHz-et ment, amig a 6 magos CPU órajel @3.2 GHz volt). Jelenleg viszont a AMD Ryzen7 2700X órajele a legmagasabb és a magok számának csökkentésével az órajelek is drasztikusan visszaesnek 300-400 MHz-et. Viszont a játékokban az Intel i7 procik dominanciája még mindig erősebb, ami a Zen 2 procik megjelenésével talán mérséklődni fog. Ez viszont talán egy kis árversenyt hozhat végre...
-
pengwin
addikt
válasz
Petykemano #39100 üzenetére
& (#39099) solfilo
Szerintem sokszor úgy vannak vele a gyártók, hogy egy szar, 5-6-szor átnevezett borzadály marketingértéke sokkal magasabb, mint a költsége...
Így tényleg biztosan olcsóbb a tervezés és egyszerűbb az alaktrészek berendelése, ahogy Petykemano írja, és a sok tájékozatlan vagy félreinformált lyúzer megveszi a gagyibbnál is gagyibb dGPU-s laposokat, lehet pont a 2/4GB-os dGPU miatt.azért rakják bele, mert nagytételben 8GB-os ramokat rendeltek (kisebb hely, kisebb fogyasztás, mint 2 csatorna) és így valójában az IGP félkarú óriás
Az ilyen dGPU-k fixen lassabbak lesznek a Vega IGP-knél, még akkor is, ha SC DDR4 van a gépben. Fele annyi CU-t nehéz behozni, főleg, hogy a dGPU mellett sok esetben nem is GDDR5 VRAM van, hanem DDR3.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- BESZÁMÍTÁS! Intel Core i9 9900K 8 mag 16 szál processzor garanciával hibátlan működéssel
- Telefon felvásárlás!! Huawei P20 Lite/Huawei P20/Huawei P30 Lite/Huawei P30/Huawei P30 Pro
- Bomba ár! Lenovo ThinkPad L380 - i5-8GEN I 8GB I 256SSD I 13,3" FHD / MT I HDMI I Cam I W11 I Gari!
- SanDisk Extreme Portable 8TB (SDSSDE61-8T00-G25)
- Xiaomi Redmi A3 64GB Kártyafüggetlen, 1Év Garanciával
Állásajánlatok
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged