- Keretmentesít a Galaxy S25 FE
- Karaktere biztos lesz az első Nothing fejhallgatónak
- Csíkszélességben verné az Exynos 2600 a Snapdragon 8 Elite 2-t
- One mobilszolgáltatások
- iPhone topik
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
- Samsung Galaxy A54 - türelemjáték
- Honor 200 - kétszázért pont jó lenne
- Samsung Galaxy S21 és S21+ - húszra akartak lapot húzni
- Yettel topik
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Mindenki távolodik már a Windows gamingtől. Valamelyik cég ebben sikeresebb, valamelyik kevésbé, de senki sem akar egy lábon állni, pláne úgy, hogy jelentősen drágul a chipgyártás.
(#39531) Loha: Az NV a mobil piacot feladta. Abból kiszedték a pénzt.
A konzolok ellen nem volt esélyük. Az AMD egy csomó mindent azért nyert meg, mert a GCN lett a de facto standard a fejlesztőstúdiókon belül. Amikor jönnek az explicit API-t használó címek, akkor nem pont azért kedvez az AMD-nek, mert az NV drivere gyengébb, hanem azért is, mert a fejlesztést AMD-n végzik. Lásd az Ubisoft is a Vulkan portját az Anvilnak AMD-re csinálta meg, és most kezdenek hozzá a GeForce optimalizálásnak.
Ezt látjátok ti is a teszteknél. Nálunk ugye zömében explicit API-t használó játék van, és mások az eredmények, mint azoknál az oldalaknál, akik az explicit API-t mellőzik. Ez a konzol és a driver előnye. Nem a hardver a jobb.A cloud gaminget az NV sajnos bebukta. Nagyon jó volt a koncepció, amit még 2010-es évek elején kezdtek, csak 2019 van és még mindig nincs SR-IOV support a hardverükben. Ez ugyanakkor teljesen az ő piacuk volt, mindenkinél hamarabb léptek, mindenkinél hamarabb értették meg fontosságát, viszont kilenc év alatt az AMD fejlesztett SR-IOV-s hardvert, és ennyi elég volt. Ezt ők cseszték el, pedig lehetne most a Microsoft és a Google a partnerük ebben. A Tencent is Intelre megy, pedig ők aztán kivártak elég sokáig, ami számukra versenyhátrány, de beszédes, hogy végül nem az NV-t választották.
-
Abu85
HÁZIGAZDA
Eleve semmit sem jósoltam az említett cikkben. Írtam egy programot, amivel lekérdeztem, hogy mit tudnak a hardverek, és azt írtam le.
(#39521) b. : Igazából az a kérdés, hogy mi a problémád. Ha az, hogy az NV-n rosszul fut, akkor azzal van gondod, hogy a játék subgroup shadereket használ, és arra még nem mindenkinek van hatékony fordítója. Ha az, hogy akadozott, akkor arra a patch kell, ami átrakta a memóriamenedzsmentet a gyári rendszerről, az AMD VMA-ra.
-
Petykemano
veterán
Mit értesz az alatt, hogy "megvalósul"?
Abu "jóslataiban" sosem arról beszél, hogy ilyen vagy olyan irányban fog változni a piaci részesedés ezért vagy azért az épp részletezett nehézség miatt.
Mindig az a forgatókönyv, hogy
1) Kijön valami új api, kiterjesztés vagy arra épülő játék, ebben az AMD szerez egy kis előnyt, vagy farag a hátrányából
2) Abu elkezdi ecsetelni, hogy hát igen, az nvidia mennyire le van maradva ebben meg abban az implementációban
3) Jön a "le van maradva" kijelentésen feldühödött tömeg, hogy hát ha annyira le van maradva, hol vannak az AMD eredményei? Hol látszódnak a csíkok, hogy az AMD mennyivel jobb?
4) Eltelik néhány hónap/év, kijön pár driver frissítés, menet közben kijön egy új generációs lapka, ami foltoz ilyen-olyan "hiányosságokat", az AMD 1-2 címben megjelenő "előnye" elolvad és jön az önelégült tömeg, hogy na tessék hol van a le van maradva, már gyorsabb is.
5) Goto 1.)És közben abu egyszer sem mondja, hogy az AMD csíkok innentől kezdve hosszabbak lesznek mindig. Sőt, most kifejezetten ügyelt arra, hogy felhívja a figyelmet, hogy az nvidia rá fogja fordítani az erőforrást és megírja a drivert és szépen visszaáll minden a rendes kerékvágásba.
-
Egon
nagyúr
A bökkenő ott volt, hogy a laptopokban nincs monitor vezérlő chip, a GPU közvetlenül kommunikál a kijelzővel, viszont az asztali monitorokban meg van, amik nem támogatták a VRR-t, ezért az NV csinált magának egy monitor vezérlő chipet (a G-Sync modult)
No igen, ha jól emlékszem, Abuval az élen lett ekézve az nV folyamatosan, hogy milyen kötsögök, hogy laptopokban szoftveresen van G-Sync, asztali monitorokban meg nem... Hiába, az abuthizmus híveit az ilyen nyilvánvaló ferdítések sem zavarják a prófétájuk követésében...
-
Abu85
HÁZIGAZDA
Meg mindenkinek kellett hozzá tervezni kompatibilis skálázókat a monitorba, vagy legalább megfelelő firmware-t, esetleg kompatibilis elektronikát. És ezeket nem úgy hozták össze, hogy a VESA leszólt nekik, hogy az AMD demózott a CES-en valamit, és egy hónap alatt rakják már össze, hogy a készülő monitorokban egy év múlva már működjön is, hanem megvolt a szabványosítási procedúra, mert az nem elég jó, ha csak az AMD-n működik, akkor ugyanúgy kidöglött volna a picsába, mint a G-Sync. Meg kellett egyeznie az összes, adott területen érdekelt cégnek a szabványról, amit biztosított a VESA. Ezek hosszú folyamatok, akár két évig is tarthatnak.
-
#00137984
törölt tag
Ez a GTX 1070 és GTX 1070 Ti, GTX 1080 összevetés szerintem igy teljes...
GTX 1070 GPU architekturából egy egész GPC tömböt letiltottak, vagyis az egynegyedét a GP104-nek. Ez viszont érintette a többi részegységet (a 64 vs 48 ROP téma...), mert csak a 256bit memóriabusz maradt egyben. CUDA teljesitménye szintén ennyit romlott. Fogyasztása a @150W TDP keretnek köszönhetően barátinak mondható, de a tuninglehetőség az egy 6pin tápcsatlakozás miatt korlátozott volt. Készült egyedi erős tápellátással GTX 1070 OC kártya, de a felárat megkérték érte.
GTX 1070 Ti majdnem teljes értékű GTX 1080 volt. 1 SM tömb volt letiltva (20/19 SM), miközben a 64 ROP teljesértékű maradt. Fogyasztása 180W-ra emelkedett, de a tuninglehetőség a GTX 1070 Ti számára jobban adta magát. Az egyedi hűtések itt még nagyobb hangsúlyt kaptak. Teljesitményben a friss tesztekben a GTX 1080-hoz van inkább közel, amig a GTX 1070 leszakadozott. GTX 1080 pedig a teljes értékű GP104, ahol azért a fogyasztása alig magasabb a GTX 1070 Ti videókártyától. Ez a videókártya már teljesen alkalmas az 1440P felbontásra, akár magasabb képfrissitéssel. Kihajátásához egy i7 (4mag, 8szál) jó magas órajelen hajtva sem mindig elég, mert itt azért már nagyobb sávszéllességen megy a GDDR5X VRAM. GTX 1080 és a CPU fogyasztása miatt ajánlott egy jobb és erősebb tápegység. Vagyis a kicsivel magasabb TDP keret valamikor hasznosul, máskor meg inkább visszafogottnak érezzük.
-
HSM
félisten
A laikus felhasználó csak azt fogja nézni, GTX1060....
"A fogyasztás legnagyobb részét pedig nem a távolságok okozzák, hanem a tranzisztorok ki-be kapcsolgatása"
Legjobb tudomásom szerint ez az állítás nem állja meg a helyét, ugyanis legjobb tudomásom szerint a csipek fogyasztásának igen jelentős részét (akár durván a felét is) az órajelosztó hálózat adja. Az pedig éppen nagyobb egy nagyobb csipen, ha nem éppen egy kupacban középen vannak a dolgok. -
HSM
félisten
A lényeg, hogy nem fogod tudni könnyen megtalálni, melyik kártya melyik, ami szerintem nem jó.
"maga a chip fogyasztása pedig nem lesz nagyobb, mert a letiltott részek nem üzemelnek."
Az állításod második része igaz, azonban az első nem minden esetben, és így a következtetés sem. Gondolj arra, hogy a nagyobb csipnél nagyobb távolságok vannak a csipen belül is, kevésbé ideális az elrendezés a kevesebb aktív részegységhez. Ezt vagy ellensúlyozzák egyéb tervezési sajátosságok, vagy nem. -
HSM
félisten
Én nem vagyok barátja az ilyen más csipes kukázós kártyáknak azonos néven retail piacra. A pirosaknál sem tetszett az 1024 helyett 896 shaderes Rx560, illetve a 2048 shderes Rx580 2304 helyett a kínai piacra, most sem tetszik ez a totál más 1060.
Ezeknek illik kitalálni valami nevet, pl. AMD-nél ott volt a 7870 XT, vagy BOOST, ami ugye a 7950 tovább vágott Tahiti csipjét tartalmazta 7870 áron, kicsivel magasabb fogyasztással és sebességgel. Na, az úgy szuper holmi volt amúgy, és senki nem lett félrevezetve, mit talál majd a dobozban 7870 vagy 7950 és az új 7870 XT/Boost felirat mellett. -
Abu85
HÁZIGAZDA
Éppenséggel sok munka van vele. Az egy dolog, hogy a PSSL hasonló a HLSL-hez, de nem ugyanaz. A HLSL-nek is vannak verziói, tehát az sem mindegy, hogy melyik HLSL-hez hasonlít.
Az valóban lehetséges amúgy, hogy PSSL kódot fordíts PC-s hardverre, de ez nem szabványos. Az AGS szervizkönyvtár tartalmaz olyan függvényeket, amelyek ezzel kompatibilisek, és igen ezzel némelyik fejlesztő él is, de ha így csinálják, akkor ezek a kódot PC-n csak GCN-es Radeonon futnak, tehát szabványos HLSL kódokra így is szükség van, mert valamit futtatni kell Intel és NV hardvereken is. Szóval jól hangzik, amit a Sony mond, és van is benne igazság, csak nem úgy, ahogy azt elgondoljátok. -
HSM
félisten
-
Persze, hogy pletyka. Azt, hogy nem jött be, azt nem tudom honnan veszed. Nem cáfolja semmi egyelőre, viszont nagyon sok minden szól mellette.
Az is elképzelhető, hogy a kisebb első generációs TU lapkák (TU107, TU108) még kijönnek, mint pipe cleaner, felkészülve a 8-10 nm-es Samsung node-ra, hogy azon készülhessen a teljes TU20x.
-
Eredetileg kisebb csíkszél lett megcélozva,Samsung 10 nm,pontosan a mérete miatt. Augusztus végén jött ki konkrétan, hogy nvidia nem kapott helyet ezért TSMC nél kénytelen beérni a 12 nm gyártással és ezért jött az FFN 12nm módosítás. ( horror áron biztosította egyébként ezt TSMC, gondolom ez is benne van a Turingok árában)
TSMC nél 7 nm EUV baromi drága,normál 7 nm re nincs hely és drága a wafferára.
Samsung pontosan ilyen helyzetre fejlesztette ki a halfnode-t mert olcsóbb és nem versenyeznek annyira érte a cégek, így nvidiának teremhet babér.
Nagyon valószínű, hogy Samsung lesz a befutó és az eredetileg Samu 10 nm re tervezett Turing 8 nm-n jobb lesz.lezso6: beelőztél
-
NVIDIA GTX 1060 and GTX 1050 Successors in 2019; Turing Originally Intended for 10nm
Igen, a TSMC FFN node-ja az NV kérésére készült. Mert az eredetileg Samsunghoz készült chipeket a sima 12 nm TSMC node-on nem lehetett volna legyártani. Ezért egy módosított, személyre szabott node-ra kényszerültek.
-
Éppen elég volt, vagy épp nem. Lényeg, hogy a 7970 GHz és GTX 770 az szinte teljesen megegyező teljesítményt produkálnak játékokban. Ez pedig Jensen e-péniszének nem jó.
A GK100 kuka volt, a GK110-et pedi meg kellett várni míg elkészül, nem lehetett csak úgy előhúzni zsebből. Amint a 290X jött, hiába csak pár %-kal hugyozta körbe a Titant-t, egyből elővették 780 Ti-t.
Nyilván.
-
Petykemano
veterán
Necces.
Pont annyira necces, amennyire itt a közönség Abu cikkeit rosszallja.Egy szakavatott, sokatlátott szemnek lehet, hogy átüt.a sehol nem jelzett irónia, de valaki, aki csak rákeres "Turing worth buying?" Lehet, hogy komolyan veszi.
Honnan is tudhatná, ha nem Abu "az AMD csudálatosan jövőbemutató fejlesztése milyen jó" cikkein nevelkedett, hogy ha nem abutól és nem az amdről van szó ilyen megvilágításban, az nyilvánvalóan irónia. Abu és az AMD karikatúrája.Persze ez nyilvánvalóan nem igaz, hisz miért is állítana karikatúrát valaki Abunak a TH hasábjain? Ha meg összebeszéltek és egyikük a miért ne vedd meg semmiképpen, másikuk a miért vedd meg kérdés nélkül kérdést dolgozta fel, csak kéne utalás erre, hogy az olvasó ne vegyen minden szó szerint.
-
Az NV határozta meg, hogy pontosan milyen legyen a tokozás, pl milyen forraszanyagból legyenek a GPU chip alatti úgynevezett microbumpok (melyek ugye nem összetévesztendőek a tokozás alatti BGA golyókkal). Főleg itt cseszték el, ugye ezek repedtek meg, nem a "nagy" golyók.
Az anyagfáradás oka konkrétan a nem megfelelő microbump és underfill (a microbumok közötti teret tölti ki a chip alatt, a megbízhatóság növelése a cél) anyagok használata volt (a linkelt cikkből kiderül). Eleve a microbumbok olyan forraszanyagból készültek, mely viszonylag alacsony hőmérsékleten olvad, ami ugyan megkönnyíti a gyártást, ámde csökkenti a megbízhatóságot. Ez ellen valamennyire védene az underfill, de ebből is olyan választottak, ami már viszonylag alacsony hőmérsékleten meglágyul, így már nem tölti be a feladatát. Így halt meg egy csomó GPU, mert a chip alatti anyagok folyamatosan meglágyultak aztán visszakeményedtek, az eredmény pedig anyagfáradás.
Az NV nem vállalta fel soha a hibáját, hanem kötelezték a hibás GPU-k kicserélésére.
-
Ne kavarj. Nem az ólommentes forrasztás volt a probléma, az NV hibázott, gagyi tokozást kaptak a chipek. De ezzel nem lett volna különösebb baj, ha nem sunnyogják el, s beismerik a hibát. Mivel ezt nem ez trötént, több száz millió dollárba került nekik cserélni a hibás GPU-kat. Persze a hibájukat azóta sem ismerték el.
-
zovifapp111
senior tag
Ha látnék egy hiteles statisztikát, a meghibásodott amd/ati vs nv- t használó termékekről, 15 évre visszamenőleg, akkor talán meg tudnán itélni, hogy melyik cég dolgozik minőségibb komponensekkel. Ezeket a környezetkímélőbb dolgokat inkább hagyagoljuk....
A környezetet lehet hogy kímélik, de minket (embereket) pont lesz@rnak
A környezetkímélő nem egyenlő az egészségkímélővel)
-
zovifapp111
senior tag
Ha a hűtés nem megfelelő akkor, mindegy, hogy ki gyártotta és hogy, laptop, konzol, asztali gép stb..., a forrasztások elfáradnak idővel és repedni fognak. Még arról se beszélhetünk, hogy bezzeg a régi cuccok....pl.a gtx 260- hd4870 ugyanúgy elfáradt mint a mai amd-nvidia termékek. Az anyag sporolás mindig is jelen volt (kötségcsökkéntés), és ez minden mai iparágra igaz
-
Abu85
HÁZIGAZDA
Mit teszel rá? A GDDR5 rendkívül sokat fogyaszt, a GDDR6 pedig túl drága.
Az Xbox One a textúrákat a host visible flaggel ellátott memóriában tárolja. A GPU egyszerűen csak kiolvassa és kész. Az adat egyébként nem csak textúra, hanem rengeteg puffer is. Ez a probléma a PC-vel, hogy oda streamelni kell a textúrát is a host visible memóriából, és ezen a ponton vesztesz el egy rakás hatékonyságot, mert nincs szükséged arra a rakás allokációra, hanem azokból kell az allokációk egy része. De nem tudod csak úgy ezeket beolvasni, így pedig másolgatni kell a teljes allokációt. Effektíve költesz rá ~8 GB-nyi memóriát, miközben a valóban fontos adat igazából ebből ~3 GB csak, de nem tudod elérni, hogy csak ezt másolja be a hardver, muszáj hozni a szükségtelen adatokat is.
-
Abu85
HÁZIGAZDA
32 GB-nyi HBM2 jelenleg 400 dollárba kerül minimum. Emellett ehhez 4096 bites busz kell. Mit csinálsz mondjuk egy középkategóriás VGA-n, amire elég az 1024 bites busz? Oda reálisan egy ~40 dolláros 4 GB-os stack az ideális.
Ha jól megírják a programokat, akkor 4 GB is bőven elég lenne, de a legtöbb fejlesztő, csak bevágja a DX12 RSL-t, vagy a Vulkan VMA-t. Ezek megfelelő háttérmunka nélkül csak működnek, de borzasztóan pazarolnak. Szóval messze nem az a baj, hogy nem lehetne megírni jól a programokat, hanem az, hogy nem írják meg. Félelmetes az, hogy a Rise of the Tomb Raider Xbox One X-en 1,2 GB-tal elvan. Ennyi device_local flaggel ellátott memóriát használ GPU. PC-n ugyanez 5-6 GB közötti. Eközben ugyanazt éri el, csak nagyságrendekkel szarabb az allokációk kezelése.
A HBM már csak a GDDR5-nél drágább. A GDDR5X-nél és a GDDR6-nál már olcsóbb. Jóval kevesebb lapka kell a megfelelő sávszél eléréséhez.
-
Abu85
HÁZIGAZDA
És hogyan adsz ki egy olyan multiplatform játékot PC-n, ami mondjuk alkalmaz a PS4-en visszaírást a CPU memóriájába? Meg sem fog mozdulni. Nem elég gyors az összeköttetés, hogy működjön. PS4-en persze működni fog, de akkor már nem multiplatform játékról van szó. Szóval PS4-en is csak az exkluzív játékok mennek el addig, hogy erősen terheljék a CPU és az IGP összeköttetését, illetve hogy használják a megosztott memóriát.
Azt értsd meg, hogy minden gyártó megcsinálta a maga kis memóriakoherens és egyben igen gyors összeköttetését. Az Intel az UPI-t, az AMD a GMI-t, az NV az NVLinket. Nem azért, mert volt egy rakás felesleges mérnöki kapacitásuk, hanem mert kellett.
-
Abu85
HÁZIGAZDA
CPU visszaírásra. Számos olyan technika van ma, ami nem azért alakult ki, mert ez a jó, hanem azért, mert szűk a CPU és a GPU közötti kapcsolat. Például a GPGPU-culling nem azért terjed a Frostbite, az id tech, a Dunia, stb. motorokban, mert annyira szuper minden kivágási munkát a GPU-ra rátolni. Bizonyos feladatok jobban illenek a CPU-ra, de hiába gyorsabb ezekben, ha közben a pipeline egyirányú, tehát a visszaírást mindenképpen el kell felejteni. Ebben az esetben az dönt, hogy összességében mi a gyorsabb. Ha egy adott feladatban mindent a CPU csinál, vagy ha mindent a GPU. Az teljesen mindegy, hogy a hibrid modell sokkal jobb lenne, mert kevés hozzá a PCI Express. A GPGPU-s irányokkal sem lépünk igazán előre, csak nem a bal kezünket harapdáljuk, hanem a jobbat. Utóbbi pedig picit jobb, van aszinkron compute lehetőség, tehát ez még fejleszthető. De következő körben már tényleg nincs hova lépni. Muszáj magát az alapproblémát kezelni, vagyis a szűkös buszt. És ezen a primitive shader sem igazán segít. Az is csak egy 2000-es években kialakított rendszert cserél jóval modernebbre, nyersz vele maximum egy-két évet, de nem fogja önmaga megoldani a szűk busz problémáját.
-
TTomax
félisten
Értsd márt meg hogy ez nem azért van mert elég a PCI-E bus,hanem azért mert a programok igy vannak megirva,de sokkal többet ki lehetne hozni ha nem így lennének.
PUBG,ugyan....az a 30millió user nem ennyi gépet jelent vagy felhasználót söt egyik re sem igaz. Míg a 10 millás PS4 cím közel valósan ennyi gépet,és usert jelent.Azért mert egy kínai internetkávázóban naponta azonos gépröl loginol 6-10 emberke,míg PS4nél ez az opció nem játszik.Ráadásul az eladási szám is csalóka,hiszen millió-számra vannak a cheaterek PC-n akik akár már az 5. 10. accountjuknál tartanak, vagy bannolva vannak mert pénzt próbálnak farmolni...Mit gondolsz miért lehet a mai napig az eladási listák csúcsán?Ne nagyon támaszkodj ezekre a számokra,félrevezetőék.
-
Puma K
nagyúr
Nem jó az utolsó link.
De ez már jó: PC had more “good” exclusive & multi-platform games than any console in 2017
-
TTomax
félisten
Ne cseréljük fel az okot és az okozatot.Azért mert csak annyira van használva a PCI-E busz amennyire attól lehetne azt még jobban is,persze hogy nem készül olyan vga aminek ne lenne elég hiszen az pazarlás lenne,de készülhetne ha adott lenne a gyorsabb bus.
A PC gaming pedig mindent tesz csak nem növekszik,az egy dolog hogy a profit magasabb és jobban jövedelmez csakhogy ez egy helytelen irány merthogy olcsóbbnak kellene lennie a komponenseknek ahhoz hogy a felhasználó tábor növekedjen most van a sarcolás ideje,meg még lesz is egy pár évig,nem véletlen a konzolok térnyerése,azok a konzolok ahol most már magán a konzolon is keresnek nem úgy mint eddig.Az irány nem jó,persze a pc gaming nem hal ki,csak átalakul...egy szűk réteg marad csak akik hajlandóak kifizetni a nagy semmit,és gépet épitenek de ha azok is ráunnak...meg marad majd a nagy többség az egybe épített cuccokkal,merthogy relatív az lesz az olcsó.
Az AMD nem fog meghalni,ne mossuk össze a pc gaminget az AMD halálával.Az Intel lesz a legelső aki igy vagy ugy de életben tartja az AMDt.
-
huskydog17
addikt
Én tudom, ne nekem mondd!
#33657 Abu85: Nos, a PC verzióra a Nixxes több, mint 20 embert állított rá és továbbiakat konzolos verziókra, így nem túl valószínű, hogy csak 20-an vannak, ahogy állítottad.
Érdekes módon még a stáblistán is úgy jelölik, hogy PC Development Team a Nixxesnél és nincs sehol, hogy DX12 only
"Sehol. Az NV-től tudom, hogy ők csinálták a DX12-es módot."
Ja, ahogy a DX11-et is, de azt már nem kötötték az orrodra az NV-től, mert annak nincs akkora marketing értéke, mint a DX11-nek. Ebből ezek szerint te egyenesen arra következtettél, hogy nem a Nixxes csinálta. Nincs több kérdésem.
"Amelyik projektejet vezették, tehát az övék, azokat megjelenítik."
Tehát akkor közös projekt volt, ahogy sejtettem (bár erre továbbra sincs semmilyen hivatalos megerősítés, így csak továbbra is elmélet). Ettől még ők is dolgoztak a PC porton, nem kevesebb, mint 20 emberrel. -
cyberkind
félisten
Már akinek jobb, nekem speciel kicsit se hiányzik, hogy nem lehet motorozni a játékban, vagy a sportkocsik is úgy viselkednek mint a hajó és még sorolhatnám, az pedig részletkérdés, hogy a 4-ben nem volt ilyen gyors és pörgős multi ami igényli ezt a fizikát is, és azt se feledjük el, hogy ez az Xbox 360-Ps3 párosra lett fejlesztve, ami azokat a gépeket teljesen kihasználták.
-
#85552128
törölt tag
A Destiny 2-nek látványban köze nincs ezekhez a játékokhoz, eleve a design is inkább egy mesés/animációs filmre hajaz mintsem a realisztikus grafika felé. ACO majdnem jó, de ott is gondok vannak az optimalizáltsággal és nem csak a 2 DRM miatt, elég erős GPU kell hozzá amúgy is.
-
Abu85
HÁZIGAZDA
A TSMC-nél sorban állnak a gyártósorért. Ott már nincs alkupozíció. Ha a legtöbb pénzt kínálja egy cég, akkor az övé a gyártósor. Ennyire egyszerű.
A HBM-es megoldások esetében nem pont a node határozza meg a választást. Sokkal inkább az számít, hogy kinek a tokozása a kedvezőbb az előállítási lánchoz. Az AMD hosszú távon a Samsunggal képzeli el ezt az irányt, tehát nekik a Common Platform bérgyártói a kedvezőbbek. Az NV a Hynix partnere, így számukra a TSMC az ideális.
-
Raymond
titán
Plusz azert gyartat a Samsung-nal mert mar evek ota nem egyszeru kapacitast szerezni es foglalni a TSMC-nel mert ok a top bergyarto. Ezert ha lenne is kapacitas a kisebb chip-ekre az arazas tobb mint valoszinuleg nem idealis mert nincs oka a TSMC-nek a kuncsaftokert harcolni ha sorban allnak az ajto elott.
-
Szerintem tök egyértelmű, hogy az AMD a GloFo-nál fog maradni, ugye anno az a saját fabja volt, nagyon közeli kapcsolatban vannak, ez pedig nagyon nem elhanyagolható. A 28nm-rel elég komoly gondok lehettek, mert a GCN-eket a TSMC-nél gyártották, viszont a 14nm eléggé bejött. A linkelt cikk után pedig nem sokkal kiderült, hogy a GloFo-nál lesz egy 12nm halfnode is, s ezt jövőre az AMD használni fogja. Meg 2019-től a 7nm-t is, ami a TSMC 7nm-ével ellentétben nagy teljesítményű lapkákra lesz kihegyezve. Csak oldják meg azt, hogy legyen elég GPU, gondolom most azért nincs, mert a CPU-kra koncentrálnak, az jóval nagyobb piac.
-
Abu85
HÁZIGAZDA
Van a szerződésnek árnyoldala. Az AMD bizonyos események teljesülése után büntetést fizet, cserébe rohadt olcsón kapja a wafert. Az AMD-nek ebben az az üzlet, hogy így mindenkinél olcsóbban tud gyártatni, viszont ha az egyik kritérium bukott, akkor büntetést fizet érte. A GloFo-nak ebben az az üzlet, hogy az AMD termékei szolgálnak alapként a gyárak kihasználtságához, ezért cserébe nagyon olcsón adja a wafert.
Ha nem kötik meg ezeket a feltételeket, akkor nem kapnak olcsón wafert.
(#30879) Loha: Valójában az NV sem gyártat mindent a TSMC-nél. A kisebb GPU-kat a Samsunghoz viszik, mert egyszerűen túl drága a TSMC, hogy ezek egy licitálós modellel nyereségesek legyenek. A Samsung kiszámíthatóbb, és olcsóbb.
-
HSM
félisten
A kisebb feszültség oké, de magasabb órajelen... Az alsó hűtés pedig a PCB-n keresztül hűti a felső ramokat is, amik ráadásul könnyebben szellőznek. Szval sejthetően határeset velük a psszív üzem.
A táblázat teljesen relevánsnak tűnik nekem is. Ezek alapján viszont gyakorlatilag csak a GPU-nak és memóriáknak van jelentős szerepe a kártya előállítási költségében, illetve az extrább hűtések tudnak még dobni rajta. Nagy kérdés, mennyire drága pl. a GDDR5X mondjuk egy HBM2-höz és macerásabb összerakáshoz viszonyítva.
-
Abu85
HÁZIGAZDA
Ez nem ilyen egyszerű. A szerződés is sokat számít. Az NV a TSMC-nél licites ügyfél, míg az AMD a GloFo-nál take-or-pay modellel van. Ez azt jelenti, hogy az NV úgy szerez kapacitást, hogy licitál a gyártósorra az Apple-lel, és más konkurens megrendelőkkel, és a TSMC annak adja el, aki a legtöbbet fizeti. A GloFo és az AMD előre meghatározott mennyiségre kötött szerződést, vagyis az AMD nem licitál, de van például büntetés. A két modell alapvetően különbözik. A licitálás hátránya, hogy eléggé drága lehet a wafer a versenyhelyzetben, viszont annyit rendelsz, amennyi igazából kell, tehát nagyon jól lehet igazodni az igényekhez. A take-or-pay modellnél a bérgyártó számít arra, hogy az igényelt kapacitást tuti kihasználja a partner, ez garantálja, hogy a gyár normális kihasználással üzemeljen. Cserébe olcsó a wafer, viszont ha mégse teljesülnek a szerződési feltételek, akkor a megrendelő büntetést fizet, így ennek a modellnek ez az igazi hátránya.
A memóriák helyzete sem egyszerű. A memória akkor olcsó, ha legalább két gyártó kínálja. Ugyanis így versenyhelyzet alakul ki, és a memória kezdeti ára folyamatosan lefelé halad. Az a memória hátrányos, amit csak egy gyártó kínál, mert a kezdetekhez képest az ár folyamatosan növekszik. Utóbbi azért van, mert az adott gyártó nem tudja elfogadtatni a megoldását a többi konkurenssel, így alapvető érdeke lesz egy generáció alatt visszatermelni a befektetett pénzt (elvégre nem lesz következő generáció), azt pedig csak folyamatos árnövelés mellett lehet megtenni.
A memória mennyisége is számít. Nem mindegy, hogy elég 1-2-4 lapka az adott kapacitás eléréséhez, vagy szükséges 12-16-24-32 lapka.Az interposer legalább annyira előnyös, mint amennyire hátrányos. A rendkívül sok lábas routing nem egy olcsó dolog a méretesebb VGA-knál. Azért a legerősebb VGA-kon 12-16 memóriacsatorna kivezetésre kerül.
-
HSM
félisten
A 1080Ti-s PCB képeken azért csak ott figyelnek a hűtők/hűtőpárnák, tehát ráteszik a gyártók. Hogy kell-e, erről innentől szerintem kár vitázni.
Az 512-es kártyák ellenérve mindig is az volt, hogy drága a kivitelezés, igaz, ennek csak egy kis része a NYÁK. Ahogy a 384 bites NYÁK is tipikusan drágának számít, mert rengeteg kivezetést kell elvezetni, amihez sok réteg kell, kérdés, hogy a GDDR5X mennyire bonyolítja a helyzetet esetleges speciális árnyékolási igényekkel.
Igen, a durva VRM egészen biztosan nem olcsó a mostani VEGA kártyákon. Ezen én is vakargattama fejem, minek teszik rá pl. a VEGA56-ra a vizes Vega fullos atomdurva tápkörét fele fogyasztáshoz, nem tűnik túl racionális lépsnek. -
namaste
tag
A GCN és a Kepler kb. azonos teljesítmény/fogyasztás arányúak voltak. Energiahatékonyságban a Maxwell hozott nagyot a Tiled Caching-el.
A kényszer nem technikai, hanem inkább fejlesztői fókusz, az AMD nem engedhette meg magának, hogy sokfelé próbálkozzon.
Készül a Mesa 3D nyílt forrású driver OpenGL többszálú működési módja, majd meglátjuk mire képes, de biztató. -
HSM
félisten
"nem a GPU gyártóknak okoz nehézséget, hanem a játékfejlesztőknek"
Szvsz a fő probléma itt az idő, illetve a DX12 erősen korlátozott hozzáférhetősége a win10-hez kötöttsége révén. Szvsz ez jelenti a gondot a fejlesztőknek is, ugyanis amíg a DX11 alatt is működnie kell a cuccnak, addig a DX12 mód csak felesleges plusszmunka. -
namaste
tag
Az a videó összemossa az utasítás ütemezést és a feladat (parancslisták) ütemezést.
A feladatok ütemezését a Keplerben is HW végzi, a GigaThread Engine, a CPU-n futó driver a várakozási sor végére teszi az elkészült parancslistát.Az AMD is megoldhatta volna a többszálú DX11 drivert, de ők inkább a Mantle irányába mentek.
-
#85552128
törölt tag
Több hónapnyi eltérés van a két Doom benchmark között, először Pascalokon problémás is volt a Vulkan mód, szóval inkább az optimalizálások (driver+játék ami OpenGL esetén is javíthat), mintsem a DRM az oka. Ezek után 7% eltérés nem valami meggyőző egy olyan játékban amiben még fix benchmark mód sincs.
Valamennyit biztosan számít, de a Battlefrontban is Denuvo van mégsem kell neki 4+ mag a stabil 60 FPS-hez, a BF1 motorja szimplán bugosabb ebből a szempontból is... -
FLATRONW
őstag
Ahogy elnézem a 2500K és 2600K viszonyát, arra jutok, hogy egy jól párhuzamosított játékban már kevés a 4 szál. Ráadásul ez a limit DX11 alatt jobban kijön, mert ott a grafikus driver is elvesz magának 1-2 szálat.
Lényegében az jön ki, hogy a DX12 nem az FX CPU-kat menti meg, hanem a 4 szálas Intel CPU-kat.Mondjuk ez az egész az FX-ek lassulását nem magyarázza meg.
-
Kérlek regéld már el, hogy ez mióta az automitive gyártók által a vehicle-be rendelt vezérlés/hubok/linkek? Hallgatlak...
Ha nincs meg, hogy az automitive gyártók által a jármûvekbe beépített vezérlô és HUB elektronika melyik szegmens, kik gyártják, akkor nézz kicsit körül a szokásos foggal-körömmel fikázzuk Abu-t mantra helyett...
-
Abu85
HÁZIGAZDA
Ez a szerver oldali igény. Ez nyilván fontos nekik, mert ott az I/O szörnyeteg EPYC, abba bevágnak hat MI25-öt és kapsz egy gépi tanulásra igen erős konfigurációt eléggé olcsón.
A másik része ennek a piacnak az autókba szerelt hardver, amiben az AMD semmilyen formában nem utazik. Ide az Intel és az NVIDIA is pályázik, de itt az NXP messze a legnagyobb szereplő, és most akarja megvenni őket a Qualcomm, ami elég nagy baj a piacra nézve, mert akkora előnyük lesz mindenkivel szemben, hogy már most kiveri a víz a Softbankot. Ezért próbálja tőkésíteni a partnereit, mert nem akarják, hogy ez a jónak kinéző piac csak a Qualcomm+NXP-ről szóljon. Elvégre az nekik hátrány, hogy ha egy cég viszi a terület nagy részét és nem 4-5 cég versenyez.
-
-
Abu85
HÁZIGAZDA
Csak nem érdemes a játékokra levetíteni őket, mert nagyon másképp működnek a modern motorok.
Az Umbra csak egy occlusion culling megoldás. Ez, illetve a view-frustum culling még mindig a CPU dolga, bár vannak kísérletek arra, hogy áttegyük őket a GPU-ra. Az occlusion cullingra van az Intelnek egy GPU-s megoldása, de az egyelőre TIER_3-as conservative rastert követel, tehát csak a Gen9 hardvereken futna. Mindenesetre az ígéretes. Ugyanakkor közel sem vágnak ki ezek minden háromszöget, emiatt további technikákat kell bevetni. Ezek a technikák a GPU-driven pipeline motorokkal kifejezetten hatékonyak, ezért építi be őket egy csomó stúdió. A technikák gyűjtőneve a CTF. Persze van aki ezt másképp hívja, az AMD például GeometryFX-nek. Az egész arról szól, hogy radikálisan nőjön a raszterizáció hatásfoka sok háromszög mellett.
-
HSM
félisten
Talán Abu nem hangsúlyozta ki, ami szerintem a lényeg, hogy a kapacitásoknak egyensúlyban érdemes lenniük. A Fury-ban egyértelműen sok esetben kevéske a setup az óriási számolókapacitáshoz képest, ugyanakkor az Nv esetében pedig a szintetikus háromszögfeldolgozás irreálisan sok a számolókapacitásukhoz képest.
A végeredményben egyik sem úgy fog menni, ahogy a szintetikus mérésekből az ember gondolná.
Az is említendő, hogy a Fury-ban számtalan képesség segíthet kompenzálni a gyenge setupot, pl. az async compute, vagy a preempció. Nv ezek mind büntetéssel járnak, mert állapotot kell váltania a hardvernek, preempciót meg nem is tud úgy egyáltalán. -
Abu85
HÁZIGAZDA
Ez megközelítőleg sem ilyen egyszerű. A szintetikus programok azért nagyon megtévesztők, mert egy heterogén processzor (ugyanis a GPU ilyen) egy apró elemét terheli a limitig. Egy játék azonban teljesen más, számos elemet terhel egymás mellett, és egyrészt ez máshova helyezi a belső limiteket, másrészt annyira eltérő egy mai játék működése egy szintetikus programtól, hogy teljesen mindegy mit mutatnak ezek.
Annak is oka van, hogy a Hitman és főleg a Deus Ex Mankind Divided miért dolgozik sok háromszöggel, jelenetszinten akár 220 millióval. A Square Enix használja az új Glacier 2-ben és az ebből kifejlesztett Dawn motorban egy úgynevezett CTF modult. Ez a compute-based triangle filtering, vagyis egy olyan kivágási rendszer, amely miatt igen szabadon lehet bánni a háromszögek adagolásával, mivel a hardveren futni fog végül egy olyan program, amely a nem látható háromszögek nagy részét úgyis kivágja, és teszi ezt a korábbi opcióknál sokkal-sokkal hatékonyabban. Ezek persze jórészt befutnak a GPU-ba, de a feldolgozás különböző szakaszain jól meg lesz ritkítva a pipeline tőlük. Ezért nagyon fontos megkülönböztetni a szintetikus tesztet a játéktól, mert a szintetikus teszt egy ilyen modult úgy sem fog alkalmazni, hiszen pont a teszt lényegét vágná ki, mivel ettől jól futna a program a hardvereken, és nem ütköznének bele a vizsgálni kívánt limitbe. Egy sok háromszöggel dolgozó játék viszont ilyen CTF modul nélkül nem fog elkészülni, mert nem futna jól a hardvereken. Ergo teljesen mindegy, hogy a GeForce klasszikus kivágás nélküli, vagy szimpla CPU-s feldolgozás mellett jól viseli a terhelést, ha a sok háromszöggel dolgozó játékokban GPU-s kivágásos feldolgozással fog találkozni, és abban már a Radeon a gyorsabb. Arról nem is beszélve, hogy a kivágás lépcsői között az egyes hardverek más kódot kaphatnak. A Hitman és a Deus Ex Mankind Divided a CTF modult más kóddal futtatja Radeonon és más kóddal az összes többi GPU-n. Például a GCN-re a fejlesztők használnak ballot/mbcnt/read lane-t, míg a többi hardveren ezeket igen drága algoritmusok helyettesítik a direkt utasítások hiányában.
Amiről pedig te írsz, hogy "compute vs. poligon"... Ezek ma már nagyon is egybefüggő dolgok egy modern motorban. A CTF modulok ugyanis per háromszög szintű shaderek, vagyis minél több háromszög lesz egy játékban annál nagyobb előnye lesz az AMD-nek benne, hiszen a CTF minden még élő háromszögre lefuttatja a különböző fázisait. Effektíve a háromszögek számának növelése egy modern játékban leginkább a compute teljesítményt szívja le manapság. Így működik egyébként a legújabb Frostbite is, csak ott nem lőtték még el a terhelést 200+ millió háromszög per jelenetig, de idővel ők is megteszik.
-
_drk
addikt
Yeaah! Most ~55 ezerért olyan kártyát veszel ami vetekszik az 5 éves csúccsal!
Persze a legolcsóbb értelmes vásárlás díjat megnyeri. vagyis nem mert rx470 mindenhol rá ver elég sokat +5-10k-ért!De legalább az látszik, hogy nincs semmi különbség a két régi csúcs kártya között. Megérte ezen vitatkozni.
(legalább feléledt a topik!)
-
Abu85
HÁZIGAZDA
Nehezen fog a DX11 maradni még egy évig is. Az a gond, hogy a konzolról portolják a játékokat és ezeknek a DX11 már nem jó. Annyira különbözne a konzolos és a PC-s fejlesztés, hogy még ha alkalmaznák is a DX11 pathot a motorokban, akkor sem kapna szinte semmilyen optimalizálást. Tehát vagy DX12 lesz vagy Vulkan. Más opció a fejlesztők előtt most nincs.
Új shader modelt tavasszal kap a DX12. Ez lesz a shader model 6.0, és lehetővé teszi, hogy az Xbox One-ra írt shadereket ne kelljen egyáltalán módosítani, így ezek jöhetnek direkten PC-re.
További fejlődés egyébként ezekben az API-kban nem nagyon van. A DX12 legalább 6-7 évig itt marad, mert nincs igazán hova lépkedni. Ami fejlődni fog az a shader nyelv, aminek nyilván a shader model 6.0 lesz az alapja. -
HSM
félisten
Szerintem éppen, hogy a jó úton az AMD járt... A kornak megfelelő hardvert hoztak, amikor már kiöregedni látszott a DX11, akkor hozták az új architektúrát folytatásnak. Logikus lett volna, hogy mivel kijött egy lényegesen fejlettebb architektúra, hamarosan követni fogják az API-k, de sajnos nem így történt.
Az Nv iránya szerintem éppen, hogy nem volt jó út a mi szempontunkból. Nem a DX11-et kellett volna bebetonozni az arra kigyúrt architektúrákkal, hanem nekik is haladni a korral és fejlődni, nem csak egyhelyben gyorsulni. Fórumtárs szavaival élve, ők a gyertyát polírozták a tökéletességig, míg az AMD a lámpát próbált készíteni....
-
HSM
félisten
Na várjunk csak! A Fermi esetében egyértelműen akkor "túl volt tervezve" az a csip 2010-ben az akkori API-khoz és gyártástechnológiához képest. De az egyáltalán nem volt normális, hogy még utána 2 évvel se fejlődjön semmi semmit API téren, sőt, még utána 5 évvel is alig-alig....
-
Valóban, a TDP % alapján számolt fogyasztásnak már van köze a valóshoz. De azért nagyon pontosnak nem nevezném. Meg kérdéses, hogy csak a GPU vagy a RAM is benne van-e.
Az AIDA64 FPU tesztje az úgy tudom AVX, és az alatt 40 wattot mutat a szenzor. Kevesebbet, mint a notimnál.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Csere-Beszámítás! Sapphire Pure RX 7700XT 12GB GDDR6 Videokártya! Bemutató Darab!
- ASUS GeForce GTX 1070 Ti 8GB GDDR5 256bit
- PowerColor RX 6700 XT 12GB GDDR6 Hellhound Eladó!
- Csere-Beszámítás! Gigabyte Aorus Elite RX 9070 XT 16GB Videokártya! Bemutató darab!
- Csere-Beszámítás! Asus Rog Strix GTX 1080Ti 11GB GDDR5X Videokártya!
- BESZÁMÍTÁS! Apple MacBook Pro 14 M4 Pro 24GB RAM 512GB SSD garanciával hibátlan működéssel
- Bomba ár! Lenovo ThinkBook 14s Yoga - i5-1135G7 I 16GB I 256SSD I 14" FHD Touch I Cam I W11 I Gari
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7700X 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- Creative Sound BlasterX G5 (70SB170000000) (Sound Blaster) (DAC)
- Bomba ár! Lenovo ThinkPad Yoga 260 - i5-G6 I 8GB I 256SSD I 12,5" Touch I W10 I Cam I Gari!
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest