- DIGI Mobil
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Samsung Galaxy S23 Ultra - non plus ultra
- Jobb zoom, egyszerűbb kijelző - megérkezett a Sony Xperia 1 VI
- Nokia 3210 - felélni az örökséget
- Android alkalmazások - szoftver kibeszélő topik
- Yettel topik
- Telekom mobilszolgáltatások
- Samsung Galaxy S22 és S22+ - a kis vagány meg a bátyja
- Samsung Galaxy Note20 Ultra - a tollnak nincs ellenfele
Hirdetés
-
Spyra: nagynyomású, akkus, automata vízipuska
lo Type-C port, egy töltéssel 2200 lövés, több, mint 2 kg-os súly, automata víz felszívás... Start the epic! :)
-
Ilyen lehet a Samsung Galaxy Watch7 Ultra
ma Renderképek mutatják meg a Samsung júliusban megjelenő új felső kategóriás okosóráját.
-
Sikeres volt a teszt, elpusztítja internetes műholdjait az Amazon
it Az Amazon szerint minden sikerrel zárult, ezért letéríti az internetes műholdprototípusokat a pályájukról a cég.
Új hozzászólás Aktív témák
-
Ren Hoek
veterán
Mondok egy példát: Te etikátlannak tartod a Titán verzió megjelenését, mert utána jött a Ti, és kb féláron adták. Vagy etikátlannak tartod, mert a Founders edition nyílt lehúzás...
Ez megint csak senki mást nem érdekel, csak az AMD fanokat, meg etikán pörgőknek. Ugyanis aki megvette a Titánt, vagy a Founderst, vagy volt pénze és leszarta, vagy tudta hogy lehúzás de megvette. Persze ez az NV-nek combos bevételt hozott, ahogy most a túlárazott 1080 is.
Viszont így megengedhet magának egy komoly fejlesztési büdzsét, és azt is, hogy ne kapkodva teszteletlenül kelljen kókányolt munkát kiadni, hanem egy nagy mérnökcsapattal kitesztelt szétoptimalizált gyártástechnológiás chipet fog piacra dobni. AMD-nek is nagy a fejlesztési keret, de azt vagy hitelből termeli ki, vagy nem tudom.. de ha nem jön be elég profit, akár lopásból, csalásból, hazudásból, akkor nem lesz Navi..és/vagy ebből jönnek az egy éves csúszások össze...
... de ne aggódj talán megjött az AMD esze, és kihasználja a GCN konzol - GPUOpen lapot amivel szépen szétszakíthatja úgy a piacot, hogy külön-külön kell majd optimalizálni... vagy épp az NV-t belekényszeríti, hogy csináljon zöld GCN-t. Akárhogy is, de ez nem a PC-s vásárlók érdeke igazából, mert az univerzális szabványos dolgok helyett egyre specializálódnak a HW/SW-k.
[ Szerkesztve ]
-
Raggie
őstag
válasz TTomax #24147 üzenetére
Ezek már mind "szerntem"-ek amiknek nincs sok alátámasztható alapja.
De ha már itt tartunk, akkor szerintem meg a java ember csak és kizárólag azért vett 1080-ast mert az az új legerősebb kártya. Át sem gondolta, egy pillanatra sem, hogy neki valóban szüksége van-e rá vagy sem.
Ezek a kártyák már annyira luxus kategória, hogy a vevőik nem igazán foglalkoznak az árazással csak veszik. Persze itt most nem minden vevőre gondolok, és pl a PH-n jelenlevő emberekről eleve nem feltételezem ezt a hozzáállást, de hidd el hogy sajnos több az ilyen, mint a gondolkodó észérvek és gondolatmenet alapján vásárló vevő. Igen ebben a kategóriában főleg.@Ren Hoek: "egy nagy mérnökcsapattal kitesztelt szétoptimalizált gyártástechnológiás chipet"
Igeeen?![ Szerkesztve ]
Clint Eastwood FTW
-
Ren Hoek
veterán
válasz Raggie #24152 üzenetére
Csak az AMD és a hívői szerint luxus az 1080 kategória... amúgy egy valós piaci igény...
Nem csak 1080p-60 FPS-re van igény, high/ultrán... egyre jobban terjed a 4K, és a magas Hz-es monitorok aránya... de egy VR-ben mennyire remekel egy 480 vagy a csonka 4GB-os Fury, ha két szemedre kell kidobni FHD-t 90 FPS-el? Fury 60 FPSt is épphogy hozza átlagban, talán DX12 segít neki.
Szóval gyakorlagilag két jól terjedő kijelzőtechnológia van + VR amire nincs eszköze az AMD-nek. Ez lenne a luxus piaci igény?
-
imi123
őstag
válasz FLATRONW #24155 üzenetére
Nagyjából semmi.Mindenesetre nem tesz jó az Nv hírnevének bármennyire is vétlen a történetben.
Most még mellé jönnek a folyamatos driver problémák is.
Ilyenkor egyet értek azokkal akik azt szajkózzák hogy kell a konkurencia.Tévedni emberi dolog, de állati kellemetlen.
-
cyberkind
félisten
válasz imi123 #24158 üzenetére
Nem ilyenkor kell a konkurencia hanem mindig, ez a Pascal széria mutatja ezt a legjobban, az egy dolog, hogy várhatóan az árazás nem változna konkurenciával se, de a kiadott termék sokkal előremutatóbb lenne ha mutatni kéne valamit, így meg kijött az új Maxwell széria, nekem ez annyira kevés de főleg ennyiért.
Proci téren már sokkal régebb óta ez megy, mondjuk ott abból jó, hogy gyakorlatilag egy i7 rengeteg évig bőven elég.
[ Szerkesztve ]
Paranormal Cocktivity
-
Petykemano
veterán
válasz Ren Hoek #24151 üzenetére
Nagyon nehéz objektívan megfogalmazni egy átformálódó piacon azt, hogy mi az etikátlan.
Rövden persze mindenki azt nevezi etikátlannak, amivel a szívéhez bármilyen értelemben közelebb álló fél alól látszólag kihúzza a versenytárs a biztos talajt, a hazai terep előnyét azáltal, hogy unortodox lépésekhez folyamodik.
Ez például az AMDnek nem sikerült a bulldozerrel. Ott az unortodox lépés a magszám duplázása lett volna, de nem sikerült körbebiciklizni a piacot.
Hogy miért nem, arra nem csak a hardver a válasz, hanem a szoftveres környezet is: Megfelelően skálázódó programok mellett a húzás akár be is jöhetett volna.Azt ne felejtsd el, hogy nem csak kiváló mérnökcsapatra és kiváló architektúrára van szükség. Ez szerintem már nagyon régóta így van. A sikerhez a kiváló architektúrán kívül (ami ne felejtsük el mindig egy meghatározott módon működik optimálisan) szükség van driverekre, api támogatásra, (dokumentációra) szoftverfejleszőknek adott segítségre, supportra, hogy ott üljenek mellettük, és/vagy middleware-re. Stb. A kiváló architektúrán kívül és túl ez mind szükséges lehet a sikerhez.
Képzeld el ezt úgy, mint a curling: kell egy jó golyó, egy kiváló célbataszajtó, de hogy tényleg jó legyen, szükségesek a sikálók is.
Az Nvidia nagyon ügyesen rakta össze ezeket a komponenseket az elmúlt években. Szétoptimalizálták a driverüket a piacon elérhető apikhoz, az archtektúrájukat hozzáigazították ezen apik működéséhez, és middlewarek formájában támogatást nyújtottak a fejlesztőknek azzal a nem titkolt céllal, hogy a végeredmény a saját hardverükön azért jobban fusson. Minden klappolt ebben a környezetben, ebben a felállásban.
Az AMDnek volt egy álma. a GCN. Ami másféle módon működik optimálisan, mint más architektúrák. Írt hozzá egy apit, ami az ő architektúrája számára optimálisabb és amit különböző piaci manőverekkel sikeresen elterjesztett, szabványá tett, és ugyanezen piaci manőverekkel a saját architektúrájának ismeretére kényszerítette a szoftverfejlesztőket és persze számos program keretében beült melléjük segíteni.
És Te most ezt nevezed etikátlannak, de minimum a felhasználónak rossznak: azt, hogy nem veszi környezeti tényezőnek az architekúrán kívül/felül álló dolgokat, hanem az architektúrától a fejlesztőkig gondoskodik a piaci sikerhez szükséges tényezők számára kedvező alakulásáról.
Az csak látszólagos, hogy az nvidia egy kiváló architektúrával, egy csodálatos mérnöki produktummal beült a jóba, valójában mindezt a vertikális munkát az nvidia is (el)végezte.Csak épp most annak vagyunk szemtanúi, hogy az AMD változtatja meg az nvidia megszokott hazai terepét. Legalábbis nála van a kezdeményezés. Aztán hogy siker lesz-e belőle, a kérdéses. Nyilván az nvidia sem ül karbatett kézzel.
Téged, mint felhaszálót miért érdekel az, h univerzális v szabványos? V hogy külön kell optimalizálni?
Ha jól tudom, az nvidia üzletpolitikája is azt preferálta, ha mindig megvetted az újat, a drágát. Etikusság tekintetében ez nem változott .Találgatunk, aztán majd úgyis kiderül..
-
titán
válasz Petykemano #24165 üzenetére
Te jó ég, most olvasom, hogy etika témában futjuk a köröket. Basszus, ez nem családi körben játszott csapd le csacsi a gyerekekkel.
[ Szerkesztve ]
evDirect villanyautós töltőhálózat
-
HSM
félisten
válasz Petykemano #24165 üzenetére
"az archtektúrájukat hozzáigazították ezen apik működéséhez"
Pont ez az,a mi példátlan, és a játékos társadalomnak szvsz nagyon rossz. Ilyenre nem is tudom mióta nem volt példa, hogy az architektúra kövesse az API-t és ne fordítva, az architektúrák fejlődését az API. -
TTomax
nagyúr
válasz Petykemano #24165 üzenetére
Az a baj,hogy az amdnél nem nagyon van semmi,ha lenne akkor kinn lenne a 1080 ellen.Az hogy készül,az világos.Sokan örvendeztek anno,hogy az amd megnyerte a konzolokat,csak sajnos a pénzügyi jelentésen ez már nem annyira látszik.Az a baj,hogy a DX12 is inább arra van használva,hogy a hanyag pc portot méghamarabb kitolhassák kevesebb pénzböl,ez sem igazán tesz jót az amdnek,a mi pénztárcánknak meg föleg nem...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
#Morcosmedve
veterán
válasz Petykemano #24165 üzenetére
Maradjunk annyiban, hogy egyik kutya, másik eb:
De az is biztos, hogy 100k felett nincs a boltokban AMD alternatíva, Low Lewel API és ABU ide vagy oda.
© asszongya'hogy
-
Petykemano
veterán
Nem ástam el magam az apik történetében, csak feltételezem, hogy magától (csak szoftveres irányból) nem nagyon születik semmi. Feltételezem, hogy az apiban egy feature akkor és úgy jelenik meg, ha legalább egy hardvergyártó támogatja, akarja és kellően képes befolyásolni az api fejlődését ahhoz, hogy tényleg bele is kerüljön.
Ha tehát abból indulunk ki, hogy ha a hardvergyártók nem akarják, úgy nem újhodik meg az api, akkor a meg nem újhodó apihoz racionális igazítani az architektúrát.
A status quo akkor borul, ha egy hardvergyártó új képességet tesz a hardverébe, amit idővel az api támogatni kezd, mert attól jobb lesz. (Legalább annak az egy hardvergyártónak)
Azt mint látod, sokan vitatják, hogy jobb lett-e így, mintha minden hardvergyártó méginkább a meglevő API-hoz igazította volna az architektúráját (most tekintsünk el attól, hogy az AMD-nek más tervei és lehetőségei voltak)
(#24168) TTomax
Nincs kint, és biztos nem örülnek ennek ők se. Feltétlezem, hogy erőforrás hiányában.
Úgy tűnik, hogy a konzol biznissz nem anniyira mint kiemelkedő bevételi forrás számított az AMD életében, hanem mint hullám, aminek farvizén evezhetnek. A közvetlen pénzügyi hatáson túl teljesen nyilvánvalóan látszik, hogy a hardverfejlesztéseiket hozzáigazították a konzolokhoz. Akkor lett Polaris, amikor jött a PS4Pro. És olyan is. És akkor lesz Vega, amikor jön a XB Scorpio. Ezt biztosan nem kiszúrásból csinálják, hanem költséget igyekeznek minimalizálni. Nem biztos, hogy jó stratégia, mert minimális költség lehet ugyan, de közben elúsznak a lehetőségek. Lehet, hogy a P10 nem került szinte semmibe, egy külön nagyobb lapka tervezése meg soktízmillióba lett volna, de így biztosan bukták a felsőházat ebben az évben. lehet, hogy a vega nem került szinte semmibe, de ki tudja jövőre mivel kell versenyeznie? Mert lehet, hogy nem az 10X0 szériával.
Ugyanakkor - még mindig az AMD szemszögéből vizsgálva az eseményeket - az is igaz, hogy az idő nekik dolgozik: csak meg kell várniuk, amíg beérik a szoftveres oldal (Dx12, Async C, Shader intrinsics, meg az új mantra a Shader Model 6). és közben nulla hardveres befektetéssel képesek versenyképesek (20%) maradni. Jobb lenne, ha küszködnének ilyen Furyszerű szörnyekkel, amiket aztán ezért-azért-amazért mégse venne senki? Lehet, hogy kiszámolták, hogy nem. Mindeközben fel-felbukkannak olyan címek, ahol a Fury X kitesz magáért.Abban igazad lehet, hogy DX12 olcsóbbá tette a portolást. Azt nem tudom megítélni, hogy ha nem lenne DX12, akkor mi lenne. Drágábbak lennének a portolt játékok? Vagy később készülnének el? Vagy el sem készülnének? Vagy csak kevesebb pénz maradna a kiadónál?
Annyi előnye mindenesetre van talán, hogy az egyszálas teljesítményben gyengébb többmagos processzorokon jobb lett.
(#24169) #Morcosmedve
Én nem mondtam, hogy az AMD húsz lenne.
Az, hogy nincs 100k feletti AMD alternatíva mit bizonyít, vagy mire utal?Találgatunk, aztán majd úgyis kiderül..
-
gyiku
nagyúr
-
VTom
veterán
válasz Petykemano #24170 üzenetére
Szerintem az AMD most mindent egy lapra tett fel, azzal, hogy a konzol architektúrához hasonlóra tervezi a kártyáit, arra számít, hogy a dx12-re írt portok jobban fognak teljesíteni az akkor már régebbi, olcsóbb kártyáikon. Ezért nem indítanak a csúcskategóriában semmit. A dx12-re írt játékokban a régebbi szériás AMD kártyák is arányaiban többet gyorsulnak, mint NV-n.
Az már más kérdés, hogy ettől még mindenki Pascalt vesz, mert összességében még így is gyorsabbak.
Én bízom abban, hogy mindkét dolog bejöjjön nekik, mert levermé a vga árakat is, és jobb minőségű PC-s portok is jönnének.Everybody has a plan until they get punched in the mouth.
-
HSM
félisten
válasz Petykemano #24170 üzenetére
Ez eddig is így volt, hol az egyik, hol a másik gyártó jött elő fejlesztésekkel. De egyértelműen látszott, hogy fejlődik a hardver, és követik az API-k. Volt is, hol az egyik, hol a másik volt előrébb tudásban. Ami hirterlen beugrik, az a DX9-ben, ahol pl egy generációnyi AMD-ből hiányzott az új shader modell (X1000-ek ha jól rémlik), aztán az DX10-nél az Nv-kből hiányzott a DX10.1, aztán DX11-re helyrejöttek a tudásszintek (5000-es széria+Fermi), majd az AMD ismét fejlesztett hardveresen 2012-ben a GCN-el (főleg Tahiti), viszont az Nv egy egészen más irányba indult a Keplerrel (energiatakarékos működés), na és innetől akadt el a téma, és ragadt be a DX11 évekre. És ez egyértelműen keresztülhúzta az AMD számításait, akár procik, akár VGA-k terén. Az FX procik a relatív gyenge egyszálú sebesség miatt szívtak, a GCN Radeonok meg a DX11-hez feleslegesen bonyolult architektúra miatti pluszfogyasztástól, és emellett kihasználatlanul hagyott teljesítménytől.
-
HSM
félisten
válasz tailor74 #24174 üzenetére
Én azért ezt máshogy látom.
Javaslom ezt az oldalt: [link]
Az elsőgenerációs, 2012 januárjában bemutatott 7970 konkrétan 24%-ot gyorsult Vulcan alatt FHD-n Doom-ban 2016-ban, és konkrétan elveri az elsőgenerációs Titan-t is, és minimális lemaradásból követi a 970-est.... Elég vad, szvsz... Ha csak 2-3 évvel ezelőtt lett volna lehetőség így kihasználni a tudásukat, máris máshogy festettek volna a perf/watt számok.Az RX sorozatnál azért nem szabad elfelejteni, hogy a memórialapkák is gyorsabbak, modernebbek (hol volt 2Ghz-es GDDR5 2012-ben?) valamint a GPU is 14nm-en készül, nem a frissen bevezetett 28nm-en... Szóval az nem meglepő, hogy a 3 generációval újabb, fele csíkszélességen készülő RX sorozat jobb, mint amit 2012-ben hoztak... Ugyanakkor ha megnézed pl. a 290-eket, ott loholnak a 480-ak nyakán, pedig az se fiatal már a maga 2013 októberi startjával.
-
HSM
félisten
válasz schawo #24176 üzenetére
Igen, kiszámolva picit több. Viszont még a 280X is ott van, az 81FPS Vulcan-ban, ami már tényleg a nyakán van a 970 OGL alatti 92FPS-ének, 13,5% csak a difi. És praktikusan az is egy 7970, csak egy picivel magasabb órajelen gyárilag. Azért nem mindegy, hogy a GTX970 környékén van a teljesítményed, vagy a praktikusan felezett Nv variáns, a GTX960 szintjén, amihez inkább szokás volt hasonlítani DX11 alatt a 280X-et...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Ez nem ilyen egyszerű. És ez alapvetően félre van értve.
A GCN azért tud jól alkalmazkodni ezekhez az explicit API-khoz, mert van a multiprocesszorokon belül egy elég sokat tudó skalár egység. Ilyen nem nagyon szokott lenni a GPU-ban. A CPU-kban alap, de a GPU-kban inkább úgynevezett branch egység van, ami nem tud annyit, mint a GCN-nek a skalár egysége. A legfőbb különbség a konstans puffer és a erőforrásleíró hardver között van. Az AMD nem fixfunkciósat használ ezekből, hanem programozhatót. Ez lehetővé teszi, hogy bármelyik API-hoz tökéletesen alkalmazkodjon az architektúra, és teljesen mindegy, hogy az adott API milyen bekötési modellt ír elő. Egyszerűen azt a modellt leprogramozzák a meghajtóban, és az erőforrásokról az aktuális képet a memóriában tárolhatják. Ezért van az is, hogy az AMD a Mantle, a DirectX 12 és a Vulkan API-ra is ugyanazt a PAL réteget használja a meghajtóban, mert egyszerűen a felszín alatt mindegyik API-t pontosan ugyanúgy kezelik. Erre a PAL rétegre pedig fel van húzva egy ICD réteg, ami az adott API specifikus jellemzői szerint dolgozik. A modell előnye, hogy bármit is optimalizálnak a PAL rétegen belül az mindhárom API-ra pozitív hatással van, és nem mellesleg három helyett csak egy meghajtót írnak, vagyis az x mennyiségű humán- és pénzbeli erőforrást háromszor hatékonyabban költik el. És ennek az egésznek az a skalár egység az alapja a multiprocesszoron belül. De akkor most már járjuk végig ezt, és az a skalár egység azért jóval robusztusabb, mint egy szimpla branch egység, amit a konkurensek használnak. Ez magával hozza azt, hogy romlik az energiahatékonyság, mert egy fixfunkciós motor egy kialakított feladatra hatékonyabb, mint egy programozható rendszer. Ezt talán nem kell magyarázni, hogy miért. Ezért is van az, hogy a GCN energiahatékonysága rosszabb, mint a többi architektúra energiahatékonysága. Persze itt most kössük generációkat, tehát ne jöjjön senki azzal, hogy a GCN4 jobb, mint a Kepler/Maxwell.
Az AMD konstrukciója annyi volt, amikor megtervezték a GCN-t, hogy kiszámíthatatlan lesz az API-k fejlődése, amiben valljuk be, hogy nagyon igazuk volt, hiszen jelenleg két új szabványos API van, és mindkettő más bekötési modellt követel. Ha megtartják a klasszikus értelemben vett branch egységet, akkor vagy az egyikben lettek volna jók, vagy a másikban, vagy leginkább egyikben sem. A programozható skalár egységgel viszont nincsenek a hardvernek direkt limitációi, úgy fog működni, ahogy azt a meghajtóban leprogramozzák. Jöhet egy harmadik vagy negyedik API is, arra is rá lehet illeszteni a GCN-t, egyszerűen csak kódolás kérdése az egész.
Az NV és az Intel ma különböző képességű branch egységgel dolgozik. Az Intel azért érdekes (erre kitérhetünk), mert ők brute force megoldással próbálnak az API-k után menni. Egyszerűen nem léptek át a skalár egységre, hanem csúnya szóval hardveresen emuláltak egy memóriaalapú architektúrát. A Gen9 valójában nem az, de a programozó felé pontosan úgy viselkedik. Ezt úgy érték el, hogy a korábbi 255 bejegyzéses erőforrás-kezelésüket leváltották több, kétmillió bejegyzéses megoldásra. Ez ilyen furcsa öszvér megoldás. Nem tudják programozni, de a DX12 bekötési modelljét maradéktalanul kielégíti a legmagasabb szinten. Viszont zabálja a tranyót, mert nyilván azt a több szintre lebontott, szintenként kétmillió bejegyzést tárolni kell. De itt is trükköznek, mert nem tárolják az összes szintet, hanem csak mindig egyet, és a többi szintet lementik a memóriába. Ezeket a szinteket cserélgeti a hardver ezért mondható emulált memóriaalapú architektúrának (persze, ha valójában nincs annyi bejegyzés, akkor mind befér a lapkán belülre is). Ennek nyilván az az előnye, hogy amit most a DX12 megkövetel formátum és erőforrás-kezelés gyanánt, azt a Gen9 megoldja, de ha a Microsoft mondjuk úgy dönt, hogy bevezet egy új puffert vagy formátumot, akkor nem tudnak utánamenni, míg az AMD-nek egy ilyen újítás támogatása csak egy meghajtófrissítésbe kerül.
Az NVIDIA branch egysége sokkal inkább klasszikus, tehát nem AMD-féle programozható rendszerről van szó, vagy nem Intel-féle öszvér modellről, hanem a klasszikus konstans puffer és erőforrásleíró hardver köszön benne vissza, abszolút fix limitációkkal, különállóan minden egyes pufferre és formátumra. A fenti két megoldáshoz képest ez a leghatékonyabb, ha a fogyasztásról van szó, de messze ez a legbutább, ha a működésről. Ezért van az NV-nek a DX12-vel az a problémája, hogy nem tudják támogatni a legmagasabb bekötési szintet, miközben az AMD és az Intel tudja, illetve pusztán ez a klasszikus modell vezetett oda is, hogy a Microsoftnak Root Signature ajánlásai sem jók az NV-nek. A klasszikus modell miatt a GeForce-ok alkalmaznak úgynevezett fast pathokat. Ezek a DX11-ből maradtak meg, mert ez az API sokkal limitáltabb volt az erőforrások bekötése szempontjából. Egyszerűen voltak tipikus feladatok, és arra vonatkozóan tipikusan tudni lehetett, hogy a fejlesztő milyen puffert és milyen formátumot fog használni. Ennek az oka, hogy a DX11-es modellben általában egy tipikusan jól működő megoldás volt az egyes problémákra és kész, minek kell több ugye? Az NV ezekre a tipikus megoldásokra csúnyán mondva gyorsabb feldolgozást épített be a hardverbe, így az javított a teljesítményen. Na most a DX12-ben a Microsoft ott rontotta el ezt a játékát az NV-nek, hogy lényegesen nagyobb szabadságot adott a fejlesztőknek a erőforrás-kezelés szempontjából, és ennek az alapja az, hogy a Root Signature-be csak pointereket ajánlott helyezni, amelyek leírótáblákra, root konstansokra és puffer pointerekre mutatnak. Ugyanakkor a Root Signature végeredményben elfogadja, ha direkt puffereket is rak bele a fejlesztő, de akkor ezek a pufferek különféle limitációkat kénytelenek elszenvedni, például nem támogatják az össze formátumot, illetve teljesítményvesztés is lehet a vége. Az NV azért megy szembe a Microsoft ajánlásaival, és biztatják a fejlesztőket, hogy rakjanak puffereket is a Root Signature-be, mert azzal néhány formátum erejéig elérik a hardverbe épített fast pathokat, de ha a fejlesztők a Microsoft ajánlásait követik, akkor ezek a fast pathok kihasználhatatlanok lesznek. A legtöbb DX11-DX12 váltásnál az NV hardverek sebessége ezért csökken, egyszerűen elvesztik a hardverbe épített fast pathok használatának lehetőségét. Az NV-nek a DX12-ben ez a legrémisztőbb, hogy minél inkább használják ki az API-t a programok, annál több fast pathot buknak el a hardverben. Ma még ez nem annyira kedvezőtlen (bár BF1-ben azért már erősebben látszik), de ha a programok átváltanak bindlessre, akkor minden fast path odalesz, és az ezzel nyert 20-25%-os extra teljesítmény is.A másik dolog a hsz-edből az API-k fejlődése. Na most az nem igazán baj, ha az API diktálja a tempót. Azért lássuk be sok területen nagyon le van maradva a rendszer az aktuális hardverdizájnoktól. Tehát mindenképpen egy nagy lépést kell tenni ebben az ügyben. Részben ezt meg is tették az érintettek. És végre figyelnek a shader nyelvre is. Mikor is volt utoljára nagy váltás? Kb. 10 éve a shader model 4.0-val. Azóta átment alattunk pár architektúra, és az újak nagyon nem úgy működnek, mint 10 éve. És persze óriásit lépünk majd előre, ami látva például a cross lane operációkat még a GCN-en belül is le fogja szakítani a GCN1/2 hardvereket a GCN3/4-től, de ez a lépés fontos a fejlődésben. Ezt le fogják követni a hardverek, mert a konzolon már ma használják a programozók az újításokat. És nem azért használják, mert mazochista mind, hanem azért, mert olyan újítások, amelyek nélkül nem igazán jó élni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Tény, hogy én közelse tudtam volna ilyen szépen levezetni (reszpekt érte, igen hasznos összefoglaló olvasmány lett ), de alapvetően azt írtad le, amit én is összefoglaltam abban a két sorban.
Ahogy írod: " Egyszerűen voltak tipikus feladatok, és arra vonatkozóan tipikusan tudni lehetett, hogy a fejlesztő milyen puffert és milyen formátumot fog használni", pont ez a lényeg, hogy az Nv ezekre gyúrta ki a maga architektúráit, illetve a gyors elérésekkel rengeteget tudtak nyerni fogyasztásban és DX11 alatti hatékonyságban, de ennek éppen ez volt az ára, hogy rugalmatlanabb a rendszer.Igen, az jó, ha az API diktálja a tempót, egészen addig, míg az API diktálja azt, és nincs beláthatatlan hátrányban a hardverekkel szemben, mint a DX11 már elég régóta....
Nem az a baj, ha a már több, mint 3 éves GCN-ek nem fognak úgy hasítani, mint az újabbak, hanem ha kihasználatlanul maradnak a képességek, amiket generációról generációra beépítenek az újabb és újabb GCN verziókba.[ Szerkesztve ]
-
Ren Hoek
veterán
"ha kihasználatlanul maradnak a képességek, amiket generációról generációra beépítenek az újabb és újabb GCN verziókba."
Ez megint a sales tervezés problémája. Olyan dolgokat építenek bele, ami a jósolt jövő szerint elkélhet... talán... de vége az, hogy fejlesztői réteg nem használta. Magyarul nincs igény rá az adott termékciklusban. Egy CEO-val beszéltem legutóbb, ő pont ezt mondta. A szuperjó ötletüket elkezdték szakmai/mérnök szemmel piacra dobni, és majdnem csődbe ment a spinoff cégük, mert olyan terméket csináltak aminek egy sor képességére nem volt szükség. Rengeteg fejlesztésre felvett hitel elfolyott, és majdnem vége volt a dalnak. Az mentette meg őket, hogy lecserélték az eladási részleget mérnökökről valódi üzletkötőkre és piackutatókra..., felmérték a piacot és most már önerőből van pénzük az újabb generáció kifejlesztésére. Néha ez kell, ki kell venni a mérnökök kezéből a döntést. (Raja?)
Az NV ezt tökéletesen jól csinálta, csak annyit tett bele a termékeibe amennyire szükség lehet, azt viszont profin tálalva. Eddig a felhasználókat semmiféle kár nem érte emiatt, mert gyors VGA-t kaptak, hűvöset és teljes arzenált 100K HUF felett. Az AMD stratégiájával jelenleg az a baj, hogy önmagába harapó kutya. Nincs új kártyájuk, és nincs elég market share-jük sem, hogy rátudják venni gyorsan a piacot a váltásra. A fejlesztőket meggyőzni még csak-csak meglehet, de a usereket is meg kell, hogy DX12-re csak AMD-t szabad venni és ez a "jövő". Amíg csak egy 480-t tudnak felmutatni, addig esélytelen... (DX12-ben nem egy hűde nagy szám az sem, hiába az ultramodern technológiáknak. Megnéztem pár DX12 tesztet, kb úgy skálázódik amennyi az ára, és amennyit a buta 390/390X tud az SP-k alapján - ennyi erővel a Hawaii-t rányomják 14 nm-re 8 GB-al, már lenne kint egy erős kártya)
[ Szerkesztve ]
-
őstag
válasz Ren Hoek #24183 üzenetére
Ugyanezt írtam a 24174 hsz-ban, csak egyszerűbben.
A feltételezhető jövő eljövetelehez kellett 3-4 év, és addigra önmaguktól találtak/kidolgoztak jobb megoldásokat.Ellenben a feleslegesen bonyolult ès kihasználatlan erőforrásaikból származó többletfogyasztás és melegedés miatt évekig kapták az ívet a felhasználók egy részétől.
Aminek kerekei, vagy mellei vannak, azzal előbb-utóbb gond lesz.
-
HSM
félisten
válasz Ren Hoek #24183 üzenetére
Igen, cak ez nagyon nem ennyire egyszerű. Itt több év egy termék fejlesztési ciklusa, és nehezen jósolható a jövő alakulása. Az AMD szépen fejlesztett, szvsz jogosan feltételezve, hogy a technika nem hátrafelé indul el... Aztán elindult mégis hátrafele. Itt szvsz nem mérnöki/sales vonalon kell keresni az okokat, hanem ott, hogy vajon miért késett ennyit egy modernebb API. No, meg meggondolni, ezzel ki járt jól, és ki rosszul.
"Eddig a felhasználókat semmiféle kár nem érte emiatt"
Egészen biztos vagy te ebben? Szerintem önmagában a zöld/kék monopólium, amihez erősen hozzásegített a beragadt DX11 már jelentős károkat okozott a felhasználóknak. Persze, ezt most annyira nem érezzük, mert szépen lassan lett adagolva minden, megszoktuk... De gondold csak végig.... -
TTomax
nagyúr
Tul sok a konspiráció,a dolgok ennél sokkal egyszerübbek.Nem a ködös jövönek kell fejleszteni,ami lehet el se jön.Még piacvezetöként is bukta,papoljuk már pár éve...
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
HSM
félisten
válasz TTomax #24186 üzenetére
Ha engem kérdezel, az FX esetén felesleges volt kockázatni, előre látható volt szvsz, hogy az egyszálú sebességre még évekig szükség lesz, és nem éri meg feláldozni még a párhuzamos sebességért. Ebben igazat adok neked. Ettől függetlenül egy jobban skálázódó grafikus API-val egy jelentős területen lehetett volna versenyképesebb, mint olcsó, de jó gaming CPU. Többszálú sebességben ugyanis a mai napig szépen megállja a helyét a sok-sok éves 8 magos FX.
Ami a GPU-t illeti, ott pedig szerintem abszolút nem volt várható, hogy ennyire befagyjon a DX11. Ezt épeszű ember nem láthatta előre.
-
Raggie
őstag
Szinte teljesen OFF, de azért bedobom ide, ha már ilyen filozofikus, etikus a téma.
Ez jól leírja a két cég fejlesztési stratégiáit.
"The electric lignt was not invented by constantly perfecting the candle!"egészen addig tök hülyeségnek tűnik mindenféle vékony drótokat meg üveg körtéket venni és ezekkel kísérletezni amíg mindenki csak a gyertyákat ismeri. De ha egyszer elkészül az izzó. Nos akkor lehet látni mi világít jobban...
[ Szerkesztve ]
Clint Eastwood FTW
-
veterán
Az Intelnél a Pentium 4 idejében rájöttek, hogy az IPC -t semmiért sem szabad beáldozni, dobták is architektúrát teljesen...
Nvidiánál az első Ferminél már rájöttek, hogy a fogyasztás fogja limitálni a jövőben a teljesítményt, és a Keplernél már arra gyúrtak...
Az AMD meg mit csinált mindeközben?
[ Szerkesztve ]
-
HSM
félisten
Na várjunk csak! A Fermi esetében egyértelműen akkor "túl volt tervezve" az a csip 2010-ben az akkori API-khoz és gyártástechnológiához képest. De az egyáltalán nem volt normális, hogy még utána 2 évvel se fejlődjön semmi semmit API téren, sőt, még utána 5 évvel is alig-alig....
-
namaste
tag
Ez nem ilyen egyszerű. És ez alapvetően félre van értve.
A GCN azért tud jól alkalmazkodni ezekhez az explicit API-khoz, mert ...
... mert gyorsabb (FLOPS) mint a kategóriatárs NV kártya. DX11 alatt az ALU-kat nem tudja kihasználni, egy részük üresen jár.
Mindig kiválasztasz egy dolgot, amivel megmagyarázod miért jobb a GCN, pl. most éppen a skalár egység.
GCN feltételes elágazás: jó, működik, sokoldalú, de van valami előnye a hardveres vezérléssel szemben? Az elágazás vezérléséhez több utasítás kell: elmenteni a maszkot, beírni a kontroll regiszterbe az új maszkot, ugyanezt megcsinálni a másik ágra, majd visszaírni az eredeti maszkot. Ezek mind külön-külön utasítás, egy skalár utasítás végrehajtásához 4 órajel kell.
Az NV ajánlásai megsértik a DX12 előírásait?
Amikor az MS ajánlásokat tesz az RS használatára, akkor figyelembe veszi az Xbox GCN GPU-ját, azaz a saját hardverét.Az NV milyen formátumot nem támogat a Root Signature-ben?
-
veterán
Nem volt túltervezve a Fermi, csak egyszerre akartak jó teljesítményt általános számításokban és grafikában is. Csak a teljesítményre koncentráltak és nem figyeltek a hatékonyságra.
Az AMD akkori csak grafikára kihegyezett GPUi ellen ez hosszú távon nem volt versenyképes, ezt akkor ott az NV-nál felismerték és változtattak, ebből lett a Kepler, miközben az AMD meg nekiállt a "Fermi 2" -nek konkurenciát tervezni, ebből lett a GCN, mert nem ismerték fel az AMD-nél, hogy pont a jó úton jártak addig...
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz namaste #24195 üzenetére
Semmi köze a számítási teljesítménynek ehhez, hiszen a DX11 ugyanazokat a shadereket használja, amiket a DX12. Ahol ez számítani fog az.a Shader model 6.0, és az ebben érkező DXIL
A skalár egység nem lenne lényeges, ha a Microsoft nem erre építette volna fel a DX12 bekötésig modelljét. De mivel ez az API már támogatja azt, ha egy erőforrás direkten a multiprocesszorba kerül bekötésre, így az előny annyi, hogy semmilyen bekötés nem jár processzorterheléssel. Ezért ment el az Intel is öszvér megoldás felé, mert számít az, hogy a processzoridő 15-20% ezáltal felszabadul.
A Microsoft nem írja elő, hogy miképp kell használni az RS-t. A fejlesztőknek ajánlásokat tesznek elsősorban a fejlesztők érdekében.
Félreérted, az NV támogat mindent, ami kell a base funkcionalitáshoz. Az RS-nek magának vannak limitációi, ha egy buffer view direkten van kapcsolva, vagy egy leíróra mutató pointeren keresztül. Ez teljesen hardverfüggetlen, magában az API-ban van limitálva.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Szerintem éppen, hogy a jó úton az AMD járt... A kornak megfelelő hardvert hoztak, amikor már kiöregedni látszott a DX11, akkor hozták az új architektúrát folytatásnak. Logikus lett volna, hogy mivel kijött egy lényegesen fejlettebb architektúra, hamarosan követni fogják az API-k, de sajnos nem így történt.
Az Nv iránya szerintem éppen, hogy nem volt jó út a mi szempontunkból. Nem a DX11-et kellett volna bebetonozni az arra kigyúrt architektúrákkal, hanem nekik is haladni a korral és fejlődni, nem csak egyhelyben gyorsulni. Fórumtárs szavaival élve, ők a gyertyát polírozták a tökéletességig, míg az AMD a lámpát próbált készíteni....
-
Ren Hoek
veterán
És mit tett le az AMD az új API terjedése érdekében? Miért nem ontotta magából a működő fullos Mantle -> DX12 demokat, bencheket, játszható sceneket stb, ami el se indul kb NV hardveren...
Kb csak egy gagyi bughalmaz BF patch jött annak idején... aztán nagynehezen megszülték a 2009-es játékok által is megalázott Asses of Fingularity-t. Nem jelezték előre, hogy nem is olyan könnyű összehozni egy új API-s játékot 2015-re kb... ? Persze az NV meg a piac, meg a userek hibája, hogy nem terjedt az új API... aki nem szopta be a meséket, az mind jól tudta, hogy nem lesz egyszerű a váltás és maradunk még sokáig a biztonságos DX11-en.
Most 2017 lesz hamarosan, és még mindig nagyon kevés a meggyőző eredmény, hiába akar a PH átállni tesztcsomaggal. A jóslatoknál is rosszabb a felhozatal.
Még mindig nincs olyan álleejtős techdemo amire azt mondom frankó. (NV (lol) hozta azt a szexi DX12 boszorkányt tavaly )
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- - MAKULÁTLAN - ASUS ZENBOOK PRO 16X 4K OLED - i9-12900H, RTX 3060, 32GB, 1TB, Win11PRO, 3 ÉV GARI
- ÚJ ASUS ROG ZEPHYRUS G16 - 16" WQXGA 240Hz - i9-13900H - 16GB - 1TB - RTX 4050 - Win10 - Garancia
- Dell Latitude 7490,14",FHD,i5-8350U,16GB DDR4,256GB SSD,WIN10,TOUCH
- HP EliteBook 645 G10 (817M3EA) - ÚJ 14" üzleti notebook - Ryzen 5 PRO, W11 pro, WWAN
- 3 db ICERIVER KAS KS0 PRO
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs