- Android alkalmazások - szoftver kibeszélő topik
- Samsung Galaxy S24 - nos, Exynos
- Ezek a OnePlus 12 és 12R európai árai
- Telekom mobilszolgáltatások
- Samsung Galaxy A70 - áram, erősség
- Apple Watch Sport - ez is csak egy okosóra
- Samsung Galaxy S21 Ultra - vákuumcsomagolás
- iPhone topik
- Garmin Forerunner 165 - alapozó edzés
- Redmi Note 12 Pro - nem tolták túl
Hirdetés
-
A Video AI lehet a One UI 6.1.1 ütőkártyája
ma Vagy hogy fogja a mesterséges intelligencia manipulálni a mozgóképeket?
-
Lenovo Essential Wireless Combo
lo Lehet-e egy billentyűzet karcsú, elegáns és különleges? A Lenovo bebizonyította, hogy igen, de bosszantó is :)
-
SMITE 2 - Napokon belül indul a zárt alfa teszt
gp Több mint egy tucat karaktert próbálhatnak ki a szerencsésebbek, a teljes listát a május első napján esedékes streamben árulják el.
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz Petykemano #7810 üzenetére
A 14 nm-es váltás nem jelenti azt, hogy a lapka magasabb órajelre kapcsolható, illetve alacsonyabb lesz a fogyasztása. A konzolok tervezésénél nem tipikus igények játszanak főszerepet. Itt az MS és a Sony is fix órajeleket kér, ha a program elindul. Ilyen körülmények között a váltás nem hoz majd olyan előrelépést, mint amit PC-n tapasztalhatunk majd. Nagyrészt nem a kisebb csíkszélesség miatt csökken egy lapka fogyasztása, hanem a tervezés következtében, hogy egyre jobbak legyenek a turbók stb. De ilyenek a konzolban nincsenek.
A konzoloknál a sematikus dizájnt nem szokott változni, tehát az sem kizárt, hogy fogyasztásnövekedést hozna a kisebb csíkszélességre való átállás, emellett a 28 nm-es node még mindig a legolcsóbb, tehát másra áttérni ma nem éri meg.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #7816 üzenetére
A konzoloknál olyannyira kőbe vésett a hardver képessége, hogy még az errata problémákat sem javítják, hanem az első hardverrevízió kiadásánál lezárják az egészet, és az újabb lapkák pontosan ugyanazokat a hibákat fogják tartalmazni. Ezeket természetesen dokumentálják.
A konzol mindig szoftveresen fejlődik. Új API-kkal, új SDK-kkal, az új firmware-rel, illetve ezeket összesítve a játékokkal. A fejlődést az biztosítja, hogy a hardver elérhető 8-10 évig, így megéri megismerni. Úgy fogd fel ezt, hogy ha vennél egy mai PC-t, és azon elvégeznék a fejlesztők ugyanazokat a kutatásokat, akkor egy adott program az újítások beépítésével 2-3 év alatt a 4-5x-örösére gyorsulna. De mivel a PC nem fix hardver, így nem éri meg pénz áldozni az architektúrák kifacsarására.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #7818 üzenetére
Valami szervercuccot. Nem tudom pontosan.
(#7819) Egon: A konzolok esetében az AMD64 x86 módjai szoftveresen vannak letiltva nem hardverben. Az egy érdekes jogi kérdés, hogy ez így jó-e. Elvileg a licenc a végtermékre vonatkozik, tehát jogi értelemben lehet mondani, hogy a végtermék maga a konzol mint csomag és nem a processzor. Az valóban igaz, hogy az Xbox One és a PlayStation 4 jelenleg csak teljes AMD64 kódot futtat, de például az Xbox One esetében ez szinte biztosan megváltozik a Windows 10-zel, mert az univerzális áruházból kaphat majd más módban futó kódot.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #8059 üzenetére
Nem, a DX12 lényege pont az, hogy a parancspufferek kreálása független, és akárhány szálra leosztható. Ez persze a motortól is függ, de a Nitrous ezzel a modellel 36 szálig lineárisan skálázódik, ami biztató ezekre az új API-kra nézve.
Ami itt a kérdés, hogy mivel lehet jobb eredményt elérni, mert lehet építeni négymagos CPU-t IGP-vel és nyolcmagos CPU-t IGP nélkül. A jelenlegi gyakorlati tesztekben azt látni, hogy az IGP elérhetősége többet ér, mint a kétszer több processzormag. Nem véletlen, hogy az IGP teljesítménye nő az új lapkáknál, míg a processzormagok teljesítménye inkább stagnál. Ez látható a Broadwell-K-n, a Godavarin és a Skylake-en is látható lesz. Lehet, hogy ezt még nem érti egy játékos, de a gyártók már látják, hogy a végső teljesítményt inkább az IGP határozza majd meg.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #8064 üzenetére
Az AMD a Zen CPU-it nem a játékosoknak csinálja. Megveheted játékra is, de ugyanabba a tokozásba lesznek APU-k, amelyek jobban kiszolgálják majd a játékosok igényeit.
A CPU erő az aktuális játékdizájnoknak nem kell. A limitek teljes egészében szoftveresek. Valójában egy totál belépő processzor minden játékra teljesen elég lenne, mert a szimuláció évek óta nem fejlődik. Az ipar nem az előrelépést tartotta szem előtt, hanem azt, hogy ugyanazt a szimulációs minőséget hozzák ki kevesebb processzoridőből. Szükség lesz majd úgy hozzávetőleg 2 évre, hogy az ipar a DX11 miatt leállított fejlesztéseket ténylegesen újrakezdje és befejezze. Ez tényleg magával hozza majd a modernebb AI-t, és egyéb szimulációkat, amit most a játékosok hiányolnak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Yllgrim
őstag
válasz Petykemano #8102 üzenetére
Nem igen hiszem az emberek tobbsege azert jar ide mert jo kis AMD-s cikkeket olvashat Nezzel szet a forum topikjai kozott, ebbol AMD-nek jut kb 15-20 altopik azt ennyi, van tobb 100 mas.
Peace is a lie, there is only passion. Through passion, I gain strength. Through strength, I gain power. Through power, I gain victory. Through victory, my chains are broken. The Force shall free me.
-
Milka 78
nagyúr
válasz Petykemano #8173 üzenetére
Ezért mondtam a 3570k-t.Egy két kivételt leszámítva,játékok alatt még magasabb órajelen sem tudja elcsípni az elavult 4 magosomat,lehagyni meg főleg.
-
korcsi
veterán
válasz Petykemano #8205 üzenetére
Ha GCN vs Maxwell statisztikával számolunk akkor az új generációs konzolokat is bele kellene ebbe számolni amennyiben nem PC exkluzív játékról van szó, nem. Ebben az esetben hogy állnak az arányok? És konzolra mindenképp erősen optimalizálni kell mert elég lájtos a vas benne.
referencia 5700(XT) plexi ARGB-s blokk eladó!
-
Venyera7
senior tag
válasz Petykemano #8205 üzenetére
Pont GCN a piac hiszen a konzolok erre epulnek!Valoszinuleg lesz@rjak majd a maxwellt, mint ahogy most is teszik pc-vel,az utobbi idoben megjelent portokbol kiindulva!Ez akkor lesz maskepp, ha az Nvidia ad egy valag penzt a fejlesztoknek,hogy legyenek mar szivesek normalisan portolni az adott jatekot!
[ Szerkesztve ]
-
Ren Hoek
veterán
válasz Petykemano #8238 üzenetére
Igazából mikor is volt utoljára csíkszélváltás? 2011-ben... 2016-ban lesz a 14/16 nm... Tehát onnantól kezdve radikális változások lesznek + a HBM1-2 is terjed főleg 8< GB memóval hatalmas sávszéllel, ami ugyancsak szemléletbeli váltást hoz. A 2016-os generációt nem is lesz szerintem érdemes hasonlítgatni a régi kártyákkal, mert más szintet fognak képviselni fogyasztásban és teljesítményben is. Bizony lesz is igény dVGA-kra, mert jön a VR és a 4K, amit jelenleg egyik kártya sem képes kihajtani 60p-vel stabilan.
Ilyen alapon teljesen értelmetlen a mostani kártyák jövőállóságát, vagy értéktartósságát firtatni, mert könnyen lehet a zacskó csipsz kategória bármelyikből. Ha elterjed a HBM2, akkor a Hawaii sávszél is kevés lesz... Főleg ha bejön alsóbb kategóriába is egy olyan ütőképes lineup, AMD-től és NV-től is, ami fogyasztásban és sávszélben megeszi a mostani kártyákat...ugyan azon az áron. Ki fog akkor már a 400 Wattot megevő 390X kazánról beszélni, hogy de jobban viszi a játékot mint a buta Maxwell
Ez persze az aktuális régi 290X tulajoknak jó, de mindenki más megveszi a 14/16 nanós újakat inkább.
[ Szerkesztve ]
-
jedis
senior tag
válasz Petykemano #8238 üzenetére
Hát jahh teljesen egyetértek !
Én mondjuk felrobbannék a dühtől, ha pl. megvennék egy méregdrága kártyát, és a konkurencia rá pár hónapra kihozna 2/3-ad áron egy hasonló teljesítményűt ( GTX Titan vs 290X ) . Ezt még meg is lehetne magyarázni, hiszen a "konkurencia". De azt, mikor az új csúcskártya kiadása után pár hónappal kihozzák a "kis tesót" majd fele annyiért úgy, hogy közben a "nagy tesó" teljesítményének szinte 100%-át hozza ( Titan X vs 980TI ), no akkor már elszállna az agyam. NEKEM ! A régebbi generációk "támogatásáról" már nem is beszélek, mintha csak Maxwell volna a világon . Sosem halottam eddig még egy NV tulajt sem a fent említett három dolog valamelyikén siránkozni. ITT! De ha véletlenül kijön a másik oldalon egy új kártya, ami picit lassabb a konkurens típustól úgy, hogy isten ments még ezen felül kicsit drágább is, no akkor uccu neki toroknak emberek !
Troll On
Figyu srác !
Ha téged nem zavar, hogy az "X"-eden pár hónap alatt buktál 150+ -ot, akkor az se zavarjon már, hogy a FuryX netán néhol 10%-al lassabb a TI-nél úgy, hogy közben netán néhol 10%-al drágább !Troll Off
Ha az autópályán haladván, egyszer csak vészjósló mennydörgést hallasz magad mögött, és hátratekintvén egy nagy feketeség közelít feléd ezerrel, ne hidd azt hogy egy viharfelhő vett üldözőbe !
-
MiklosSaS
nagyúr
-
Ren Hoek
veterán
válasz Petykemano #9226 üzenetére
IGP-s dologhoz: Annyira kicsi az IOMMU címzés támogatása, és mivel eléggé bonyolult is megírni ahogy olvastam róla... ezért ez csak egy álom marad még jóideig. Ez az AOTS jó játszótér, de kb 0 %-ban releváns, hogyha ez alapján szeretne valaki VGA-t vásárolni a közeljövőre nézve... és sajnos ez egyre jobban így lesz.
Azért a fehér holló gyakoriságú multiadapter kihasználás miatt pedig épeszű ember nem cserél le mondjuk egy jó Haskát.
Ha VGA-t szeretnél majd venni, egyre kevesebb infó áll a rendelkezésre, hogy átlagosan hogy fog menni. Játék, GPU arch, IGP és optimalizáció függő lesz minden DX12 alatt. Tesztelők rémálma lesz az tuti[ Szerkesztve ]
-
titán
válasz Petykemano #9226 üzenetére
A wishful thinking mindig talál valami kapaszkodót.
evDirect villanyautós töltőhálózat
-
nagyúr
válasz Petykemano #9385 üzenetére
Úgy tűnik, a cikk írója nem látta a tesztek eredményeit
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Yllgrim
őstag
válasz Petykemano #9805 üzenetére
Pascal ugy nez ki tolodik 2017, jovore meg mar javaban duborognek a DX12 jatekok.
Peace is a lie, there is only passion. Through passion, I gain strength. Through strength, I gain power. Through power, I gain victory. Through victory, my chains are broken. The Force shall free me.
-
tibcsi0407
félisten
válasz Petykemano #9933 üzenetére
Ha nem is játékra, de biztos van olyan szegmens, ahol ezért a pénzért tökéletesen ellátná a feladatát. A 16 GB ram nem jöhet rosszul 1-2 renderelésnél, vagy hasonló szituban.
Bár ez az ár egyáltalán nem félelmetes egy 2GPU-s kártyáért.
Játékra gondolom inkább Fury X-et érdemes venni.wjbhbdux
Ez csak jó hír, így elkerülhető a lázadás
Miután 2 hete vettem VGA-t, egy picit szíven talált a dolog.[ Szerkesztve ]
https://utdetailing.hu/
-
Televan74
nagyúr
válasz Petykemano #9933 üzenetére
Ezek mindig túlárazott termékek voltak és lesznek is.
(#9934) wjbhbdux Én csak azt nem értem,hogy az NV miért nem mondta a probléma kezdete óta,hogy nálunk van a hiba,dolgozunk rajta. Úgy néz ki mintha homokba dugnák a fejüket és várnák hogy elüljön a vihar.
[ Szerkesztve ]
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
Ren Hoek
veterán
válasz Petykemano #9979 üzenetére
Jó kis cikk (így reggel félig másnaposan )
Ha tényleg Slow Content Switch-nek hívják már, akkor mitől async? Lehet semmit se fog gyorsulni, mert összeadódnak a ms-ek.Hamarosan roskadásig lesz Hardverapro 100 ezres 980 Ti-kkel
-
nagyúr
válasz Petykemano #9979 üzenetére
Jó kis írás, érthető, és nem utolsósorban magyarázza az összes eddigi jelenséget / állítást. Ha az "üzemmódváltás" tényleg up tp 1000 ciklust igényel a Maxwellen (ez azért egy elég súlyos állítás), akkor a gyakorlatban frame-enként nem lehet több 1-2 ilyen átkapcsolásnál (sőt, ALU-limitált esetben 1-nél sem nagyon), azaz a schedulernek nagyon komolyan rendezgetnie kell a feladatokat. Ezt meg lehet csinálni egészen addig, amíg a graf és a compute feladatok nem használják össze-vissza egymás eredményeit. Ezzel meg is van a recept, hogy hogyan lehet megcsinálni a földalatti óceán AMD-s megfelelőjét
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
válasz Petykemano #9979 üzenetére
Én ha jól értem ebből a lényeget, ezt hámoztam ki.
AMD: beadhatsz 1 graphics (legyen itt draw call most) + x compute szálat (64 van kezelve egyszerre full hw-ben, az előtte és közben is a gpu osztja be a feladatot -scheduler- stb). Tehát van async. Amikor ez elkezd futni (végrehajtódni) bármikor hozzáadhatsz új feladatokat azok elkezdenek azonnal végrehajtódni párhuzamosan, ha van rá szabad erőforrás. Tehát nem kell megváni sem a draw, sem a compute végét, máris megy utána azonnal az új feladat is, vagy vele párhuzamosan is. Tehát amolyan "full szabadon etethető" async.
nVidia: beadhatsz 1 graphics (draw) + x compute szálat (32 van kezelve egyszerre hardverben, de csak részben - munkabeosztás (shedule, stb stb) az cpu/szoftver feladat). Tehát van async. Amikor ez elkezd futni (végrehajtódni), akkor viszont nem adhatsz hozzá bármikor új feladatot már, meg kell várni amíg az 1 grafikus (draw) feladat legalább végrehajtódik (+ a már eleve elindult compute is nyilván). Szóval a minimális idő a draw call futása. Utána megint hozzá lehet csapni a következő plussz feladatokat (vagy a már meglévő mögé, vagy mellé). Tehát itt a megkötés csak annyi, hogy nem kezd ez azonnal végrehajtódni az új végrehajtandó feladat párhuzamásan akármikor.
Ez számomra nem zárja ki hogy működőképes legyen a dolog, mire kell figyelni csak?
Hát arra hogy lehetőleg amíg a draw fut, addig ne akarj végrehajtani új párhuzamos feladatot. És lehetőleg a compute feladataid ne legyenek hosszabbak a draw call végrehajtásánál.Jól értem, hogy jól értem?
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
nagyúr
válasz Petykemano #10077 üzenetére
nem feltétlenül. xo fix hw, ha arra optimalizálnak, attól még skálázódni nem fog a grafika pc-n.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
Assdak
őstag
válasz Petykemano #10504 üzenetére
Részemről nem default az Nvidia, én mindig az igényeimnek megfelelő gyártótól választottam.
A jelen fetevést a környezeti változók, és a mellékelt szolgáltatás csomagok bevonásával kell vizsgálni.
Hiába jobb pár százalékkal az AMD, ha melette a fogyasztás, hűtés terén alul marad, és akkor a driveres környezetről ne is beszéljünk.
Ha ezekben a változókban mind felül tud kerekedni az NV-n, akkor nem lenne semmi probléma.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz Petykemano #10535 üzenetére
A legtöbb játékban nem volt lényeges különbség. A probléma alapja ugyanis, hogy a GPU-k a rossz optimalizálás és rossz feldolgozási stratégiák miatt tele lesznek idle buborékokkal, és ez egyaránt érinti az összes hardvert, mert a logikai felépítés hasonló. Persze az idle buborék mérete változó, de a probléma inkább program oldalon keletkezik, így végeredményben minden hardver kb. hasonló büntit kap.
Ha nagyon vissza akarjuk vezetni a problémát az alapokhoz, akkor az lehet a gond, hogy magát az adott motort nem igazán tervezték rá PC-re, vagy szimplán túl öreg. A Nitrous azért fejt ki olyan brutális terhelést, mert eleve PC-re tervezték, és a működést a modern hardverekhez igazították.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #10537 üzenetére
Igen oda lehet tolni extra számításokat, de maga a multi-engine nem arra készült, hogy alapvetően rosszul megírt motorok működésén javítson. Persze segít, de a megoldás inkább a PC-khez való optimalizálás. A legnagyobb probléma az utóbbi hónapokban kijött játékokkal az adatfeltöltés. Annyira logikátlanul vezérelt az adatfeltöltés, hogy túl sokszor kell leállítani a GPU-t. Konzolon ez nem baj, mert ott van aszinkron mód, de DX11-ben erre nincs lehetőség, DX12-ben és Vulkánban lesz. Viszont rövidtávon ez nem jó így sem. Segít ugyan az összes GCN-en és a Maxwell2-n, de a többi hardveren továbbra is gatya lesz. Inkább jó adatfeltöltési stratégia kellene, mintsem tüneti kezelés a gondokra.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Televan74
nagyúr
válasz Petykemano #10587 üzenetére
Mi ez? Valami gyerekrajz?
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
#45185024
törölt tag
válasz Petykemano #10587 üzenetére
Petykemano tetszett a grafikonod, reggeli kávé előtt megmosolyogtattál. Ejj te szétoffolod a szobát
Én is így érzem néha hogy olyan ez a csata mint a tirex meg az ember ősének harca.
Nem volt gyorsabb, nem volt nagyobb, de még csak erősebb se, csak egy dologra játszott hogy ki ne haljon.
És bejött neki állítólag[ Szerkesztve ]
-
#35434496
törölt tag
válasz Petykemano #10587 üzenetére
Elmeorvos látta már a grafikon készítőjét?
-
nagyúr
válasz Petykemano #10911 üzenetére
mondjuk az úgy nehéz, hogy nem is kapni már 295x2-t boltban.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
Szeszkazán
senior tag
válasz Petykemano #10911 üzenetére
De azt köztudomás ha lenne amd vonalon valami jobb azonnal #kazánamd
-
#85552128
törölt tag
válasz Petykemano #11060 üzenetére
Azt nézzük mikor a kész termékek kerültek a boltok polcaira (ő is azzal érvelt, hogy hova sietnek most jött ki a 980Ti) nem amikor állítólag elkészültek (tekintve, hogy HBM-re vártak így max a GPU rész lehetett kész), úgy az nV-nél már valószínűleg most is meglenne a 1.5 év... GM200 sample is volt már 2014-ben.
[ Szerkesztve ]
-
rocket
nagyúr
válasz Petykemano #11492 üzenetére
A termek nevet nem mondta az AMD elnoke, csak a media gondol a ZEN-re,de lehet valami GPU is.
"A lower resolution generally means that there can be more quality per pixel."
-
nagyúr
válasz Petykemano #11492 üzenetére
értelemszerűen az utóbbi.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
nagyúr
válasz Petykemano #11788 üzenetére
ez nekem olyan szagú, hogy az nvidia twimtbp játékot nem teljesítménytesztelték nvidia hardveren.
Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
Abu85
HÁZIGAZDA
válasz Petykemano #11880 üzenetére
Arra biztos nem. Az ugyanis a gyakorlatban kimérhető és lényegében majdnem kétszeres növekedéssel jár az extra négy mag befogása, ahhoz képest mintha csak négy szálon futna a program. Ezzel gyakorlatilag azonnal elvesztenék a pert, mert pont azt bizonyítanák, hogy az extra négy mag valóban extra négy magként viselkedik. Ezt inkább a védelemnél tudom elképzelni, mert ez fájhat majd a vádnak. Egy ilyen példaprogramot, ami ezt kiméri viszonylag egyszer csinálni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #11886 üzenetére
Egy olyan pert is kb. annyi esélyük lenne megnyerni, mint ezt. Legalábbis, ha olyan írja a problémaleírást, aki nem ért hozzá, mint most.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #12807 üzenetére
Ha nincs spanja, hogy lezsírozzon neki egy cserét, akkor el kell adnia a 960-at. Azt pedig nem tudja olyan drágán eladni, hogy megérje.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #12823 üzenetére
Nem. Semmi köze az emulációhoz. Ahhoz van köze, hogy mennyi processzoridőtől érdemes megfosztani a programot. Le lehet programozni, hogy a driver elvegye az erőforrások többségét csak nem érdemes. Eleve azért nem, mert az MS arra kérte a fejlesztőket, hogy többet ne használják a deferred contextet. Azért hozták a DX12-t, hogy az elhibázott irányt kiváltsák vele.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Petykemano #12825 üzenetére
Igazából a Microsoft ajánlásait csak az Intel követi. Az NV nagyon nem, míg az AMD a kettő közötti vonalat akarja megtalálni. Mivel nem a gyártóknál van a hiba, hanem az API-ban, így egyik sem jó megoldás. Az Intelé és lényegében a Microsofté azért nem, mert bár sok szabad processzor erőforrást hagy a programnak, a többi driver miatt ezekhez a fejlesztők nem nyúlnak. Az AMD megoldása azért nem jó, mert az ideálisnak vélt balanszra való törekvéssel az Intel és az NV iránya közé esik, és ez igazából a kétmagos HT-s gépeken ideális. Az NV megoldása pedig azért rossz, mert nem veszi figyelembe a kétmagos procikat és a kétmagos gépeken csökkent a minimum fps-en.
A megoldás erre az, amit az MS javasolt. Aki skálázódást akar menjen DX12-re. Ott nincs kernel driver, ami elvegye az erőforrást.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Sir Ny
senior tag
-
MiklosSaS
nagyúr
válasz Petykemano #13389 üzenetére
Csak varni kell hozza az uj
drivertmustart mert a mostanival forrosodik~~~~~~ Privatban NINCS szakmai tanacs! ~~~~~~
-
nagyúr
válasz Petykemano #13393 üzenetére
Ezért: "Starting with a new API can involve a lot of work as common utilities may not yet be available."
A fejlesztők pedig eddig állítólag lángoló hajjal, égnek emelt kézzel imádkoztak a low-level API-kért, aztán meg lehet nézni, hány játék jött ki eddig egyáltalán bármilyen támogatással (ugye legalább kill CPU-overhead), nem beszélve egy új elvek szerint felépített motorról, aszinkron kutyfülével meg minden. Vagy a fejlesztők vágyai lettek aránytalanul felnagyítva, vagy tényleg ez volt a kis szívük minden vágya addig, legalábbis addig, amíg csak szövegelni kellett...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
#85552128
törölt tag
válasz Petykemano #13657 üzenetére
A memóriavezérlő is alig éri el az átlag 60%-ot 1080p-n és 500-as memória mellett, de még 4K-n is igen gyenge a kihasználtsága.
[ Szerkesztve ]
-
nagyúr
válasz Petykemano #13657 üzenetére
Lehet ez is, viszont miután több játékban a 390X is jelentősen megugrott a 290X-hez képest (ott a fő különbség a memória órajele), a sávszél tuti nem "ártatlan".
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Malibutomi
nagyúr
válasz Petykemano #14774 üzenetére
Nem igazan latom a lemaradast a jelen jatekaiban. Egy ket kirivo kivetelen kivul (pl Project Cars) teljesen jol teljesitenek az AMD kartyak DX11 alatt is.
A Fury nem valtotta be az elozetes hypeot, de azon kivul minden szegmensben teljesen jo a teljesitmenyuk (sot ugye a lassan harom eves hawaii 390/390x tartja a lepest a 970-980-al).A driver overhead valos hatrany, de jellemzoen a nagyobb teljesitmenyu kartyak mellett nem ket magos procikat vannak a gepekben.
-
nagyúr
válasz Petykemano #15477 üzenetére
Azért ez ennél sokkal bonyolultabb és ne nyeld be a marketing választ.
Persze hogy azt mondja az NV amíg nem tudják, hogy nem jó semmire... aztán meg ők lesznek a legnagyobb úttörői a technológiának. Nem ez lenne az első ilyen eset.Van abban ráció, hogy pl amíg a GPU compute kódot számol, addig pl mellette párhuzamosan a memóriába töltsd a következő képhez szükséges adatokat... mivel teljesen más részeit használják a GPU-nak.
Stb stb.
Tehát nem csak buborékokról van szó, hanem arról is azért hogy a GPU több részegységét egyszerre lehessen dolgoztatni "függetlenül", vagyis növekedjen a kihasználása a benne lévő képességeknek egyszerre egyidőben.[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
nagyúr
válasz Petykemano #15477 üzenetére
Azért nagyon viccesek ezek az eszmefuttatások, mert jellemzően kiindulnak egy valós alapról (ie. hogy az nVidia GPU-k jobban kihasználják a részegységeiket, több az FPS / tranyó, stb.), aztán ráépítenek egypár erősen fals, de legalábbis ellenőrizhetetlen állítást - jelen esetben azt, hogy náluk ez már annyira jó, hogy nem is igazán lehet rajta javítani. Amiért nem lehet egyértelműen rásütni, hogy baromság, az pont az, amit az AMD-nél mérnek - ha ott 10-20%-ot javul a teljesítmény, akkor az eleve magasabb kihasználtsági szintről induló nVidia esetében mennyi a potenciál? És valóban mennyi értelme van foglalkozni vele?
Itt két alapvetően eltérő irány van:
a) Az nVidiás csávónak van igaza, a GPU-k optimálishoz közelítően használják ki a számítási erőforrásokat, és az AMD a saját (nem túl komoly) hatékonytalanságát fedi el az aszinkron compute-tal
b) Nagyon komoly a kihasználtsági deficit mindkét oldalon, de annyira nem egyszerű hozzáférni ezekhez a szunnyadó erőforrásokhoz, mint ahogy a kezdeti hurráoptimizmus sugalltaÉn majdnem biztos vagyok benne, hogy a b) a valóság, viszont az nVidia ki fog tartani az a) mellett, amíg az üzleti érdekük azt sugallja, vagy legalábbis nem lesz megcáfolhatatlan bizonyíték a b)-re.
Az aszinkron compute egyébként elvileg nem csak a buborékokat használja ki, hanem az adott ciklusban le nem foglalt ALU-kat is, vagy még inkább a le nem foglalt ALU-tömböket, sajnos a lehetséges granularitásról fogalmam sincs. Ez utóbbiban bőven van potenciál, viszont ütemezés szempontjából egy rémálom lehet - az sem kizárt, hogy ha elég jó a hardveres ütemező egy ilyen feladatra, akkor az arra fordított tranzisztorkeretből érdemesebb további ALU-kat építeni. Végső soron a VLIW5-nek hasonló volt a filozófiája.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
daveoff
veterán
válasz Petykemano #15516 üzenetére
Nem, ezeken a problémákon, amiket én írok, a Pascal se fog segít, szerintem.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
rocket
nagyúr
válasz Petykemano #15918 üzenetére
Reszvenyeskent valamiben muszaj hinni, es elore kell inni a medve borere
Kinai licensz dij sokat nyomott az biztos, megkerdeznem azert az Amerikai kormanyt mit szolnak a dealhez"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
válasz Petykemano #15940 üzenetére
Nem ágyaz meg semminek, mert még ha két IGP is lesz a lapkában, akkor is ugyanazt a memóriát érik el. Egyszerűen nem lesz más logikai nézetben, mint a konzoljátékoknál ma is sűrűn használt statikus particionálás, csak a fejlesztőnek lesz két fix teljesítményű partíciója, amit természetesen továbboszthat.
VR-nek valóban jó, de a PS4-re készülő VR játékok eleve úgy készülnek, hogy IGP/2 logikailag elosztva, és akkor mehet a két szemnek külön.Bizonyos dolgok sosem lesznek átmenthetők konzolról, jöhet a PC-be akármilyen low-level elérés. A statikus particionálás ilyen. PC-ben a sok hardver miatt dinamikus particionálás kell, de annyira nehéz ezt belőni, hogy inkább nem használnak semmilyent.
Az NV egy helyen nem tudja majd tartani a lépést. Ezek a DirectX kiterjesztések. Hiába hoznak például ők is Ballot kiterjesztést a DX12-höz, ahogy az AMD, az NV kiterjesztése nem kompatibilis a konzolokra írt kóddal.
Nekik azt kell elérni, hogy a SPIR-V-t használják a fejlesztők, mert abban van Ballot és ReadFirstLine-hoz hasonló szabványfunkció. Ez sem kompatibilis a konzol kóddal, de legalább szabványos, tehát lehet azt mondani, hogy írjátok az alkalmazást arra, mert a konzolos kód csak az AMD kiterjesztésein fut. A rossz hír, hogy a Vulkan API-ban sincs swizzle, illetve manual barycentric. Utóbbit kvázi mindenki használja a konzolon különböző analitikai AA-kra, és ezt a HSLS shadert májustól elég csak bemásolni a PC-s portba és Radeonon automatikusan fut. Ilyenekre egyébként tudna írni támogatást az NV, csak nem sok érdeklődő van iránta. Az AMD-nél is csak az teszi ezeket a kiterjesztéseket izgalmassá, hogy copy-paste módon szállíthatók. Ha hozzá kellene nyúlni a kódhoz, akkor az AMD kiterjesztései is hidegen hagynák a fejlesztőket.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- NASCAR
- NOTEBOOK / NETBOOK / Mac beárazás
- Gitáros topic
- OLED TV topic
- Android alkalmazások - szoftver kibeszélő topik
- Crypto Trade
- Samsung Galaxy S24 - nos, Exynos
- Ezek a OnePlus 12 és 12R európai árai
- A fociról könnyedén, egy baráti társaságban
- Vodafone otthoni szolgáltatások (TV, internet, telefon)
- További aktív témák...
- -61% Samsung Galaxy Book2 Pro 13:i5 1240P,8GB,256GB,13.3" AMOLED,400nit 100%sRGB,WiFi 6E,csupán 870g
- Amazfit GTS 2 új! (nem a mini)
- -62% HP EliteBook 845 G7 (840 G7):Ryzen 5 4650U,16GB,512GB SSD,vilI.MAGYAR bill.,Bang&Ol.,Win11ProHU
- Több db HP Thunderbolt dock 230W G2 230W -os töltővel MONITORCENTER
- Philips Evnia 42M2N8900 Gamer Oled Monitor!42"/4k/138hz/0,1ms/Freesync-Gsync/HDMI 2.1/TypeC/Ambiglow