- Karaktere biztos lesz az első Nothing fejhallgatónak
- Fotók, videók mobillal
- Apple AirPods Pro (2. generáció) - csiszolt almaságok
- Xiaomi 13 - felnőni nehéz
- Apple iPhone 16 Pro - rutinvizsga
- Az Oppo Find X8 Ultra lett a legvékonyabb kameramobil
- iPhone topik
- One mobilszolgáltatások
- Samsung Galaxy S21 és S21+ - húszra akartak lapot húzni
- 45 wattos vezeték nélküli töltés jön az új iPhone-ba
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Pont ez a baj ezekkel, hogy program oldaláról nem lehet szabályozni. Pontosan ez az oka annak, amiért mind a négy új API teljesen kidobta ezt a működési modellt. A Microsoft is megtanulta a leckét, hiába mondja meg, hogy mit tart ideálisnak, ha egy gyártó nem követi, akkor teljesen felborul minden. És a gyártók nézőpontja is érthető, szétszednék a PC-t a rajongók, ha látnák, hogy a konzolok megverik grafikában, de egy átlag user nem annyira képzett, hogy megértse miről kell így lemondania. És ez egyáltalán nem jó a usereknek.
Aztán persze az sem ideális szerintem, hogy add oda az egészet a fejlesztőknek, hogy boldoguljanak vele. De tulajdonképpen ez a két lehetőség van, és az egyik lehetőség elbukott, tehát marad az alternatíva.
-
HSM
félisten
Szerintem elég szélsőséges. Az egyik olyan játék, ahol DX-ben látványosan gyorsabb az Nv drivere maxgrafikán olyankor, amikor mindenféle szirszar repked a levegőben.
A felvetésem lényegi részére hogy nem válaszoltál, egyetértést jelent?
(#9273) rocket: A profit termelés kinek jó? Nekik! Nekem édesmindegy, nem vagyok egyik cégnél sem részvényes. Pontosabban nem mindegy. Ugyanis én még 3 év múlva is szeretnék PC-s játékokat játszani, és nem olyanokat, amik a csilli-villi grafika kedvéért a béka segge alá vannak minden más téren butítva, hogy az Nv drivernek is maradjon elég CPU-ideje a játékot vinni a hátán.
Bár lehet, végülis ez sem érdekel. Már egy ideje tizedannyira sem érdekel a PC játék, mint régen.(#9289) cyberkind: Engem hagyj ki ebből, nem piacrobbanást vártam a DX12-től, hanem egész más dolgokat. Amik nagyjából megvalósulni is látszanak.
-
sayinpety
tag
Volt szerencsem AotS jatekmenetet latni. Zsenialis. Velemenyem szerint nagy hatasa lesz. Vizsgaljuk egy hasonlo ur RTS fejleszteset.
Anonimkent elmondok egy titkot. Nem szeretnem, ha felreertenetek. A PC jatekfejlesztes draga. Minden IHV ad bizonyos anyagi tamogatast. Enelkul nem fognank bele AAA PC portolasba. Tul kockazatos. Penzert cserebe kiallunk E3on, elmondjuk Radeon/Geforce/Iris kiraly es kapunk penzt. Exkluziv magasztalas tobb penz. Am egyetlen IHV sem tamogat olyan jatekot, ahol grafika nem jobb a konzolnal. Szerzodesben rogzitik. Ezert butitjuk a simulationt.
A jatekfejlesztes uzlet. Legtobb penzt harom platform port hoz es IHV tamogatas. Senki sem tudja mit hagytunk ki a jatekbol megjelenesig. Grafika butitast eszre veszik, am ha tudnatok mi marad meg ki, nem erdekelne grafika. -
Abu85
HÁZIGAZDA
Egy mítosz miatt az iparág nem dobja el a megszokott API-kat és kezd eszeveszett költekezésbe, mert nem egy, hanem rögtön két új API érkezik.
Az, hogy a Stardock képes annyi pénzt biztosítani Dan Bakernek, amennyit csak akar, egy rendkívül kivételes helyzet az egész iparágon belül. Nincs még egy olyan programozó, akinek megengednék, hogy két évet optimalizáljon DX11-re, amikor jobb eredményt hetek alatt kihozhat DX12-vel.Egyébként úgy is fogalmazhatunk a DX12-ről, hogy ha lenne hozzávetőleg 4 évnyi optimalizálási idő minden PC-s portra, akkor nem lenne szükség rá. De sokszor 4 hónapjuk, vagy rosszabb esetben 4 hetük sincs a fejlesztőknek optimalizálni, mert jövőre jön az új rész, és azt el kell kezdeni nagyban fejleszteni. Így már egészen durva igény mutatkozik a reformra.
-
Abu85
HÁZIGAZDA
A DX12 kódban a Nitrous még nem teljes. Nem véletlenül van mögé rakva az alpha, mert két szálra van limitálva a több szálú parancskreálás. Nyilván van egy csomó dolog a motorban, ami még nincs rákapcsolva, de tuti működni fog, mert az AMD saját API-jával működik. Eleve a DX12 implementációk csak öt! hetesek, és nem is stabilak. De ezek fejlődni fognak az elkövetkező fél évben, már csak azért is, mert vagy egy tucat DX12 update jön még a Windows 10-hez.
(#9212) schawo: Van benne AI, csak a mostani szinkronizálás ma még soros feldolgozásra kényszeríti a rendszert. Nyilván nem véletlen, hogy a legkisebb pálya lett megmutatva kevés egységgel. Ide elég ez a készültségi szint, és már látszik rajta a DX12 előnye. Az MS pedig örül, hogy végre kirakhat valamit az ablakba.
-
Abu85
HÁZIGAZDA
Ráduplázni DX12-ben nem fog, hiszen a D3D bájtkód nem változott meg. A DX12 elsődlegesen azon változtatott, hogy közelebb vitte a működést a GCN típusú hardverekhez, hogy ne kelljen emulálniuk a bekötést, stb. Most persze a többi hardver emulál, kivéve a Skylake.
Az Oxide-nak nem számít, hogy dokumentálják-e az architektúrát. Dan Baker mögött komoly szaktudás van, hiszen elmondhatja magáról, hogy nem csak elsőként, hanem konkrétan egyedüliként rakott össze működő deferred context motort, illetve egyedüliként implementált Reyes-féle leképzőt valós időben, ami még több száz shadow casting fényforrást is kezel. Neki egy hardver visszafejtése nem téma, csak időbe kerül. A dokumentáció hiánya leginkább a kisebb tudással rendelkező programozókat fogja negatívan érinteni.
-
Ren Hoek
veterán
Bezony ott a pont... én arra számítottam, mint extrém draw call meg anyámtyúkja, hogy 970 elvérzik.
Ehelyett heavy draw call-ban 30 FPS-t megy a szívószál390 meg 32-őt
Rendes procival meg 290X szintjén van... HSM urat kérném a mikrofonhozAkkor hol is a negyedére lassulás ennyi compute pipeline alatt?
Egyébként annyi eredmény ahány teszt... kb kuka eredmények ezek szerintem. Örülök, hogy AMD kicsit felhozta magát, de sehol nem látok NV alázást.
-
Abu85
HÁZIGAZDA
Semmit sem állítottam a teljesítményről, de igen az AotS nem egy sávszélbarát program, mert annak, hogy nem maximum 8, hanem sok száz shadow casting fényforrás van benne, az nyilván fájni fog a mai hardvereknek. De a Nitrous fejlesztésének a célja az volt, hogy olyan területre merészkedjenek, ahol előttük még nem járt senki. És ezt nem igazán a hadverek teszik lehetővé, hanem az új API-k. Ezért fontos ez a program.
Ha nem lennének új API-k, akkor ez a program nem született volna meg, függetlenül attól, hogy a hardverek megjelentek volna.(#8986) TTomax: Eddig is tudta a piac, hogy az aktuális technikákról való továbblépést a filmes CGI technikák jelentik. Csak az volt a kérdés, hogy melyik stúdió lesz az, amelyik mer arra költeni, hogy felhúzzon egy teljesen új motort erre. Az Oxide volt az, és erre kellene koncentrálni, mert elhihetitek, hogy nem egyszerű feladat olyan utat járni, amit még senki sem taposott ki. Ehhez képest csak egy GCN techdemóként gondolunk erre a programra, amire nem szolgált rá. Ennek a fejlesztésként sokkal nagyobb szerepe van.
-
Abu85
HÁZIGAZDA
Ezt ti magyaráztátok bele. Ez a motor arra készült, hogy megmutassa az új API-k fontos képességeit. Igen ezekben jó a GCN (pl.: multiengine), de ez nem jelenti azt, hogy ezt a tesztprogramot a GCN-re írták. Valójában egy tök szabványos program, aminek a fejlesztésében mindenki részt vett.
-
Abu85
HÁZIGAZDA
Pedig igaza van. Ez egy olyan teszt lesz, amit az új API-khoz terveztek, tehát alapvetően nem a hardverekre van kihegyezve, hanem arra, amit az új API-k kínálnak. Ettől még hardverteszt is, de a Microsoft elsődlegesen azért rajong érte, mert a DX11 benne nagyon gatya, és a DX12 brutálisan lealázza. Ez minden hardver esetében így lesz, és ez segít eladni a Windows 10-et.
-
-
Ren Hoek
veterán
-
Ren Hoek
veterán
-
Abu85
HÁZIGAZDA
Mert tavaly még nem voltak számok, de ezek alapján mar tisztán látszik, hogy a G-Sync sorsa attól függ, hogy az NV fizet-e a Samsungnak és az LG-nek azért, hogy építsenek legalább évi 5-5 új kijelzőt rá. Erre egyébként meg van is esély, mert az NV-nek hátrányos lenne, ha a 3D Vision után befuccsolna egy új technikájuk azért, mert a monitorgyártók a saját érdeküket nézik. De ha pusztán az anyagi szempontok döntenek, akkor egyszerűbb csendben kivégezni, ahogy a 3D Visiont.
-
Abu85
HÁZIGAZDA
De lehet. A notis G-Sync nem használ modult.
Egyébként meg mindegy a dolog. Az Acer és az Asus a G-Sync utolsó bástyája. De gyorsabban fejlődnek a FreeSync megoldásaik. Szóval a dolog ott eldőlt, hogy a G-Sync támogatók többsége kihátrált. A következő körben támogatnia kell az NV-nek a szabványt, mert két partnerrel nem lesz több kompatibilis termék évi 2-3 monitornál, míg a FreeSyncből dömping lesz. Már most is az van, hiszen 12 bejelentett G-Sync monitor van/készül és 0 tévé. A FreeSync 20 monitornál és 4 tévénél tart. Akkora túltermelés lesz a FreeSyncből, hogy bőven 90:10 lesz a FreeSync:G-Sync raktárkészlet arány, ami nem sok jót jelent a G-Syncnek. Az NV-nek sürgősen meg kell győznie a Samsungot és az LG-t, akár úgy, hogy fizetnek azért, hogy adjanak ki G-Sync kijelzőket. Itt az a kérdés, hogy az NV-nek a G-Sync csak üzlet vagy inkább presztízs.
-
-Solt-
veterán
2014 januárjában volt az első FreeSync bejelentés, tehát a másfél évhez közelebb vagyunk mint a kettőhöz.
Új technológia, kevés vele a tapasztalat, szerintem egyáltalán nem tiszta még, hogy a monitor gyártók bénáznak, vagy maga a technológia defektes. Az összevetés vásárlási szempontból természetesen jogos, de ez csak az adott monitorra kivetíthető, magáról a technológiára nem lehet vonatkoztatni még. A cikk pedig úgy lett linkelve, hogy bukott a FreeSync a G-Sync ellen. Ez a következtetés igencsak korai még.
-
-Solt-
veterán
Az ilyen vakteszteken kijött eredményeknek én képtelen vagyok hinni. Csinált ilyet az AMD is, kétlem, hogy itt a topikban a többség elhinné, vagy egyetértene a végeredményével. [link]
Ettől függetlenül a megállapításaid java részével egyetértek, de azért pár dologgal kiegészíteném.
Kiválasztottak két olyan FreeSync monitort, ami tudottan problémás, így eleve nem igazán van értelme még összehasonlítani őket. BenQ Asus
Az Asus esetében jött egy új firmware ami állítólag sokat javított rajta, de a tesztben nem szerepel, hogy a vakteszten résztvevő monitoron melyik firmware van. Az általam linkelt teszteken jól látszik, hogy 60Hz-n mindkét FreeSync-s monitor csak 2-s Lag Classification besorolást kapott, míg a két G-Sync monitor bőven 1-s besorolású, Asus, Acer. Innen nézve még hízelgő is a kapott végeredmény!
Jelenleg nincs még olyan FreeSync monitor a piacon, amivel rendesen lehetne prezentálni a technológiát. Nemrég volt itt hír a PH-n, hogy jönnek a Samsung megoldásai, illetve pár napos hír, hogy az Eizo is jönni fog FreeSync technológiával. Bízom benne, hogy a Dell is beáll a sorba, és akkor már lehet majd következtetéseket levonni.
Egyébként aki monitor kérdésben hiteles információt akar, az a TFT Central, vagy a Prad tesztjeit nézze meg.
-
-
rocket
nagyúr
Szerintem meg o utana is ilyen lesz, az NV zsenialisan muveli a szoftvertamogatast, es nagyon magas eladasokat realizalnak ezzel.
Neha beut egy Batman Arkham Knight tortenet , ami aztan nehany het alatt lecseng, semmilyen szignifikans negativ hatassal nincs az eladasaikra.Az meg, hogy az AMD, Abu, meg nehany jatekfejleszto mit gondol a middlewareekrol, nem tantoritja el az NV-t, mindig lesznek akik hasznalni fogjak, es nem csak zs kategorias fejlesztok, legujabb pelda a COD3 ahol GW-t nem mondtak (meg) szo szerint, de az NV sajat kodot ir ami annyiban ter csak el attol, ha GW lenne, hogy az AMD megjelenes napjan majd kezdheti a hetekig tarto optimalizaciot, mig a GW eseteben erre nincs lehtoseguk, de ettol ugyanugy kar fogja oket erni, mert nem fogjak hozni a csoda Radeonok az elvarhato teljesitmenyt. (persze ez egyelore feltetelezes, de a history record alapjan nagy az esely, hogy ez fog tortenni)
Kivancsi leszek mikor jonnek ra az AMD-nel, hogy marketing eszkoznek nagyon jo a middleware, es csinalnak egy sajatot, persze mar nem lenne konnyu ~20%-os piaci reszesedessel megfelelo partnert talalni ehez.
-
Abu85
HÁZIGAZDA
Ez nem feltétlenül ilyen egyszerű. Már nem mindenki látja annyira jónak ezt a GameWorksöt az NV-n belül sem. És nem arra gondolok, hogy a korábbi TWIMTBP zsenik (John McDonald, Timmothy Lottes, Cass Everitt, stb.) otthagyták a céget. Számold bele azt, hogy az egyetlen dolog, amivel ezt el lehet adni az a pénz. Viszont olyan fejlesztők szorulnak erre rá, akik nem nagyon törődnek a PC-s portokkal, mert így is szűkös az egész keret. Ezért szaporodtak el nagyon a rossz PC-s portok az NV oldalán, és nincs igazán lehetőség behúzni egy innovatív és jól optimalizált PC-s címet. Az már csak tetézi a bajt, hogy az AMD erre rájátszik ezekkel az üzenetekkel. Elég csak a bogár elültetése és az NV elvégzi a munkát a csomó fos TWIMTBP PC-s porttal.
-
schwartz
addikt
Fizetos szoftver adja el a zoldek termekeit is igy igencsak fajo ha azt manipulaljak amivel el lehet adni a hardvert. (vagy ha gubanc van a jatek korul a hardvergyarto hibajabol) Ha hiszed ha nem a budos eletben nem nyelem le az AMD-nek, hogy a Gothic3-hoz nem voltak kepesek kiadni egy CF profilt. 3870X2 utan nem volt piros VGA-m. Most a Witcher3 verte ki a biztositekot a zold oldalon meg a szandekos driver trukkozes a Kepler korul. Viszont egy dolog a meghajtokhoz vagy jatek tamogatashoz valo dilettans hozzaallas mig egy sokkal pocsekabb huzas szabotalni a felhasznaloi elmenyt bizonyos korulmenyek kozott.
-
schwartz
addikt
Az nvidiat a sajat vasarloi tudnak megszivatni ha kinyilna vegre a szemuk Bar suket fuleknek beszelhetsz barmit... (plusz versemykepes alternativa (minden teren) .sem artana, az is igaz)
(#8707) Yllgrim
Nem nem, csak elotte a Mafia2-es PhysX trukkozes, most meg a GameWorks...
-
Tudod hogy megy ez... RH olyan szinten van hogy mondta neki valaki akinek a haverjánál látta valaki.
Mármint szóval gondolhatod hogy nem ezzel tölti az idejét hogy ilyeneket tesztel meg vizsgál ő maga.
Mondták neki, meg olvasta, meg kapta a közösségi oldalain és továbbadta.
Sose tudni amugy nála, hogy saját véleményt mond, vagy az AMD hivatalos álláspontját is... mert szerintem inkább csak az előbbi.
Ettől függetlenül igaza van... és remélem verik még a port kicsit az nVidia körül és megemberelik magukat és leszoknak erről az üzleti magatartásról.
Aztán persze lehet minden marad így és pofáraesünk (meg elül a zaj), de azért az utóbbi időben most tényleg sokan felkapták a témát. Lehet lesz valami eredménye. -
Televan74
nagyúr
Én nem tudom milyen a 4K gaming,Eddig nem volt rá se igényem,se pénzmagom.Én lépcsőzetesen haladok felfelé.Most 1080p, következő lépcső a 980Ti/Fiji. Jővőre meg a 1440p monitor.Nekem a 4k még két generáció.
Bár tv -be lassan eljön 4k világa ha bedöglik az öt éves fullhd samsung tevém. -
-
Yllgrim
őstag
Kontextustol fugg hogy a turelmetlenseg bun-e, mar ha erted
A TX-rol meg annyit hogy jo kartya, a tulajdonosai biztos orulnek neki, foleg ha 1080p-ben tolljak(tak) mert arra kell 1-2 bizonyara
Inkabb SLI, az jol mutat. 1080p-re en nem tartom logikus dontesnek, 4K-ra mar inkabb, de oda meg kell 2 belole, nem a memoria miatt hanem a tempo vegett
1000£ az indulo ara, most meg mar 500£ alatt szorjak a Ti-ket. Meg ha most EVGA SC TX 899.99£, a 980Ti SC meg 589.99£ (mostani aktualis ar ebben a pillanatban)
Akkor az volt a csucs es aki akkor vette a legjobbat kapta es ez teljesen rendben van, ezen nincs vita. Mindenki arra kolti amire akarja, a gond es a vita ott van hogy NV hozasa a 3 honappal kesobb megjelentetett (tudtak mikor fogjak kihozni, a decemberi megjelenes az duma...) Ti-vel kapcsolatban meg van vedve pedig ezen semmi vedeni valo nincs
EN tuti hulyere vernem az NV illetekeseit, nem a penz miatt hanem hogy az "Elit"-et kepviselo leghusegesebb vasarloit szarnak sem nezi. Ennyi. Ezt kellene megerteni, nem terelni.
-
HSM
félisten
Lehet valami abban, amit írsz. Ugyanakkor tuti nem teljesen úgy van, ahogy írod, ugyanis akkor rengeteg képkockával előre kéne dolgozzon a CPU (pipeline lépcsőnként egy), és a csillagos egekben lenne az input lag.
Jelenleg a legtöbb játék ha jól tudom, durván 3 képkockával működik előre, tehát akkor logikusan ennyi "átfedés" lehet a pipeline-on, ami azért nem valami acélos.
Egyben magyarázat lehet, miért is marad egy rakás szabad kapacitás a GPU-ban.(#8414) Asbee: Már megint egészen másról beszélsz, mint én. Az, hogy nálad egy jobban sikerült 980 tud 1660Mhz-et, örülök neki, de ez attól még nem reprezentatív, ha én veszek egyet, nem biztos, hogy ennyit fog tudni. A Tahiti-s alulfeszelés ezzel szemben nagyszámú kártyán lett próbálva, és mind tudta. Ha a usernek nincs tehetsége beállítani, az nem a kártyának a hibája.
-
HSM
félisten
Nézd, körübelül 15db különböző (bár 1-től egyig jóminőségű), és különböző gyártási időszakból származó Tahiti csipes kártya ment át a kezeim között 2 év alatt, amit alaposabban tudtam tesztelni, és egyetlen egy sem bírta kevésbé az alulfeszelős mókát a többinél. Persze, voltak 5-10W-os különbségek, különböző tuningpotenciálok, sőt, durva tuning mellett akár 30-50W különbségek a határra járatott csipeknél a jobbak/rosszabbak között, de 1Ghz környékén mindegyik remekül belőhető volt masszív alulfeszelős, megbízható működésre, amit a tesztemben is láthatsz. Nem írnám, ha nem így lenne. Ez szerintem már messze túlmutat a véletlen kategóriáján. Ezenkívül mindenki, akinek fórumba/privátban segítettem alulfeszelni is hasonló pozitív eredményről számolt be. Szóval ezen kártyáknál én továbbra is kitartok az "igen kedvező fogyasztásúra belőhető" állításomnál.
Ami a DX12 feature leveleket illeti, sok szempontból komolyabb tudású a csip, mint a Maxwell2, szóval ha ők nem aggódnak, akkor a Tahiti tulajoknak sem kell szvsz.
Ami az async taskokat illeti, én máshogy gondolom a működést. De majd úgyis kiderül, mi/hogy fog változni.
A ringbus tényleg jó volt, csaképpen kifejezetten rossz energiahatékonyságú volt kis terhelésen, és rengeteg tranzisztort evett. Igen, ez történt, bizonyos szempontból kicsit lebutították, hogy más részeknek is maradjon elég tranzisztor és kedvezőbb legyen a fogyasztás. Ez pl. az én szememben egy elfogadható kompromisszum, amiből csak előnyük lett a vele elkészült termékeknek. A Maxwell esetén meg majd az idő eldönti....
(#8392) Erdei88: Az nehezebb ügy a BOOST2 miatt.... A TPU szerint pl. a Strix 960 feszei: 1250 - 1430 MHz 1.025 - 1.200 V.
Namost, az 1.025V és az 1.2V fogyasztásban elég durva difi. Érdemes lehet azt is megnézni, mit lehet belőle kihozni. Ezzel sajnos nincs tapasztalatom, pláne, hogy tömegesen mit bírhatnak.
A Tahitikről viszont tudom, hogy gyakorlatilag mind jókora feszcsökkentést elbír.
Az azért nagyon nem mindegy, pl. a 7950-em, hogy gyárilag 1,18V-ot adott 925MHz-hez, míg bőven elég lett volna neki ehhez 1,02V. 1050MHz-es órajelhez is elég volt 1,1V, ami még mindig óriási különbség egy ekkora GPU-nál a gyári 1,18V-hoz képest... -
Valdez
őstag
Sajnos az AMD termékeire jellemző a feleslegesen sok vcore, mind a kártyáknál, mint a prociknál. De ezek is olyan dolgok, amikre csak kicsit oda kellene figyelni, máris jobb színben tűnne fel minden termék a benchmarkokban.
Meg a másik hülyeség, hogy a hanyag bios beállítások miatt maxon teker a gpu és memória még filmnézés közben is, biztos hatalmas erőforrást igényelne 2 sort átírni a biosban, hogy ez ne legyen -
HSM
félisten
A 7950 egyáltalán nem fogyaszt sokat, ha jól be van lőve,egy 7970 meg még annál is takarékosabb.
A Logout tesztemben ezt elég alaposan körbejártam. Csak jól kell belőni, és boldogság. Egy játék közben 160W körül fogyasztó (és amúgy 1050/1400MHz-re és +20% powerre tuningolt a gyári 925/1250-ről) VGA-ról nekem sokminden eszembe jut, csak a magas fogyasztás nem. [link].
Pláne nem sok, ha azt veszed, a GTX960 fogyaszt valahol 110 és 130W között [link], és ezen még ott figyel +1GB ram is.
Amúgy napi poén, alulfeszelve a gyári órajelén maximum power limittel a 7950 pariban van a GTX960 fogyasztásával, 124W-ra számoltam.
Tesztekben viszont nem érdemes a 7950 sebességét nézni, mivel általában nem férnek bele a gyári TDP-be, és dobálják az órajelet lefelé szorgalmasan, +20% limittel meg nem sokan tesztelnek sajnos. A 7970-en nincs ilyen gond általában, abból lehet következtetni egy jól belőtt 7950 sebességére.
Ami a feature hiányokat illeti, két feature hiányát látom mindössze. Az egyik a TrueAudio, ami a zöldeknél sincs, a másik a FreeSync, de az sem egy akkora nagy dolog, hogy ne lehetne nélküle élni, pláne ebben az árkategóriában.Az aszinkron ALU-s érveléseddel egyáltalán nem értek egyet. Itt linkelt két kép és érvelés érvényes ide is, amit Ren Hoekn-nek írtam [link]. Gondold végig, ha most "ROP limitált" valami, akkor is amíg a ROP-ok dolgoznak, más folyamatok nem tudnak dolgozni, pl. memóriabetöltések. Vagy éppen a fizikai műveletek futhatnak, míg a ROP hosszasan dolgozik. Szóval a lényeg, hogy valóban a legnagyobb haszon, hogy így jóval több shader futhat, hiszen GPU-idő szabadul fel, viszont nem gondolom, hogy ez csak shader limitált esetben hozhat látványos előrelépést.
Ami a memóriát illeti, tényleg eléggé ködös AMD-nél a megvalósítás. Pláne az architektúrás ábrák alapján. [link]
Elvileg amúgy külön szedték az első HUB-ok NV-szerű megvalósításához képest a GCN-nél a ROP-okat, legalábbis a Tahiti-nél: [link]
A cache hierarchia is érdekes: [link].
Szerintem több van itt a háttérben, mint amit megmutatnak.(#8386) Ren Hoek: A manuális freesync-et a notebookom Intel HD3000-ese is tudja már, FreeSync mentes monitorral, most is 72Hz-en írok róla.
De ja, a Tahiti-n, meg Hawaii-on lehetett ilyeneket csinálni. Csak a monitor képességein múlt, hány Hz-en hajthattad.A 370 tényleg kicsit övön aluli, ugyanakkor azt is nézni kell, hogy az eléggé alsóház már. Aki meg csak úgy OEM kap valamit, ott nem tartok tőle, hogy Freesync monitora legyen mellé....
-
HSM
félisten
Annyiból nem "klasszikus" hogy szvsz régen nem volt 3 éves VGA ennyire "modern", naprakész, mint most a régi "csúcs" GCN-ek, gondolok az összes 7900-ra és R9 280-ra...
Valahol mindig volt valami "bibi", vagy sokat fogyasztott, vagy lassú volt, vagy a szolgáltatáskínálata volt már korszerűtlen. Ehhez képest a Tahitin nem sok komoly fogást találok....(A fogyasztás igen kedvezőre belőhető minimális időráfordítással, azt nem veszem emiatt hátránynak.)
A 2900XT természetesen nem fogja utolérni a GTX960-at, nem is állítottam hasonlót. Hiába van sok memória-sávszélesség, ha nincs hozzá elég erős GPU, ahogy fordítva is igaz, az erős GPU sem ér semmit, ha nincs alá elég sávszél. A DX12 előreláthatólag csak annyit csinál majd, hogy lehetővé teszi a GPU jobb kihasználását, amit gyorsulásként lehet majd reaalizálni, ha a memória alrendszer is partner ebben és bírja az iramot.
Az Nv memóriavezérlője nem tudom, mi alapján írod gyorsabbnak az AMD-seknél, viszont a Maxwell-ek egy szempontból nagyon jók, lényegesen nagyobb L2 van bennük, mint a GCN-ekben, ami jó hatással lehet a teljesítményükre.
-
Valdez
őstag
"Végül, de nem utolsósorban, az nVidia továbbra is crossbar memóriavezérlőt használ, ami gyorsabb az AMD hubos cuccánál. Ennek a mértéke szituációról szituációra más, és fogalmam sincs, mennyi átlagosan, de nyilván ez is az egyik komponense annak, hogy az nVidia oldalon a sávszélesség kihasználása jobb."
Erre van valami egzakt mérés? Mert ez így eléggé a levegőben lóg.
-
HSM
félisten
Kompetitív szempontból nézve tegyük gyorsan hozzá azt is, hogy a Maxwell-eken tipikus alig van tuningpotenciál hagyva a memóriákon (gyárilag is igen magasak az órajelek), míg a Radeonokon lényegesen több van.
Amúgy a 960 ellen vicces ellenfél a régi 7950/280-as Radeon, ami ugyan "papíron" 380-as sebesség környéke, csaképpen "picit" durvább memória-potenciállal. De szerintem a Te számaid is éppen elég beszédesek.
(#8329) Ren Hoek: A növekedést az váltja ki, hogy eltűnnek komoly korlátok a rendszerből. Pl. a megjelenő async compute, többszálon renderelő API.
Én nem beszéltem semmi extrém növekedésről. De ha a GPU mondjuk 30-50%-al jobban kihasználhatóvá válik DX12-ben, akkor oda kelleni fog alá 30-50%-al erősebb memória alrendszer, különben a GPU-t vissza fogja fogni.
Természetesen nem konstans a memória sávszélesség igény, ahogy írod, jelenetfüggő erősen. Ha elfogy a sávszélesség, akkor a GPU sebességet veszít. Ez nyilán az AVG és MIN FPS-eken is látható lehet.Gondold végig, már önmagában az async shader... Olyan dolgok futhatnak majd egyszerre a GPU-n, amik eddig egymás után futottak...
Lásd: [link] [link].
Ezek mind csak akkor fognak szépen működni, ha van rá elég sávszélesség (meg még pár dolog megfelelően működik).
Ha a sávszélesség belimitál, akkor hiába futnak ezek párhuzamosan, nem lesz sok sebesség nyerve, mivel ugyanúgy várni fognak a folyamatok, csak nem a másik folyamatra, hanem a memóriára.... -
HSM
félisten
A GTX480 jó cucc volt. Első ránézésre azt szúrták el, amit az AMD most, túl okos csipet tettek le az asztalra, és a "butább", egyszerűbb,kevesebbet fogyasztó, sokkal olcsóbb 5800-as Radeonok lemosták őket.
Most csak ami más, hogy a nyakunkon egy API-váltás, és friss konzolgeneráció is van...(#8165) Ren Hoek: A 280-as Radeonok közel 300GB/s-et tudnak, kicsit megcibálva simán 300GB/s fölé lőhetőek. A 270 és társai no igen, de azok meg a 128 bites GTX960 ársávjában mennek, ami azért elég szignifikáns difi.... Az AMD-nél az ősrégi 7950/7970-ek többsége is 300GB/s magasságába hozható. A 290-ek tuning nélkül 320GB/s-jéről nem is beszélve, és itt az új 390, 384GB/s-el,és a Fury 512GB/s-el...
Amúgy ami a piaci részesedést illeti, elég sok 7900-as kártya fut, rengeteg 280-as, 290-es, szóval azért bőven van. Nv-től is a 780-ak tisztességes sávszélességgel gazdálkodnak, azokból is szép számmal találni a játékosoknál.Marha egyszerű amúgy. Kinn van a játék, Ultra grafika mehet amelyik kari bírja, a többieknek meg marad a medium meg low fokozat. A BF4 is ilyen volt, GTX780/290-es Radeon alatt nem igazán volt érdemes maxgrafikán erőltetni....
Akkoriban ezek voltak a csúcs....
-
HSM
félisten
Ma azért nem érdekli az emberek 90%-át a sávszél, mert jól mennek a játékok szívószál sávszélességű kártyákon is. Hidd el, érdekelni fogja az embereket a sávszél, ha lesznek játékok, ahol elvéreznek a szívószálas kártyák...
A 290 pedig szerintem igen erős ajánlat 260 dollárért... Legalább már ketten így gondoljuk.
Amúgy egy valódi baja van, 260 dollárért aki VGA-t keres, oda kicsit sok a TDP, ott még nem mindenkinek van elég erős háza hűteni, és tápja etetni.
-
Egon
nagyúr
Lehet hogy nem tudnak eleget gyártani?
Amúgy nem értem én már ezt az egészet. A hwsw-n megjelent cikk szerint pl. elég jól fogytak a grafkártyák (viszonylagosan). Most akkor vagy kizárólag a CPU (APU) üzletág "felelős" a brutális, 54%-os bevételkiesésért, vagy a professzionális grafkártyák fogytak jól, és "csak" home user viszonylatban esik az AMD részesedése, vagy valaki félrebeszél... -
Abu85
HÁZIGAZDA
Mit várunk versenyképesség alatt. A 380 gyorsabb, illetve a jóval nagyobb sávszélje. A 960 előnye, hogy kevesebbet fogyaszt.
A 380X nem feltétlenül szükséges, mert a 290 ott van 259 dollárért, annál nem lesz gyorsabb. Oda jönne a 380X és a 960 Ti. Az AMD ezt azért húzza el, hogy minél később legyen lemérve, hogy egyre több új játék kerüljön a tesztekbe a Windows 10-zel. Itt az NV fog előbb lépni, mert nekik nincs 259-ért termékük és nem várhatják meg az év végi játékdömpinget. Ha az AMD-n múlik elhúzza novemberig. Akkor jön a Star Wars Battlefront a Dual Fiji-vel. De legalább az új Need for Speedig érdemes kihúzni.
Azt nem árulták el, de az új EA játékokban már nem Frostbite 3 lesz. A következő variáns már PBR-es, sávszélzabáló, async shaderes/DMA-s cucc. -
proci985
MODERÁTOR
Ha lehetseges, nezd meg a 290x msi gaming 8gb teszteket.
Mondjuk nekem pont egy alapbol 1.25v feszt kapo, 1050en jaro kartya van.
De ja, 290x oc, szoval a megnovelt fogyasztas realis.
nem voltam messze tole. Ha lene harmadik vga gyarto elfogadhato megoldassal 5760ra olyanom lenne.
-
proci985
MODERÁTOR
a Hawaiinal elegge nagy a szoras, 290xek kozott is. tehat 1-1 kartya (illetve egy kartya alapjan keszult teszt alapjan) nem szabad kovetkeztetest levonni.
ugyanugy, nem mindegy mit vetnek ossze mivel (ld meg Maxwell), egy ref es egy VaporX a hutese miatt elegge el fog terni.
---
hajlando volt a fene, viszont miutan 1 honapig nem volt videokartyam mert 970et gariztattam (nalam volt mikroakadas a memszervezes miatt), berendeltem egy 295x2ot amibol viszont megcsuszott a szallitmany. szoval ahelyett hogy vartam volna meg egy hetet, ha nem tobbet (itt mar erezhetoen ideges voltam), vettem egy 290x Matrix Platinumot, megiscsak Asus ROG flagship kartya, csak nem lesz rossz alapon.
alaporajelen tulmelegedett a memoria Far Cry 4 es Assetto Corsa alatt is. namost itt jott az a pillanat, amikor maxra toltam a ventiket (meg a q6600al teszteltem, ugy a hazban az open test benches eredmenyeimet hoztam), aztan felraktam meg a HTPC Cosmos S oldallapjat a 200mmes NZXTvel. intake: 3xSFlex@1750 + 1xNZXT FZ200@700, out: 2xAntec140TC@1000+SFlex@1750. brutal tulnyomas, de hejj, ez mar a Stackernel is bejott. a 290x persze meg mindig tulmelegedett.
namost, itt kb olyan 6 hete szivtam a geppel, mellette melo, mellette tovabbkepzes (60-70 oras hetek a ketto kombinacioja miatt), nekem meg egy 3870 volt a gepben az ido joreszeben. ami mondjuk borderlands1ezni elfogadhato volt, viszont a harmadik kijelzot nem tudtam hasznalni. szoval itt jott volna az, hogy akkor legariztatom a 290xet is es akkor 10 hetig vagyok videokartya nelkul (!!!!), vagy kap egy EK blokkot, ugrik a gari es remenykedek, hogy tenyleg tulmelegedes volt csak a hiba. mindezt ~350euroert.
viszont kellett a csend, ezert ha mar ugyis bele kellett mar nyulni a vizbe (ismetelten, pedig elotte ket honappal csoveztem at + noveltem holeadot), akkor jottek a szenzorok, meg holeado, meg a szabalyozo.
most remek, viszont OChez hozza kene nyulni a ventiprofilhoz... 1.25os alapfeszen tud kb 1085ot 1050 helyett, 1.35el mar 1135 is stabil firestrike alatt. 1135on 63 helyett 70fokig ment a firestrike kb 25-26 fokos szobaban, szoval nem lesz tuning. amin figyelembe veve a ROG-MP kartyat es az EK blokkot nem tudom, hogy sirjak-e vagy nevessek. persze, azert csendes, meg egesz jol birja 5760x1080at, de ezutan a maratoni szivas es a belefecolt penz, ido es energia utan kb ez a minimum.
-
proci985
MODERÁTOR
ugyanannyit fogyasztanak a gyakorlatban.
illetve nekem 1050en jar alapbol a GPU (mem 5400), legen belenyalt a furprime a 610Wba konnektorbol. az kb 310-330W, csak a GPUn. nem is birta a gyari hutese, se sima Cosmos oldallappal, se Cosmos S (+NZXT 200mm@700rpm) komboval. jo, a DCU2/Matrix hutese nem sikerult jol 290xre.
kapott egy vizesblokkot, azota 510Won peakel (es meg tudom fogni 70 fok alatt), de ez kb a minimum miutan raraktam egy 150 euros, backplatevel kb 4 kilos blokkot. ugy kb 250W korul van, de a Hawaii eleg durvan szivarog, legen meg 63 fok firestrikekorok alatt eselytelen kategoria.
-
Abu85
HÁZIGAZDA
Ja igen, az erősorrend az igazából különböző limitációkból adódik össze. Tipikus célja a tesztnek sorra terhelni mindent a maximumra, és előhozni a rendszerek limitjeit. Akárhol előjön egy limit az már rossz lesz a végső eredményre. A játékokban ezek biztosan nem így lesznek terhelve. A hasznossága azonban vitathatatlan, nagyon jól lehet látni belőle a rendszerek kiegyensúlyozottságát.
(#8055) Petykemano: Ha jönnek ilyen processzorok, akkor nem a játékok és a DirectX 12 miatt. Ez gyakorlatilag biztos. Erről pont az inteles cimbivel beszéltem a hétvégén, és az egyik legnagyobb húzófícsőrnek az IGP-k kihasználását tekintik a DX12-re dolgozó fejlesztők. Ennek többféle módja lehet, de a cél a kihasználatlan, sokszor 300-800 GFLOPS-os erőforrás befogása. Ezt nehéz lenne verni csak CPU-ból.
-
Abu85
HÁZIGAZDA
A 3DMark Overhead teszt komplexebb annál. Egyrészt nyilván nézi a parancsprocesszort, mert az egy fontos szempont, de maga a teszt procedurális, tehát minden ami megjelenik matematikai képletekkel lesz kiszámolva, tehát a GPU-t is terheli, mert compute shaderek futnak rajta, akár párhuzamosan. Ezzel számít a számítási teljesítmény és a sávszélesség is, illetve a compute parancsprocesszorok teljesítménye. Ez nem csak egy szimpla front-end teszt. Ráadásul az új verzió már nincs hat magra limitálva DX12-ben, mert kijavított az MS ezt a bugot.
-
proci985
MODERÁTOR
nem, a problema, hogy nem lehet kapni a Fury Prot. be sincs indexelve az itteni webshopokban. sehol.
mondjuk Fury Xbol is egy boltot talaltam, ahol irnak idopontot mikorra lesz szallitmany. juli 31et irnak.
390x meg lehet erdekes, de csak es kizarolag ha epeszu hutessel szerelik a gyartok.
290x egyebkent lassan kifogy, 390xet elkezdtek akciozni (ma megvolt az elso 400 euro alatti fecske), normalis hutovel szerelve ez meg erdekes lehet. vagy megint orulhetnek az EKnal es az Aquacomputernel, mint anno a 290x rajtnal.
-
rocket
nagyúr
Az biztos, nagyon suru teljesitmenyben AMD haza tajan a mezony a 290x felett, es meg jon a Nano is
A 290/290x mar reg kiufott termek kene legyen, tavaly december ota nem gyartjak a GPU-kat, elkepeszto, hogy ennyi ido alatt,nyomott aron se tudtak meg mindig kiszorni a keszleteket.
Ebbol azert kilehet venni mekkora az AMD brand erteke, es milyen megitelesnek orvend a 290/290X. -
Abu85
HÁZIGAZDA
A Hynixnak igazából az a jó, ha minél többet rendelnek. Ők szívesen kiépítik a gyártósorokat, mert nekik ez nem probléma. Az a probléma, ha kiépítik és utána nem üzemelhetnek. Ők már korábban is beszéltek arról, hogy a HBM annyira bonyolult, hogy a HBM2-vel nem éri meg kezdeni. És ezt egy csomó cég meg is értette és HBM1-gyel indítanak. Ezért is érhetők el a HBM1-es minták. Ettől még lehet a HBM2-vel kezdeni, de a Hynix nem hajlandó felvállalni a termékskála törlésének kockázatát, mert az azt jelentené, hogy kiépítették a gyártósort a megrendelőnek, de az nem fog működni. Úgy biztosítják magukat, hogy igenis a megrendelést el kell vinni, akkor is, ha azt a megrendelő kidobja a kukába.
-
Venyera7
senior tag
-
Abu85
HÁZIGAZDA
Igazából az AMD sok információt nem oszt meg. A vállalat szerint az IT sajtó színvonala összeomlott az elmúlt években és próbálnak mindent egyszerűen megmagyarázni, hogy a nagy számú abszolút képzetlen újságíró is megértse. Na most itt az a gond, hogy így elindulnak a spekulációk, és ami a legnagyobb baj, hogy a média trehány lett általánosságban, és több oldal már a helyreigazitasokat sem teszi közzé. Egyszerűen azért, mert romlana az oldal megítélése a hozzáértés megkérdőjelezésével. Egyszerűen elfogadják, hogy fullba nyomják a hírekben a kretént mert arra nagyon kis számú olvasó jön rá. Ellenben a full spekulációk még teljesen tévesen is kattintásvonzók.
-
Abu85
HÁZIGAZDA
Van és lesz. Világosan elmondta a linkelt videóban Huddy, hogy a LiquidVR nem működik nélküle. Tényleg nem bonyolult, ami történik, csak el kell olvasni az AMD blogjában a közleményeket, vagy meghallgatni ezt a videót. A cél a problémamegoldás. Ha van valami probléma, amire nincs szabványos válasz, akkor az AMD azonnal csinál rá sajátot. Két éve az overhead volt a gond, most a VR lesz az. Ezek persze idővel kikötnek a szabványban, de annyira lassan reagálnak a szervezetek a piac változásaira, hogy az AMD nem akarja megvárni azt a 2-3 évet, amíg egy adott problémát megoldanak. Megoldják maguk a többiek pedig ráérnek évekig trécselni az ARB-ben és a GAB-ban. Bár nyilván az, hogy az AMD egy adott problémára megoldást kínál lényegében radikálisan felgyorsítja a szabvány megszületését, mert hirtelen mindenkinek érdeke lesz tartani a lépést.
Az lenne a meglepő, ha te nem ismernéd.
Viszont az gond, hogy sokan nem ismerik, és beszélni senki sem beszél róla. Erre akartam reflektálni. Egyszerűen húzzuk az időt, de egy év múlva sem lesz könnyebb elmagyarázni a vásárlóknak, hogy mik a hátrányok, ezek miért keletkeznek, és mit lehet ellenük tenni.
-
Abu85
HÁZIGAZDA
Az a legnagyobb kérdés, hogy mi alapján ítélünk, amit a média ír, vagy amit az AMD mond, mert az AMD a Mantle-ről ezt mondta az E3-on. [link] - 6. percnél kezdődik. Konkrétan kijelentették, hogy a Mantle célja olyan problémákat megoldani, amelyeket a szabványos API-k nem oldanak meg. Ez korábban volt a small batch probléma, illetve az egész többletterhelés megszüntetése a hatékonyabb kihasználással. Ezt az elkövetkező fél évben a szabvány is megoldja. Az új probléma a VR, amire ott a LiquidVR, ami a Mantle-re épül. Valószínűleg 2017-ben erre az irányra is lesz szabványos megoldás, de addigra lesz megint pár probléma, amire az AMD-nek lesz megoldása azonnal, és két éven belül az egész átmegy szabványba.
Amit egyébként a média írt ezzel kapcsolatban, hogy a 300-as szériára és az új Radeonokra nincs Mantle az nem igaz. Van Mantle és működik. Még a 15.7-es meghajtóban is frissült, támogat minden GCN-es Radeont. Amiről szó van, hogy a BF4 nem támogatja hatékonyan a GCN3-at, és ehhez a játékhoz nem készült javítás, de minden más játék támogatja ezt az architektúrát, még az újabb Frostbite-osok is. És ez egyébként nem a Mantle hibája, hanem maga az explicit API jellegzetessége. Egyszerűen egy új architektúra még kis változások mellett is lassulásokat hozhat egy olyan programban, amelyet nem optimalizáltak arra az architektúrára. Ez így lesz a DX12-vel és a Vulkan API-val is. Kijön egy DX12 és Vulkan játék, és nem biztosított, hogy mondjuk a Pascal és a GCN4 jobban fogja futtatni, mint a Maxwellv2 vagy a GCN3, vagy minden korábbi architektúra. Ez az explicit API hátránya. Persze valamit valamiért. Sajnos vagy rossz hatékonyságú lesz a rendszer, de kiszámítható, vagy jó hatékonyságú, de kiszámíthatatlan. Átmenet nincs. Szerintem ez az ami még a média nagyon nagy részének egyáltalán nem esett le.
Igazából az MS, illetve a Khronos Group sem hirdeti nagyon, hogy ez egy reális probléma. Nyilván miért is mondanák el, magára a piacra nézve problémás az explicit API-k egyetlen hátránya, mert bőven előfordulhat, hogy váltanál új VGA-ra, de éppen a kedvenc játékodban lassabb, mint ami épp a gépben dolgozik. Ezt egyébként valamikor el kell kezdeni kommunikálni, mert szerintem sokkal rosszabb lesz, ha a PC-s vásárlóbázis önmaga jön rá erre, de nyilván komoly kérdés, hogy hogyan kommunikáld le a piacnak, hogy az új API-kkal az újabb VGA-k nem feltétlenül lesznek gyorsabbak, függetlenül a TFLOPS-októl és a GB/s-októl. Ezt az információt nagyon nehéz pozitívan átadni.
-
-
MiklosSaS
nagyúr
Egy angol bolt szerint hihetetlenul keves Fury X van elorendelve. KB a vartnak csak a 45-50 %-a, es meg mindig nem lehet kapni....csal elorendelni.
Sajnos 4-5 nap alatt nem volt annyi elorendeles a Fury X-bol mint par ora alatt a 980Ti-bol. Nincs ez igy jol, valami kellene csinalni. Remelem a Qualcomm komolyan gondolja a felvasarlast...
-
sayinpety
tag
Egy graphics, egy compute, egy copy queue celszeru. Hallottam tobb compute queue conceptrol, am nehez kivitelezni. Ket compute queue belefer, am ugyelni kell register allocationre. A shader csak 32 VGPRt hasznalhat.
GCN updatek folenye VRben nagy. GCN 1.0/Maxwell/Kepler nem eleg jo. Hawaii hatareset. Fiji es Tonga nagyon folyekony elmeny. Mashol kisebb kulonbseg lesz.
Nem tartom jo otletnek aszinkron compute pipelineok szamat novelni. Egy compute queue eleg. Registerekre figyelni kell. Tobb compute queue tul sok munkat igenyel.Igen. Virtual texture tileok benne vannak.
Nem. Az engine csak utasit allokalt terulet torlesere. A torlest WDDM es driver vegzi. Nincs befolyasunk felette. Explicit API mar mas. -
sayinpety
tag
Igen. Nagyon koltseges elavult PC APIkhoz igazodni. Az elavult driver model rengeteg penzbe kerul. Latjuk ha nem mukodik, am nem tudjuk miert. D3D12 olcsobb, mert vegre nincs tobbet kernel driver. Az engine atveszi a szerepet. Leegyszerusodik a hibakereses.
Biztosan nem kell azonnal minden D3D12 feature. R&D sem engedne meg. Elobb a problemakra kell megoldas. Multithreading, ExecuteIndirect, UAV Typed Load es asynchronous pipelining fontos. Tobbi feature kihasznalasara es innovaciora varni kell.
Velemenyem szerint D3D12 nagyon jo, am a HLSL IR rossz. MS bytecode optimizer vec4 alap, ma mar sok kart tesz. Mai driverek resze a reverse optimization. Xbox One shader complier mar sokkal jobb. 40%kal gyorsabb kodot fordit az MS bytecode optimizer hianya. PCn a D3D12 nem segit shader forditason. A SPIR-V jo lenne, am MS nem akarja tamogatni. Nem ertem a strategiat. Szerintem par MS engineer beleszeretett a HSAba. C++ AMP>HSAIL forditas kivalo otlet, en tamogatom, am nem minden IHV tamogatja.
Velemenyem szerint SPIR-V a jovo. Mindenki tamogatja, Vulkan API jon, OpenCL C++ tokeletes shader nyelv.
RRC nem befolyasolja hardware teljesitmenyet. Kevesebb loading screen lesz. A loading screen a kiadonk szerint megtori a jatekot. Tobb kutatast vegzunk a loading screen eltuneseert. -
rocket
nagyúr
Mi fontos az AMD-nek az egy dolog, a masik dolog, hogy a jatekfejlesztok nagy tobbsegenek mi a fontos, es az inkabb a dvga piac 78.5%-a, es nem a 21.5%
Piac kisebb reszere valo fejlesztest AAA cim eseteben nem tud az AMD ellensulyozni anyagilag, erre akkor se volt kepes, amikor ~35% piaci reszesedese volt, es jobban alltak anyagilag.
Lesz aszinkron shader PR jatek az Ashes of the Singularity, de ez elore boritekolhatoan annyi vizet fog zavarni, mint anno a Stormrise dx10.1 kapcsan, lesz ~5 oldal aki a teljesitmenyt teszteli, 2-3 napig tema lesz, elhappolnak az NV orra elol kb. 1000 vasarlot, aztan feledesbe merul a jatek.
Nagy az esely kirakat feature marad a gcn 1.x kartyak piaci hoditasa alatt az aszinkon shader, mert azt nem lehet senkitol elvarni, hogy sajat potencialis eladasait kanibalizalja, meg akkor se, ha elmeletben az AMD innovativabb torekveseit tamogatja.
-
sayinpety
tag
Igen. D3D12 nagyon erdekes mobile projecthez. Overhead csokkentese uzemidot noveli. Van iOS es Windows 10 mobile side projectunk. Metal es D3D12 haromszorosara novelte az uzemidot OGLES/D3D11 rendererhez kepest.
AAA % nem tudok. Aki teheti valt! Sokkal olcsobb D3D12re portolni. Ma minden console engine runtime resource creation elvu, am ez nem mukodik D3D11en. Ennek atirasa sok ide es penz. Explicit APIval csokken a kockazat, sokkal kevesebb lesz a rossz port. Kiadok a D3D11 legnagyobb ellensegei. Tul sok penzbe kerul.
-
rocket
nagyúr
Valoban az olcso gagyi jutott az ember eszebe a referencia HD4850 huteserol, en raktam is ra Accelero S1+-t, 2darab 120mm-es ventivel
Keresgeltem a kepet a forumon kartyamrol, de toroltek (pedig nagyon jol nezett ki a kicsi kartyan a nagy borda, meg a 2 nagy Thermaltake piros lapatos venti), erdekes dolgokra bukktantam HD4xxx sorozat kapcsan ~7 evvel ezelottrol
"Dave Baumann@AMD:
"Something that hasn't been noted yet is that EA and SEGA are signed on with us for DX10.1 titles, we've also signed a fairly major deal with Blizzard." -
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
-
HSM
félisten
Ez volt vele a tapasztalat... Főleg ha kicsit jobban megdolgoztattad a CUDA alatt, elég hamar bedobták a törülközőt. Elég sokan fel voltak emiatt háborodva, elég ciki, ha elszámolja magát rendszeresen a VGA. Bár játékok alatt nyilván nem volt olyan könnyen észrevehető a dolog.
Hát nem tudom, nekem volt 3870-em, és előtte egy 8800GTS-em, 320MB-os, a jó öreg G80-as maggal, és egyáltalán nem volt gondom utána a 3870-el, szépen vitt mindent. Utána 4850-et vettem, és őszintén szólva fel sem merült bennem semmiféle G92 származék, mint alternatíva, és nem az áruk miatt.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Csere-Beszámítás! Sapphire Pure RX 7700XT 12GB GDDR6 Videokártya! Bemutató Darab!
- ASUS GeForce GTX 1070 Ti 8GB GDDR5 256bit
- Garis ZOTAC GeForce RTX 4070 Ti Trinity 12GB GDDR6X videokártya
- Csere-Beszámítás! Asus Prime RTX 5060Ti 16GB GDDR7 Videokártya! Bemutató darab!
- 3 hónapos Sapphire NITRO+ AMD Radeon RX 7900 XTX Vapor-X 24GB, még 33 hónap garanciával
- Nvidia Quadro M2000/ M4000/ P2000/ P2200/ P4000/ P5000/ RTX 4000/ RTX A2000 / RTX A4000
- Csere-Beszámítás! RTX Számítógép játékra! I5 13400F / 32GB DDR5 / RTX 4070 Super / 1TB SSD
- Dell OptiPlex MT/SFF 3040, 3050, 7050, 3060, 3070, 5070, 7060 /WIN 11 - SZÁMLA- GARANCIA
- Samsung Galaxy S22 Ultra 128GB, Kártyafüggetlen, 1 Év Garanciával
- BESZÁMÍTÁS! Samsung Odyssey G5 32 144Hz WQHD 1ms monitor garanciával hibátlan működéssel
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest