Hirdetés
-
Jövő hónapban érkezik Apple eszközökre az Assassin's Creed: Mirage
gp Az előzetes információk szerint a játék első 90 perce ingyen elérhető lesz bárki számára, a teljes verzióért természetesen fizetni kell.
-
Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
it Egyre nagyobb probléma az AI hallucinálása – most az osztrák adatvédelmi hatóság veheti elő a ChatGPT miatt az OpenAI-t, alapvetően a GDPR megsértése miatt.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Mobilarena
nVidia GeForce GTX 970 / 980 (GM204)
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz ooooobi #1332 üzenetére
A VR Direct nem kötődik az új kártyákhoz. Az egy univerzális csomag bármelyik GeForce-hoz. Elsődlegesen azért kellett, mert az Oculus csomagja nem GeForce-ra van optimalizálva. Bár most már ezt is elkezdték, de az NV csinált hozzá egy saját csomagot.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz bombibmw #1370 üzenetére
Ez csak egy alapvető fícsőr hiánya. Az a játék konzolon alkalmaz streaminget, míg PC-n nem. Természetes, hogy így a PC-s memóriaigény sokszorosa a konzolosénak. Ha PC-n is működne a streaming (és ennek elméletben semmi akadálya), akkor itt is bőven elég lenne 2 GB. Ha úgy tetszik, akkor ez az optimalizáció hiánya.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem néz ki rosszul, de tény, hogy egy tíz éve is alkalmazott alapvető memóriaoptimalizálás nincs engedélyezve PC-n, amit ma szinte mindenki használ, mert sokszorosan csökkenti a memóriaigényt. Valószínű, hogy a QA alatt jött elő valami hiba, ami miatt ezt a funkciót PC-n kikapcsolták, mert a PS4-en látszólag hibátlanul működik.
Az OIT sem segít a memóriaigényen. A PPLL adatstruktúra Full HD-re nem lesz kicsi. Erre is lehetne használni más megoldást. Akár az UAV orderinget, amit a konzolon használnak. Ez töredék memóriaigényből, legalább ötször gyorsabban megcsinálja az OIT-t.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz bombibmw #1378 üzenetére
A streaming hiánya PC-n abszolút érthetetlen. Valószínű, hogy a tíz éves motor megnehezíti a fejlesztést, de ez egy megoldható probléma. Nem kizárt, hogy egy patch-ben kijavítják azt a hibát, ami miatt ma még nem aktív a streaming és utána engedélyezik PC-re.
Az OIT-t elhiszem, hogy az nehezebb ügy. Egyrészt egy szabványos PPLL implementáció biztos kell. A jobb sebességért kell egy PixelSync opció Intelre, a GM204-re talán az NVAPI-n keresztül hackelhető valami, míg a GCN-re át lehet hozni a konzolos eljárást a Mantle-ben.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz csibuka85 #1382 üzenetére
Nem hiszem, hogy a hardvergyártók érdekei ebbe beleszólnak. Leginkább az a gond, hogy a PC-s büdzsé töredéke a konzolosnak az optimalizálás szempontjából.
Az optimalizálást persze kiadó válogatja. Amennyire én hallom az EA és a Square Enix messze többet költ bárkinél a PC-s optimalizálásra. Főleg a Square Enix esetében látszik meg ennek az eredménye, hiszen egy stúdiójuk csak azért létezik, hogy PC-re portoljanak. Az EA is kezd erre a modellre átállni, amiért létrehozták a Frostbite Teamet, bár nekik sokkal több dolguk lesz.
A legtöbb kiadó viszont annyira nem foglalkozik a PC-vel. Sajnos nem éri meg. És hát a Warner éppen a rosszabbak közé tartozik.
A Zenimax próbál még a PC-vel törődni, de Carmack az id tech 5-tel egy olyan motort hagyott rájuk, ami nem jól működik PC-n. Ez ugye pech.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz akoska07 #1384 üzenetére
Azért nem hiszem, mert a legtöbb kiadó a lehetőséget sem adja meg a PC-s optimalizálásnak. Ezért sem kell senkit meggyőzni, hogy legyen nagyobb gépigény. Ezt szimplán az garantálja, hogy a PC-s büdzsé a tizede sincs a konzolos büdzsének. Tisztelet a kivételnek, lásd Square Enix és EA.
Persze minden nagy kiadó helyzete egyedi, más problémákkal küzdenek. Amivel enyhíteni akarnak a gondokon, hogy saját maguk fejlesztik a motort és minden játékhoz azt használják. Ez egy jó stratégia lehet, de idő kell hozzá, hogy eredménye legyen.Az biztos, hogy a gépigény problémáját leginkább a rendelkezésre álló pénz befolyásolja, amiből a PC sokszor keveset kap.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ez nem olyan egyszerű a fejlesztő számára, mert sok esetében nem saját kódot fejlesztenek, hanem kérnek egyet. Ha az NV-től kérik, akkor az egy igen bonyolult szerződés része lesz, aminek sokszor az az alapja, hogy a működést a fejlesztő nem befolyásolhatja, vagyis el kell fogadniuk olyannak, ahogy fut. Ezért volt például a HAWK 2 esetében az a balhé, hogy az AMD vitt az Ubisoftnak egy gyorsabb és jobb minőségű eljárást a terep leképzésére, de nem tudták beépíteni, mert a szerződésük kizárta ennek lehetőségét, tehát a lassabb és rondább effekttel kellett szállítani a játékot. Ez úgy jött le, hogy az Ubisoft egy köcsög, de valójában nem tehettek semmit, egyszerűen nem akartak milliókat fizetni az NV-nek szerződésszegésért.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz csibuka85 #1388 üzenetére
Mert az LA Noire felvett arcmimikával dolgozott, vagyis muszáj volt fixen harminc jelenetet számolni másodpercenként. Másképp nem működött volna az arcmimika. Ezzel nem tudnak mit tenni, a technológia amit használtak megkövetelte a limitációt.
A Max Payne 3 nem volt olyan rossz.(#1389) Keldor papa: A játékeladásaik 1% PC-s. Mi lehet ennél károsabb?
A konkurenciának nincs ajánlata. Az Intel és az AMD is nyílt forráskódú eljárásokat kínál. Az AMD annyit kér, hogy ha használod, akkor írd meg nekik levélben, hogy mire és melyik programokban. Az Intel még ennyit sem.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz csibuka85 #1392 üzenetére
Csak egy hack volt a 60 fps-hez, de az annyit jelentett, hogy a PC egy jelenetből két ugyanolyan képkockát számolt. Attól, hogy 60 fps-t írt ki a FRAPS még ugyanúgy 30 egyedi képkockát láttál másodpercenként. Ugyanezt a trükköt használja majd a The Crew.
(#1391) akoska07: Nem akarlak meggyőzni a konzolról. Egyszerűen tény, hogy a kiadók arra költik a pénzt. Nagyrészt ezért látsz a szükségesnél nagyobb gépigényeket PC-n. Tisztelet a kivételnek.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Semmitől. Pont ez a lényeg. Ez egy tíz éves motor, amire sajnos a kiadott játék PC-s portja úgy lett elkészítve, hogy az évek óta alkalmazott optimalizálási eljárások inaktívak. Ha ezek PC-n is működnének, akkor 2 GB-nyi VRAM is elég lenne. Egyértelműen egy programozással kapcsolatos problémáról van szó, hiszen elméletben nincs semmi akadálya, hogy a program PC-n is használja azokat az optimalizálásokat, amiket konzolon amúgy használ.
Kapásból fel lehet hozni ellenpéldának a Sherlock Holmes: Crimes & Punishments játékot. Most jelent meg, textúrákban aláz és az átlag VRAM igénye 1 GB.
(#1402) Zorel: Ráadásul AFR-t nem is támogat a játék, tehát az SLI és a CF nem működik. Még a notebookokon is az IGP-n fut, akkor is, ha van dedikált GPU-d.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz hitman, #1622 üzenetére
Hát, akkor azért nincs detektálás, mert az Intel driverét bugosnak ítéli. Látható, hogy hol a hiba a GPU-Z-nél. Elég alap program, ami nem képes detektálni több OpenCL driver, ha az első detektált driver bugos.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ugyanaz a probléma, mint a többi downsampling cuccnál. A HUD és a célkereszt annyira pici lesz, hogy nem látszik egy Full HD-s 22-24 colos kijelzőn.
Ez az egész downsamplinges dolog csak akkor fog jól működni, ha beépítik a játékba, ahogy a BF4 is tette, és nem skálázza a HUD-ot és a célkeresztet.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Kicsi az esélye, hogy a binding modell változzon. A TIER1 kell a kevésbé fejlett hardvereknek, a TIER3 kell az Xbox One-nak. Maximum a TIER2 szintet törölhetik, de ha már elfogadták, akkor nincs értelme megtenni. Az NVIDIA biztos nem rajongana az ötletért, hiszen nekik készült. A többieket pedig nem különösebben érdekli. Az erőforrás érvényesítésénél úgyis le kell kérni a TIER szintet, tulajdonképpen mindegy, hogy három vagy két opció van.
A támogatás kérdése pedig mindig is adott volt. Minden DX11-es hardver jó lesz DX12-höz egy új driverrel. Maximum a futtatott effektek tekintetében lesz eltérés.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz BomiBoogie #4238 üzenetére
A volumetrikus köd és a négyszeresére növelt látótávolság azért eléggé fájdalmas újítás a GPU-knak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A CIV6-nak van egy detektálási bugja DirectX11-ben, így bizonyos konfigokon szimplán nem tudja kiolvasni a felbontást, és a default profilt tölti be. Innen jön a te alacsony felbontásod. [link] - itt egy gyorsfix rá, lényegében egy egyszerű edit az egész. Később jön egy hivatalos patch.
A Mantle rendert nem ugyanaz az ember írta, aki a DirectX 11 rendert. A kettőnek nincs köze egymáshoz. Ez egy szimpla DirectX 11-es detektálási bug a játékban.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Akkor csináld manuálisan.
C:\Users\[computer name}\Documents\My Games\Sid Meier's Civilization Beyond Earth
Ide rakja az ini fájlokat. A GraphicsSettings.ini a felbontást tartalmazó állomány. Ott írd át. Viszont így ki kell majd raknod a játékot ablakos módba. Ez lehet keret nélküli is. Full screen módban a felbontás visszavált.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz gainwardgs #4864 üzenetére
Nagyjából +4-5% van az új kártyáknál, míg a többi 2-3%-ot javult, de ennyit már kaptak a Radeonok is az új béta driverrel.
Ahhoz, hogy helyre álljon a világ rendje meg kell adni a Cryteknek, amit akarnak, mert ma már nincsenek jó anyagi helyzetben, így nincs kapacitásuk a reserve engineeringre a GeForce-oknál. Ugyanaz a bajuk, mint amit az OGRE motor fejlesztője leírt itt: [link]
A Cryteknek általánosan vissza kellene lépnie az egyik gyártói partnerprogramba. Ha nem akarják az NVIDIA feketedobozait használni, akkor a Gaming Evolved is segítség, mert az AMD tudja hogyan kell a GeForce-okra optimalizálni. Ma nagyon sok játékhoz ők írják az NVIDIA-hoz a kódot, sajnos a Ryse nem tartozott közéjük, azért lassú GeForce-on.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Szeretném felhívni a figyelmet, hogy itt van egy NV vs. AMD topik, ahol ezeket a diskurzusokat úgy lehet megbeszélni, hogy nem veszélyezteti a moderáció, ugyanis megszaporodott az egyet nem értés ebben a topikban, ami nem baj, de máshol kellene ezt megvitatni.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #5698 üzenetére
Még mindig sok ezzel kapcsolatban a félreértés. [link] - bele kell számolni, hogy az input lag önmagában nem egy állandó paraméter, hanem függ az fps-től. És mivel jellemzően 100 fps feletti a cél a játékosoknak a BF4 multiban, így a 5 frame pre-render nem számít. Ha 30 fps-re lemész, akkor valószínűleg érezni lehet.
Fontos, hogy a DX-hez hasonlítsuk ezt és onnan a 3-ról 5-re ugrás nem nagy dolog. A low-level API nem korlátozza a GPU kihasználását így ott lehet 1 frame pre-rendert alkalmazni, mert így is meglesz a sebesség.Technkai alapként itt leírtam, miért alakult ki az előre felpufferelés a mai driverekben.
Az hibás nézet, hogy azt mondjuk, hogy 5x az input lag, mert ez nem fix paraméter.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Már nem nagyon lehet sajnos. Az új driverekben ez a paraméter több új program esetében is le van zárva. A régi programokra még használható. Egyébként lehet akár 8-at is kérni, csak az már nem ideális.
Ez azt csinálja, hogy a képszámítás csak akkor fog elkezdődni, ha előtte a driver összegyűjtötte a beállított értéknek megfelelő API parancsokat. Ha három a pre-render, akkor a képszámítás akkor kezdődik, ha már három jelenetet előre kiszámolt a számítógép és az API parancsok mindhárom jelenethez fel vannak pufferelve. És így tovább megy az egész három jelenetes lépcsőkben. A 3-as pre-render érték a standard, amit nagyon jellemzően alkalmaznak a gyártók, de ritkán 2-t, 4-et is bevetnek, és nagyon ritkán az 5-höz is nyúlnak. Minél több a pre-render annál jobb a GPU kihasználhatósága, vagyis annál jobb a sebesség, viszont annál nagyobb az input lag.
Ezt majd a low-level API-k eltüntetik, mert az alkalmazás fogja beállítani, hogy mennyi legyen a pre-render. Jellemzően 1 lesz.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #5712 üzenetére
Önmagában nem értékelhető ez a paraméter. Ha már fps-t is írsz mellé, akkor válik értékelhetővé.
Valaki érzékeny erre a tényezőre. Nem mindenki. Ez tényleg egyéntől függ. Ki kell próbálni ahhoz, hogy észrevedd az érzékenységed. Volt már aki mondta a másik topikban, hogy érzi. Ha nem érzed, akkor nem vagy rá igazán érzékeny.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Maga a paraméter a driverből nem került ki. Ott van, csak nem teszik módosíthatóvá, így az egyes játékokhoz az adott gyártó dönti el, hogy milyen pre-render értéket használ. Ezt azért zárták így le, hogy te ne módosíthasd, mert a mai komplex motorokban a mai GPU-k kihasználása időnként extrémgyenge. Lehetnek olyan szituációk, ahol 30%-os terhelés sem érhető el. A hardver 70% egyszerűen pihen. Erre az esetre nagyon hasznos funkció, hogy legyen akkor több előre kötegelt jelenet, és akkor a hardver kihasználása nő, tehát több lesz az fps.
Az, hogy mi a megfelelő egyensúly egy ideológiai kérdés. Tíz év alatt sokat változott a világ, mert kezdetekben az 1 pre-render volt az alap, majd a 2000-es évek elején elkezdték alkalmazni a 2-t, majd most a 3-at. A gond, hogy az fps-re vonatkozó hajsza lassan felülírta a többi tényezőt, és már a 3 is kezd kimenni a divatből, vagyis jön a 4 és az 5, mint paraméter. Szerencsére ennek már nem lesz ideje kiteljesedni. A low-level API-kkal ez a beállítás teljesen kikerül a driverekből, és a fejlesztők eldöntik, hogy az adott játéknak milyen pre-render a jó. Mivel a konzoloknál 1-et használnak, így ez a paraméter át fog csúszni a PC-be is. Az új API-k pedig a kihasználás szempontjából eleve sokkal jobbak, tehát olyan nem lesz, hogy csak 30%-os lesz a hardver terhelése. Okafogyottá válik az input lag növelése, mert kevés extra sebességet fog hozni a DX12-vel és ezzel az egész új iránnyal.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz huskydog17 #6009 üzenetére
Ez egyrészt jó, de ma már nem sokat ér, mert a driverek az 1-et és a 2-t felülbírálják 3-ra hiába állítod be a programon belül.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz huskydog17 #6017 üzenetére
Felülírja a driver a beállítások egy részét. Nem tehetsz ellene semmit.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz huskydog17 #6023 üzenetére
Pont azért nincs hatása, mert a driver nem engedi, hogy változzon a default beállítás.
Régen volt értelme mert még működött, ma már elvették a driverek a beállítás lehetőségét. Majd a low-level API-kkal ez megváltozik, mert ott a driver már nem befolyásolhat semmit.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az IDF mellé az AMD mindig csinál egy saját rendezvényt az utca túloldalára. Ott volt kipróbálható.
A 14.7-es RC3-as driverben már ott a GTA5 profil: gta5\\*Game_win64_final.exe, gta5\\*Game_win64_release.exe, gta5\\*Game_win64_bankrelese.exe, gta5\\*Game_win64_beta.exe
Jó ideje kész van a PC-s port, csak optimalizálják tovább.
Egyébként az, hogy az AMD már megmutatta nem jelent rögtön Gaming Evolved partnerséget. A Rockstar annyira ebben nem érdekelt, de praktikus társulni, mert pár utcasarokra vannak az AMD UK ISV support központjától. Ráadásul a konzolban is tudnak segíteni. Ez lehetett a Rockstar fő szempontja.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #6869 üzenetére
Ez abból a szempontból kisarkított nézet, hogy például a Cod AW-re a Catalyst már szeptemberben tartalmazta azt az optimalizálást, ami most került bele a Geforce driverbe. Mivel az AMD már nem ad ki drivert havonta, így másfél hónappal a kiadás előtt ott vannak a profilok az érkező játékokra. Azok maximum kiegészülhetnek, ha mégsem jó, de általában azok szoktak lenni. A GTA5-re is nyár közepe óta ott a profil, ami várja a januári startot. Ezért nem látsz Game-Ready Catalyst drivereket, hamarabb benne van a profil, minthogy a játék megjelent.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Itt az a különbség, hogy az AMD azt csinálja, amit az NV csinált 2010 előtt. Odaköltöztek a fejlesztők mellé és sokkal korábban látják a forráskódot. Az NV viszont már nincs a fejlesztők közelében, mert mostantól nem segíteni, hanem vezetni akarják őket. Ezért van az NV-nek egyre több Game-Ready drivere, mint a régi Catalystes időkben, míg a Catalyst esetében korábban ott van a profil, ami ha jó, akkor nem kell frissíteni. Ezért van ritkábban driver, mint a régi NV-s időkben. Természetesen, ha nem jó a profil, akkor érdemes cserélni, de ha jó, akkor semmi gond.
(#6872) daveoff: Cache sun és cache spot shadow maps OFF. Ez egy játékbug. Nem ezen fognak optimalizálni, hanem a HBAO+ shadert cserélik le legközelebb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Írtam, hogy lecserélik a HBAO+ shadert. Ezt már októberben kész volt. Más nem változott. A profilok eddig is ott voltak a 14.9-ben. Az AMD korábban látja a forráskódot, mint az NV. A HBAO+ esetében ezt nem láthatják. Ezért cserélték le a shadert.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Mivel lecserélték a HBAO+ shadert. Ez okozza a teljesítmény növekedését. Mindig így lesz mostantól. A régi shader már nem volt jó, mert a GameWorks DRM-je megváltozott, így újra vissza kellett fejteni.
A GTA5-ben nem lesz zárt, DRM-mel védett kód. Ott eleve a konzolból hozzák át a fejlesztők a shadereket. Ezzel nincs munkája az AMD-nek, mert a konzol shader eleve jól fut náluk.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #6952 üzenetére
Ilyenből ezernyi példa van. A tesztekben meg ez a helyzet. [link] - ezzel nem tudsz mit tenni. Lehet, hogy ráküldte az SSAA-t, mert MSAA-nak értelmezte. Azzal valóban elég sokat esik a sebesség, de ez ugye SSAA.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #6956 üzenetére
A multi az főleg a processzortól és a rendszermemóriától függ. A GPU-ra nem ró nagyobb terhet. Sőt, a COD: AW kisebb teher, mert némileg butított a multis grafika dizájnja. Kevesebb dinamikus fény és hasonló bevált trükkök.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Skinny26 #7033 üzenetére
Jobb minőségű alkatrészeket kell használni és esetleg ahhoz tervezni egy jobb PCB dizájnt.
Mint felhasználó neked a gari az opció. Addig cseréltesd, amíg jónak nem érzed.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz csibuka85 #7131 üzenetére
Mert a Hynix pár hónapja úgy döntött, hogy mindenkit kizár a fejlesztésből, és csak az AMD-vel fejezik be a HBM-et. Ezt azért tették, hogy még idén megkezdhessék a tömeggyártást, mert ha a többiekkel fejezték volna be, akkor legalább fél évet csúszott volna ez a projekt. Az NVIDIA-nak is lesz ilyenje, de csak 2016-ban, mert ők nem vehettek részt a fejlesztés utolsó szakaszában. Enélkül nem fogják megcsinálni az első implementációt, mert egy év hátrányuk van a kutatás szempontjából.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Reggie0 #7141 üzenetére
Nem arról szól ez. Ez a 2.5D stacking eléggé nehéz ügy. Nem akar itt a Hynix senkit sem háttérbe szorítani, de borzalmasan nehéz az egészet implementálni, és ezért inkább egy gyártót választottak ki. Velük megcsinálják, és akkor már lesz tapasztalat. A második körre meg a többiek is felkészülhetnek. Ez nem valószínű, hogy csak a Hynix döntése volt. Az adott partnernek is vállalnia kellett. Az AMD azért volt logikus, mert együtt csinálták az egészet végig, vagyis senki más sem tud többet erről, mint a Hynix és az AMD. Ha ezt 2016-ban teríteni akarják ténylegesen alázós termékként, akkor muszáj volt egy picit bezárkózniuk. Ezt minden partner megértette. A másik lehetőség az volt, hogy csak 2017-ben lesz belőle alázós termék.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #35434496 #7143 üzenetére
A Samsung a HMC-t támogatja. Az lassabb mint a HBM, ezért sem a HMC-t választotta az NV a Pascalhoz. A HMC egy Micron-Samsung-Intel kooperációs rendszer. A következő Xeon Phin lesz rajta először, de jelenleg lényegesen rosszabbul áll a fejlesztés, mint a HBM, mind teljesítményben, mind elérhető kapacitásban. Egyedül a tényleges fogyasztásban jobb. De ha effektív nézzük ezt, akkor a HBM energiahatékonyabb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A legtöbb játék ma már nem támogatja az MSAA-t, szóval az MFAA sem fog működni. Azok a játékok jók, amelyek képesek az MSAA-ra, de ebből egyre kevesebb van.
(#7180) bandi0000: Ezt a DirectX 12 nem teszi kihasználhatóvá. Szóval az új API-val ez a lehetőség pont, hogy megszűnik. De számos régebbi játék támogat MSAA-t. Driverből kényszeríteni kell és menni fog az MFAA.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az MSAA-t mindegyik hardver támogatja, csak a játékok többsége ma deferred render, amihez deferred MSAA is kell. Ezek nem működnek tökéletesen. Ezért mondom azt, hogy az MSAA ma haldoklik. A fejlesztők is kezdenek áttérni a post-process és az analitikai megoldásokra.
Egyébként az MSAA-t kell kiválasztani az MFAA-hoz, de mint írtam az MSAA-t támogatnia kell az adott játéknak, másképp az MFAA kényszerítése sem működik.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cseneles #7694 üzenetére
És ha nem lesz profil? Nem olyan egyszerű az egyre komplexebb motorokon AFR-t kényszeríteni driverből. A fejlesztők már nagyon mennének a temporális technikák felé, amelyek ellehetetlenítik az AFR működését. A régi SFR kényszerítése pedig régóta nem opció, mert a mai játékok rengeteg multi-pass és/vagy offscreen trükköt használnak. Ez az irány is el van torlaszolva.
Az ilyen kényszerített multi-GPU rendszereknek teljesen vége. A megfelelő működéshez mostantól kell az API oldalán a direkt támogatás jó QoS-sel. Ez egyébként most is reális irány, hiszen a fejlesztők direkten megkapnák/megkapják a kontrollt az összes kártya felett.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cseneles #7703 üzenetére
Csak ugye a Far Cry 4 PC-s portjából két PS4-en bevetett új generációs technika teljesen kimaradt. Sokkal gyengébb occlusion és élsimítás van PC-re. Ez persze nem a multi-GPU hibája elsődlegesen, de például az amúgy zseniális HRAA működésképtelen lenne AFR-rel. Amellett persze, hogy három más akadálya is van, hogy ez PC-n szabványos környezetben megvalósuljon. Az MVDO valszeg PC-n is működhetne, csak párhuzamos futtatás nélkül szétzabálná az fps-t.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Cseneles #7714 üzenetére
PS4-re írták. Azért kapta meg csak a PS4 az Ubi új technikáit. Az Xbox One-ból is kimaradt a HRAA, bár ezt talán patch-csel pótolhatják.
Azt kellene már megérteni, hogy hiába sokkal erősebb a hardver, ha mondjuk egy multi-view algoritmust nem tudsz rajta párhuzamosan futtatni, mert egy ciklus alatt csak egy compute parancsot adhatsz PC-n, DX11-ben a GPU-nak. A PS4 64 compute parancsot képes fogadni egy ciklus alatt. Semmit sem számít a GFLOPS, ha nem tudod munkára fogni a feldolgozókat.
A HRAA pedig számos problémát vet fel. A DX11-ben nem olvashatod pixel shaderrel az LDS-ből a geometria információit, illetve a fedettségminták nincsenek definiálva ezen az API-n. A natív SAD utasítás csak opcionális, tehát egy csomó hardver nem támogatja. A lóerő megvan, csak nem tudod megírni működőre.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #7721 üzenetére
Az probléma, hogy egyik AA sem felel meg a Dunia igényeinek. Innentől kezdve kiugró minőséget egyiktől se várj. Az SMAA az post-process, természetes, hogy működik úgy ahogy. Az MSAA azért kell, mert ott a Hairworks és ez az effekt MSAA nélkül nagyon ronda, mert nem használ OIT-t és analitikai élsimítást. A TXAA pedig a szokásos. Mossa a képet nagyon.
Ezért tervezett az Ubi egy saját, HRAA megoldást teljesen a Dunia igényeihez, csak azt nem tudják portolni PC-re. Ezért belevágtak három olyan opciót, amely nem feltétlenül alkalmas a munkára, de legalább megvan a választás lehetősége.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz rappit4 #7733 üzenetére
A God Rays csak úgy belekerült, tehát a játék dizájnját nem ehhez igazították. Ezt azt eredményezheti, hogy bizonyos jeleneteknél a grafikát inkább rontja, mert a tervezésnél a dizájnerek nem számoltak azzal, hogy ez az effekt ilyen implementációban is elérhető lesz. Ettől érezheted azt, hogy valami nincs rendben az összhatásnál, hiszen nem erre tervezték a grafikát, hanem az Ubisoft saját God Rays megoldására, de azt nem kapta meg a PC. Ugyanakkor ez paraméterezhető, tehát később ezen még lehet állítani különböző patch-ekkel.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #7893 üzenetére
Be kell kapcsolni a driverben. És utána a támogatott játékokban be kell kapcsolni az MSAA-t. Akármelyiket. Az MFAA opcióval az MSAA mintavétele automatikusan feleződik, így gyorsul, de rosszabb lesz a minőség.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz daveoff #7896 üzenetére
Igen. Úgy kell csinálni ahogy írtad. A GeForce driver hírünkben benne van, hogy mely játékok támogatják.
A képminőség már változó. Igazából sok függ attól, hogy mit csinálsz a játékban. Az 2xMSAA előnye, hogy temporálisan stabil, vagyis ha nem mozdítod a kamerát, akkor mindig ugyanazt számolja. Az MFAA+4xMSAA(ezzel effektíve 2x mintavétel) temporálisan nem stabil, vagyis minden egymás után következő képkocka eltérő, akkor is ha nem mozdítod a kamerát. Tulajdonképpen minden páros és páratlan képkocka eredménye egyezik majd meg. Viszont változás mindenképp lesz csupán amiatt, hogy változnak a mintavételi pontok. De effektíve valóban nem lesz több mintavétel abban az összehasonlításban, amit felhoztál, tehát a minőség nagyon hasonló lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz bigdigit #7904 üzenetére
Ez teljesen normális. Ha visszaküldik a gyártónak, ők is vissza fogják csomagolni és újra eladják. A cicergés nem tekinthető funkcionális működést akadályozó hibának. Cserélik, mert három napos, de mindig el fogják adni másnak.
Vannak olyan gyártói statisztikák, hogy a visszaküldött kártyák 15-20%-a funkcionálisan hibátlan. Ezeket nem kukázzák, hanem letisztítják és újracsomagolják, még akkor is, ha két évet már ment valakinek a gépében. Ha esetleg valamilyen kis hibája van, ami javítható, akkor megcsinálják és úgy csomagolják újra.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.