- Honor 400 Pro - gép a képben
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Azonnali mobilos kérdések órája
- Íme az új Android Auto!
- Motorola Edge 50 Neo - az egyensúly gyengesége
- Mobilhasználat külföldön
- One mobilszolgáltatások
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Na! Ez egy JÓ utólagos autós fejegység - Minix CP89-HD
- Honor Magic6 Pro - kör közepén számok
Új hozzászólás Aktív témák
-
Ghoula
senior tag
válasz
#85552128 #6142 üzenetére
Külső fogyasztásmérőt használtam, az nem szoftver.
Ne tereljél
, elég a 4GB vagy sem? Nem az árat akarom összehasonlítani, sem a használni kívánt felbontást.
a "GPU jóval magasabb felbontásra is elég" alatt mit értsek? Elég a 4GB vagy sem, figyelembe véve a jövőbeni opciókat, lásd memória törlés, és a jelenlegit is, hogy lehet 3,5GB-al is futtatni a programokat? ( Maradék mehet a magasabb felbontás pufferének)Tehát az hogy ha le van írva X teljesítmény/erőforrás és valósan 7X/8 at kapunk az elfogadható?
Zerocore egyértelmű amd bénázás, nem vitatom bár engem nem sújtott sosem, legalább lehetne kikapcsolni, de hogy jön ide a boost? Tehát nv-nél teljesen elfogadott a specifikációtól való eltérés, míg amd-nél ha nincs leírva a pontos tdp akkor béna f***ok?Szerk: Igen, lehet írni, olvasni, de blokkolja a másik gyors szegmenst, akkor mire is jó? több szálon kell kezelni, hogy aszinkron menjen rá az írás/ olvasás, de az ne tartson soha több ideig, mint egy egy művelet a nagy partíción? Ha aszinkron shaderrel megküldjük a kártyát és teszem azt 10 szál fogja nyektetni írással olvasással a nagy particiót, mire fogod tudni használni a maradékot, hogy az ne lassítsa az előbbit?
-
Ghoula
senior tag
válasz
#85552128 #6134 üzenetére
És a valós mérések meg pont nem ezt mutatják:
alapfeszes, léghűtéses, tuning is kitolt TDP limittel, tehát az nem akadályozta a fogyasztásban.
firestrike peak fogyasztások, immár haswell-el mielőtt rárepültök, ez teljes gép fogyasztása.
furmark, prime és egyéb kombók bónuszként egy +100mV-os, emelt órajeles gta5, közel sincs meg a 300W
A tesztek mind +50% TDP-vel készültek, tehát vagy 375 az annyi, vagy 450, de mindegy is, mert azt szintetikus túlfeszelt nyúzással lehet csak elérni.
Persze ha a gyártó kiírja, hogy a tdp X de a custom bios-okban1.5X van és még azt is feljebb mókolják az emberek, hogy még feljebb menjen a boost (TDP throttling), akkor hogy jön ide az alap, gyári specifikációs TDP? Mi számít végső soron, a valós fogyasztás, vagy a TDP leírva egy doksiban?
A tesztekben alap boost órajelek vannak zömével, holott a valós több, ezzel is azt sugallva az olvasónak, hogy azon az órajelen tudja azt az nv, ez nem gond?
A Fiji-nél a 4gb eretnekség, de a 970nél, tiltsák, sebaj, elég az a 3,5G is...? (Utóbbival ha normálisan lekezelik nincs baj, mert ugye a memória törlése már nem lesz akkora költség, így csökkenni fog a valós memória használat,vagy nem?)
(Senki nem mondja, hogy többet fűt/fogyaszt a maxwell, és igen tudjuk, gyorsabb is, majd 2 évvel frissebb architektúra,ésatöbbi..)JA és a linkelt cikkben a mondat további fel így hangzik a teljesség kedvéért: "and yet still not entirely useful as we move past the memory controllers, as it is not possible to actually get that much bandwidth at once when doing a pure read or a pure write."
-
HSM
félisten
válasz
#85552128 #6134 üzenetére
Hivatalos anyagot kértél, azt küldtem.
Oké, nincs megemlítve, hogy HDMI-vel nem megy (biztos ez? Régebben így volt, de mintha azóta változott volna, de mindegy most.) de az sincs, hogy megy. Míg a GTX970-nél kerek perec "hibás" adatok szerepelnek. A 224GB/s sávszélesség ugyanis elérhetetlen a termékkel a hagyományosan alkalmazott értelmezés szerint. Azért ez nagyon nem ugyanaz az eset.
Ami a tesztoldalakat illeti, nekem az a tapasztalatom, hogy a korábbi 250W-os kártyák (7970, 280X) lényegesen kevesebbet fogyasztottak 250W-nál, és a 290 az, ami 250W magasságában üzemel. Van saját mérésem is, BF4-ben Mantle kiakaszttt grafikával, ami a legjobban meghajtotta nálam normál játékok közül, 350W-ot mértem konnektorból piszkálás nélkül, +50% power limittel a komplett gépre. Ebben benne volt egy 4,4Ghz-re meghajtott (és 80%-on kihasznált) i5 4690K, 4*4GB 2133MHz 1,6V ram, az X-fi hangkártyám, a Giga Z97 lapom és az SSD-m. Ebből a proci önmagában volt 65W (mérte a lap), a táp hatásfoka (Seasonic Platinum Fanless 460W) mondjuk 93% [link], az annyi, mint hogy a VGA csak a táp hatásfokkal és a procival számolva sem ehetett többet 260W-nál.
A többi játékomban pedig még ennyit sem kért. Szóval ennyit erről a 300W-ról....
(#6136) gbors: Lehet félreértettelek, mire gondoltál dolgok alatt?
-
HSM
félisten
válasz
#85552128 #6116 üzenetére
"Azért a ~10%-os downclockot nem reklámoznám ennyire pozitívan..."
Én meg nem reklámoznám, hogy ennyire nem tudok számolni. 947Mhz a gyári órajel, ahhoz képest 900MHz az -5%, nem 10.
Amúgy semmi extra nincs ebben, ezt a típust 25K-val olcsóbban megkaptam akciósan, mint amennyibe a többi került volna, így bőven vállalható kompromisszum volt 5% sebesség, ami a zajos gyári működés, és a némaüzem között volt. Normál áron simán lehet választani halkabb típust, aminél semmi szükség ilyesmire.(#6117) gbors: Rövidesen kalap-kabát lehet az asztali szegmensnek számukra, ahogy állnak a dolgok. Ugyanakkor nyugodtan lehúzhatnak pár bőrt az emberekről, szerintem simán arra játszanak, mint eddig, húzzák a fejlesztést, aztán meg úgysem fog a kutya sem foglalkozni a dologgal, akiknek meg a nyakukon maradt szobadísznek, így jártak. Ahogy a GTX970-nél is a mai napig írják a 4GB-ot, 256bit-et és 224GB/s-et... Senkit nem zavar....
-
Yllgrim
őstag
válasz
#85552128 #6094 üzenetére
Low level API-val meg nincs tapasztaalt, az ebbol a szempontbol irrelevans. Ha majd odaerunk akkor raerunk atmenni azon a hidon (hogy egy tapasztalt Jaffa mestert idezzek)
Hogy rabizhatjuk-e, na ez majd kiderul kire-mit lehet rabizni, ha majd megjelenik megnezzuk.
Jelenleg mindket ceg siralmasan teljesit, az egyik a mesterkelt szoftveres megoldasaival lassitja a sajat es a masik hardvereit, a masik meg nem tud naprakesz drivereket gyartani (hozzateszem nekem semmi gondom volt a driverekkel egy VGA-s rendszerben az elmult egy evben).
Szoval hiaba erosek a hardverek ha a gyartok szemetsege/benasaga miatt ... Ennyi.
-
-Solt-
veterán
válasz
#85552128 #6092 üzenetére
Bármilyen meglepő, számomra az a probléma, ami nekem gondot okoz! Na most, ha egy gond nálam nem jelentkezik, akkor én tőlem telesírhatja a fél világ a zinternetet, az a probléma számomra akkor sem fog létezni!
Már csak azért sem, mert amilyen beírások érkeznek a 290X topikba, néha elgondolkozom rajta, hogy 1-2 ember munka után egyáltalán, hogy talál haza. Olyan alapvető hibákat vétenek, majd habzószájjal elkezdenek szarozni mindent, hogy az már fájdalmas. A legutolsó mókus ha jól emlékszem szimplán feltolta a jobb sarokba az OverDrive csúszkát, majd csodálkozott, hogy az eszközillesztő nem válaszol, vagy valami ilyesmi... mondjuk ő legalább nem szarozta az AMD-t a saját hülyesége miatt, ha jól emlékszem.
Az NV ezt megoldja azzal, hogy a gyári szoftverből nem tudsz tuningolni... lehet az AMD-nek is ezt kéne.
Egyébként, ha már gond... gond a BS, sajnos sok olyan kártya van, ami dobálja, én is belefutottam. Visszaveszem 1350-ről 1300MHz-re a memória órajelet és tökéletes, vagyis nem tudja a gyári frekvenciát, ergo mehet vissza garanciába! Sok júzer a mai napig ül olyan kártyán, ami ezt csinálja, de ahelyett, hogy visszavinné, megy a szarozás... ez is júzer error.
-
Yllgrim
őstag
válasz
#85552128 #6092 üzenetére
Ugye annak nem orulunk hogy a gyarok ezzel szorakoznak MI meg szopunk vele? Mindket jatekost nekunk kell ravenni arra hogy vagy feladnak ezzel vagy nem veszunk toluk semmit egy darabig... Csak hat mindig lesz valaki aki megveszi, ha csak egy honapig bojkottalnank oket mar ertenenek belole...
De hat ezek almok, mert ug@tni azt tudunk itt egymassal, de amikor kozos erdekunk lenne akkor meg lapitunk sz@r a fuben
Termeszetesen egymastol vedjuk mega a gyartokat foggal korommel, hogy a te ceged ugyis sz@rabb...
Aha... Persze...
Gyerekek, pont ezert szivunk MI, nem a gyartok
-
-Solt-
veterán
válasz
#85552128 #6090 üzenetére
Nem kezdeném előröl, ennyi időm nincs!
Egy pici még akad... ZeroCore gondom nem volt, írtam már a múltkor, pedig jó ideig használtam 7970GHz-t DVI kábellel. Abban a vitában is többen írták neked, hogy ők sem tapasztaltak ilyet, ennek ellenére állandóan előrángatod mint valami általános problémát. CF dettó... profilt nem írhatsz, tény. Volt a 6990-m, azért adtam el, mert voltak szoftveres nyűgök vele, viszont ezek java része a játékhoz volt köthető, nem az AMD-hez. ( például Akadás a BF3-ban ) A grafikai hibákat meg megint csak hagyjuk... hónapokig vibrált ETS2 alatt az árnyék a GTX780-l, egy büdös szót nem szóltam, mert tudtam, hogy előbb-utóbb jó lesz. Ugyanez igaz az AMD-re is... a mai napig egy olyan játékot ismerek, amiben végleges gyártófüggő grafikai hiba van. Idővel minden megoldódik, ennyi...
És akkor az én időm itt fogyott el, nem kezdem el iderángatni az NV-s párokat, elég volt egyszer.
-
-Solt-
veterán
válasz
#85552128 #6086 üzenetére
Nem céloztam rá, olvasd el még egyszer mit írtam!
Hogy jönnek az ilyen vélt vagy valós hibák ahhoz amit írtam? Az AMD évek óta fejleszti a hardvereit, mindig bemutat valami újítást, amiből aztán az adott körülmények között szinte semmi nem lesz, mert a szoftveres réteg nem követi az újításokat... Ennek következtében szarba kerültek... egy útjuk volt, ha a szoftveres oldalon jelentős változások jönnek. Mi történt? Legkisebbként átvertek egy olyan szoftveres előrelépést, ami nekik kedvez a legjobban, plusz ehhez még hozzájön az is, hogy számos nagy stúdióval összeszűrték a levet.
Na most, ha valaki ennyit sem ismer el nekik, és azt sem látja, hogy a gyakorlatilag vert helyzetből újra olyan helyzetbe kerültek, ahonnan van valami esélyük, akkor azzal nem nagyon van értelme ilyenekről tárgyalni!
Az elégedetlen AMD júzerekhez megy annyit, ha akkora esélyem lenne a lottó ötösre, mint amennyi ezekből a panaszkodásokból a júzer error, akkor nem sok gondom lenne a továbbiakban.
Az alvás után nem ébredő VGA-t azt hiszem már megbeszéltük... a CF-t is, meg a grafikai bugokat is... ha nem haragszol nem kezdem el előröl az NV-s párjukat idecitálni!
Szerk: Te meg azt értsd meg, hogy ezeknek a kártyáknak a DX12/Vulkan alatt IS meg kell állniuk a helyüket... most megállják a helyüket, meglátjuk, hogy a Maxwell is megállja-e a helyét majd low-level alatt úgy, hogy tartsa a jelenlegi fölényét.
-
-Solt-
veterán
válasz
#85552128 #6071 üzenetére
Mennyiségi mutatókkal engem a minőségről nem tudsz meggyőzni! Az számomra nem érv, hogy valamiből többet vesznek, ez még önmagában egyáltalán nem igazolja a minőségi fölényt.
Az tény, hogy valamiért az NV-vel elnézőbbek a júzerek, és van egy kialakult az NV jobb és pont mentalitás, amit a saját tapasztalataim alapján indokolatlannak érzek. Sokszor leírtam már itt is, én a HD3850/70 óta ingázom a két gyártó között, lényegi eltérés szoftveres oldalról szerintem nincs. Az egyik itt jobb, a másik ott, az egyik ebben szar, a másik abban, de ez a 20/80%-s arány teljesen indokolatlan.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #6033 üzenetére
Ez a következménye annak, hogy az API-k felnőttek a hardverek tudásához. Az ipar ezzel a lehetőséggel szabadon fejlődhet.
A bekötési modell fejlesztése alapvető lehetőséget ad, hogy egy effekt minősége jó legyen. A TressFX előnye ma, hogy messze ez kínálja a legjobb leképzési minőséget a hajra és a szőrre, mert tartalmaz OIT-t, ami ennek a koncepciónak az alapja, hiszen mindenképp abból a hajtincsből kell a színminta, amely legfelül van. Viszont a TressFX 2 UAV-t igényel a működéshez, vagyis ahhoz, hogy ez minden karakteren működjön korlát nélküli bekötés kell.
A HairWorks a másik véglet, mivel nem igényel UAV-t. Meg is látszik a minőségén, hogy ki van hagyva a legfontosabb eljárás a leképzéséből, amivel nincs garantálva, hogy jó hajtincsből lesz meg a pixel színmintája. -
Abu85
HÁZIGAZDA
válasz
#85552128 #6030 üzenetére
Mások a célok itt. Az új API-knak a korlát nélküli bekötési módjai azt teszik lehetővé, hogy a programozók a hardver használatánál és az algoritmusok kialakításánál szabad kezet kapjanak. Nyilván korlátozza a lehetőségeket, ha hardveres vagy szoftveres szempontok miatt nem tudják létrehozni a szükséges erőforrást a hardveren belül. Ez megakadályozza az innovációt.
A GameWorks egy más céllal született. Azzal, hogy az NVIDIA kontrollálhassa az adott játék igényeit, és teljesen elfojtsák az innováció lehetőségének a csíráját is.
Nagyon érdekes az AndroidWorks. Az NV-nek Androidon érdeke az innováció, és nyílt forráskódú, szabadon módosítható GameWorks effekteket adnak a GitHubra feltöltve, ellentétben a PC-s rendszerrel. -
Abu85
HÁZIGAZDA
válasz
#85552128 #6030 üzenetére
A TIER3-as bekötési szint alapvetően egy skalár processzort igényel a multiprocesszorba, hogy a bekötés ne a mintavételezőbe, hanem magába a multiprocesszorba történjen. Egy ilyen rendszer már eleve garantálja azt, hogy a bekötés korlát nélküli, mert nem egy fixfunkciós egység gondoskodik a meglévő erőforrásokról, hanem egy teljesen programozható. Alapvetően a GCN minden bekötést egységesként kezel. A hardver belül nem különbözteti meg ezeket, így mindegyik létrehozott erőforrás írható, olvasható, akár egyszerre is, és gyorsítótárazható. Az API-kkal kapcsolatos különbségeket majd a meghajtó lekezeli.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #6027 üzenetére
Ahogy írtam korábban, alapvetően a bekötési modell messze a legfontosabb. Mivel ez határozza meg, hogy mennyi erőforrás áll rendelkezésre a fejlesztőknek, vagy másképp fogalmazva mennyi effektet képesek engedélyezni egy játékon belül. Például az idén érkező DX játékban a TressFX mindenkinek a haján rajta lesz, de ezt a módot csak akkor aktiválja, ha TIER3 a bekötési szint. Alacsonyabb szinten csak a főszereplő hajára lesz korlátozva.
Azért tervezte ennyi ideig a bekötési modellt a Microsoft, hogy az mindenkinek jó legyen. Szépen lehessen használni az Xbox One képességeit, miközben ez a PC-s portolást ne nehezítse. Egyszerűen az effekteket alacsonyabb szinten le lehet tiltani, és mindenki boldog. -
hugo chávez
aktív tag
válasz
#85552128 #5990 üzenetére
"Mert a 12_0 és a 12_1 feature levelnél egyaránt a Tier 2-es bekötési modell van megadva, de pl. a 2 opcionális funkciót (Conservative Rasterization, Rasterizer Ordered Views) csak a Maxwell 2 támogatja, tehát lényegében full 12_1 supportja is csak ezeknek van."
Egy vicces kedvű NV fan összedobott egy fullkamu táblázatot, kiposztolta a beyond3d.com fórumára, aztán pár oldal meg birka módon átvette, ennyi. Itt már leírtam a véleményemet erről.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5992 üzenetére
Nem. A DirectX 12 az DirectX 12. A feature level innentől kezdve nem komoly dolog, mert nagyrészt csak opcionális funkciókat tartalmaz, zömében nem véglegesítetteket.
A DX12-ben a legfontosabb újítás szoftveres, vagyis az overhead csökkentése. Ez a kulcstényező és nem más. A másik fontos újítása az asszinkron compute, ami a GPU-limit ellen küzd. Ezzel lehetőség van ezeket a masszívan párhuzamos lapkákat tényleg párhuzamosan dolgoztatni, mert nem csak sorban kerülhetnek rá feladatok.A bekötési modell az azért nagyon fontos és azért van folyamatosan kiemelve a fejlesztők és a Microsoft által, mert ez határozza meg az API-nak azokat a képességeit, ahogy a hardvert elérheti. A GPU-k nem olyanok, mint a CPU-k, hogy írsz rá programokat és azok futnak. Itt amellett, hogy van memóriájuk, még masszív limitációkkal írhatók programok rá. Ezért került bevezetésre a DX12-ben ez az új bekötési modell, hogy a fejlesztők ahogy egyre komplexebb programokat írnak, ne fussanak ki az erőforrásokból. A hosszabb távú cél igazából az, hogy a fejlesztőnek csak arra kelljen figyelni, hogy a GPU-nak van x GB memóriája és azon belül annyi erőforrást hoznak létre amennyit abba belefér. Ma ez óriási limit, mert az API nem enged meg akármit, még akkor sem, ha a hardverek jók lennének. Ez pedig akadályozza azt, hogy végeredményben hány effektet írhatsz bele az adott játékba. Hosszabb távon ezt az állandó kompromisszumkényszert akarja leküzdeni a Microsoft ezzel az átdolgozott DX12-es bekötési modellel. Egyszerűen, ha a fejlesztő megálmodik valamit, akkor csinálja meg, ne azért legyenek kidobva dolgok a programból, mert kifutott az API által megengedett erőforrásokból.
A véglegesített specifikációk tekintetében a GCN egyes verziói egységesek. A nem véglegesített opcionális specifikációk esetében meg kell várni a véglegesítést.
Az overhead biztosan csökken, az független a feature level szinttől. Ezt két dolog határozza meg. Az egyik a parancsok párhuzamos beírása a parancspufferekbe, ami egy szoftveres funkció, vagyis igazából nem igényel semmilyen komolyabb dolgot a GPU-n. Jó persze kér egy modernebb hardvert, de az elmúlt hét évben megjelent GPU-k elméletben tuti jók. Amelyik cucc kap DX12 drivert ott ez a funkció megy. A másik a bekötési modell, ami szintén meghatározza az overheadet. Ebból a szempontból a TIER1 jár a legnagyobbal, mert az emuláció. Nem rossz így sem, de érezhető lesz. A TIER2 már bindless, tehát eléggé alacsony a többletterhelése. A TIER3 pedig explicit bindless, vagyis nincs többletterhelése.
-
válasz
#85552128 #5992 üzenetére
Azt már lenyilatkozták (Microsoft), hogy az összes DX12 lehetőséget egyetlen mai GPU sem támogatja majd. Szóva ahhoz új vas kell majd.
A Maxwell és a GCN között meg nemigazán tudás beli különbség van, hanem más limitációk vonatkoznak rájuk. Elsősorban a Maxwell limitált jobban egy két dologban a GCN-hez képest.
Amugy a GCN 1.0 is van valami limit ami elég erős, de nem jut eszembe mi az.Szóval akinek Maxwell 2 és GCN 1.1+ kártyája van annak nem kell aggódnia ezen szerintem (nagy meglepetések nem érhetik).
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5990 üzenetére
A Vulkanról még felesleges beszélni, mert a base specifikációk sincsenek véglegesítve. Ettől függetlenül egy hasonló bekötési modellt használ, mint a DX12, csak más paraméterezéssel, és több emulációs lehetőséggel. De a véglegesítésig ezek változhatnak. Láthatod, hogy a DX12 modelljét négyszer módosítottak, mire végleges lett.
A DX12 végleges bekötési modelljével (amire még mindig rá kell mondani az áment, de szinte ki van zárva, hogy változik) a TIER1 egy emuláció lett. Azt támogatja az Intel Gen7.5, Gen8 és az NV Fermi. A TIER2-t a Kepler és Maxwell, míg a TIER3-at a GCN.
Az opcionális funkciók nincsenek véglegesítve, mert kevés volt rá az idő. A fejlesztők használhatják, de a Microsoft kiadta nekik, hogy vigyázzanak vele, mert ha év végén jön egy végleges verzió és változik, akkor a kiadott program nem fog működni.
Egyébként igazából a ROVs egy mutex zárolás a rendszerben. Olyan mint az Intel PixelSync, a GCN ezt tudja támogatni, mert a GDS-re írható egy olyan implementáció, amely zárolja a folyamatokat a megfelelő megérkezéséig. Ezt OpenGL-ben már támogatják. A Conservative Rasterization igazából eltérő interpolációt igényel a hardverben. De mivel a GCN szoftveres interpolációt használ már évek óta, így az egész támogatás csupán a fordítón múlik és nem a hardveren. Eleve az interpoláció a GCN-en annyi, hogy a CU-nkénti 64 kB-os LDS-ből 32 kB-ban ott vannak az interpolált háromszögadatok. Annyi interpolációs rendszert írsz rá a shadereken keresztül, amennyit akarsz. Most csak egy van, de például a Mantle új verziójában maga a fejlesztő is megírhatja a saját interpolációs rendszerét.A Wikipédiás táblázat teljesen téves. Nincs olyan, hogy hUMA a DX12-ben, az egy HSA specifikáció
. IOMMU-van a WDDM 2.0-ban. És azt sem tudja támogatni egyetlen dedikált GPU. Emellett azt hiszik, hogy a TIER szinten az egyes eljárásokon a bekötésre vonatkoznak. Hát nem.
A DX12-ben és a WDDM 2.0-ban nincs minden opcionális rendszer véglegesítve.
Ami véglegesítve van arra a támogatás ilyen:
Bekötési modell fentebb, nem írom le újból.
WDDM MMU modell: emulált: Intel Gen7.5, NV Fermi, dedikált: Intel Gen8, NV Kepler és Maxwell, AMD GCN
WDDM GPUMMU: minden dedikált GPU
WDDM IOMMU: csak APU: AMD Kaveri, Carrizo vagy Intel Broadwell, Skylake
Aszinkron Compute: AMD GCN, NV Maxwell (kivéve a GM107). Az Intel Gen8 támogatja, de az Intel mondta, hogy náluk ez lassulást okoz, így nem fogják engedélyezni.
SAD4: mindenen emulált, kivéve a GCN, ott ez dedikált utasítás
Aszinkron DMA: AMD GCN, NV Maxwell (kivéve a GM107). Emellett számos korábbi Quadro VGA-n ez működni fog, mert a Kepler óta van két DMA az NV GPU-ban, de abból a GeForce-okban egy mindig le lett tiltva.
Atomi számláló: mindenen emulált, kivéve a GCN, ott ez dedikált utasításVéglegesítésre vár még a maradék opcionális funkciók és a WDDM hard preempció. Ezeket az elkövetkező egy évben tervezik befrissíteni a Windows 10-be. Lehet, hogy apránként, lehet, hogy egyszerre.
A bekötési modell gyakorlati haszna csupán az, hogy mennyire limitálja az adott modell az erőforrás-használatot. Kvázi ennek a jelentősége az lesz, hogy mennyi effekt kerülhet egy játékba egyszerre. Itt főleg compute effektre kell gondolni, mert leginkább az UAV-k száma lesz a limit. Ma nagyjából 4-7 compute effekt van egy játékban, de a jövőben ez a szám növekedni fog, tehát végeredményben az a cél, hogy a limitáció tulajdonképpen csak a memória legyen, és ne más.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5982 üzenetére
Én Witchert az első rész után csak így veszek. Az Enhanced patch mellett kiszedik a bugokat, és jó lesz. Az első részt egy nagy bug miatt be se tudtam fejezni az Enhanced patchig, akkor is újra kellett kezdenem. Szóval a W2-nél már tanultam ebből és csak később vettem meg. Most is ugyanígy teszek. Mire lesz Enhanced verzió, addigra az ára is a fele lesz.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5979 üzenetére
A gépigényre gyúrni az EA-nek megint egyszerűbb. A Dragon Age: Inquisition a Frostbite aktuális verziójának utolsó nagyobb címe. Ez azt jelenti, hogy a 3-as főverzió már eléggé optimalizált, hiszen az első játék óta másfél évet lehetett polírozni. A Red Engine új, szinte polírozás nélküli rendszer.
Majd az EA is át fog állni a következő nagyobb Frostbite frissítésre. Talán nem 4 lesz a neve, de az NFS és a SW: Battlefront már ezzel jön. -
Abu85
HÁZIGAZDA
válasz
#85552128 #5964 üzenetére
És most hasonlítsd össze az EA és a CDPR készpénzállományát és fejlesztői lehetőségeit.
De amúgy ja egyetértek, a Dragon Age: Inquisition-t grafikailag nem sikerült lenyomni, csak ez pénzkérdés inkább, mintsem technikai.
Egyébként nem vagyok benne biztos, hogy az elkövetkező két évben bárkinek is esélye lehet a PC-n az EA által követett újszerű fejlesztési modell mellett. Egyszerűen a váltásokra marha sok pénzt mozgósítottak, és marha jó a szakemberi gárda a Frostbite mögött. Leghamarabb a Square Enix tudja őket befogni, de ők is lassabban kapcsoltak, és alapvetően több erőforrást kell majd mozgósítaniuk.
-
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5926 üzenetére
Azóta csúnyán eltelt 7 év. 7 éve jó volt, ma semennyire nem az. Valószínűleg 7 év múlva a DX12-re is azt mondjuk, hogy limitál, és jön a következő lépcső. Biztosan megmondom most, hogy a DX12 sem tart örökké. De az elkövetkező fél évtizedre jó lesz. Addig pedig van idő újat fejleszteni.
-
Malibutomi
nagyúr
válasz
#85552128 #5873 üzenetére
Jaaa, akkor megsem minden jatekban, megsem minden kartyaval, megsem minden konfigon...csak elsore kicsit dramaibban adjuk elo
Akkor megiscsak tulzas volt jol gondoltam.
Idezhetek egy allando mantrat ami a mantle cikkeknel jelent meg minden alkalommal: "ki az a hulye aki olyan processzort tesz melle ami gyenge es nem tudja kihajtani a kartyat..."
Vagy ez csak az AMD szidasara fenntartott szoveg, visszafele nem ervenyes?(#5874) Abu85
Ha az NV drivere zabalja az eroforrast akkor miert az AMD driver fut rosszabbul a gyenge procikon. Amit Szaby is linkelt az elobb? -
Malibutomi
nagyúr
válasz
#85552128 #5869 üzenetére
Erdekes ha a driver miatt minden jateban van ez a deficit, akor miert csak a PC alatt jott elo?
Ez kicsit vicces tulzas megint...szerencsere...mit szolnanak az nv tulajok ha az amd kijavitana ezt a velt deficitet es javulna 20-30%-ot? Elegge sirosan allna a szaja a 980 tulajokna hogy huzva alig erik utol a 2 eves 290X-et.
Vicces a hozzaallas...aki az amd ellen beszel fejleszto (na meg az nv) annak minden szava igaz es szent Aki az NV ellen szot emel mint legutobb a witcher fejlesztoje, vagy a nem nv fuggo fejlesztok (na meg ugye maga az amd) az mind hazug, nem hozzaerto, stb....
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5869 üzenetére
És lám kiderült, hogy ezért tudják megcsinálni, mert ugyan felfogod, hogy konkrétan veled csesznek ki, de egyszerűen elfogadod, hogy ez így jó, és hogy ez egy szép jövő lesz. A teljesítményigényes és gyenge minőségű effektek jövője. Eközben keresel minden lehetőséget, hogy kontráz, aminek konkrétan semmi köze ahhoz, hogy a HairWorks jóval több teljesítményvesztést okoz annál, mint amennyit igazából kellene, hogy okozzon.
Nem értem mi az, amitől egy felhasználó annyira jól jár, hogy védeni kell a mesterségesen magasra pakolt gépigényt? Többet költhetsz gépre? Ezt megteheted úgy is, hogy az adott program és effekt úgy fut ahogy kell. -
Abu85
HÁZIGAZDA
válasz
#85552128 #5852 üzenetére
Pedig a fejlesztő most a legkevésbé okolható azért, hogy az NV milyen paraméterezéssel kéri szállítani a GameWorks csomagokat. Ezt ők határozzák meg.
Szerinted az AMD miért tehette meg, hogy letiltatja a TressFX-et a Lichdom januári frissítésében? Egyszerűen szerződésben megvan hozzá a joguk. Ott sem a fejlesztő a hibás, de ha nem teszi meg, akkor olyan kötbérrel tud kiszállni a szerződésből, hogy azonnal tönkremennek. -
Malibutomi
nagyúr
válasz
#85552128 #5850 üzenetére
Hat amig van aki ezutan is vedi oket, akkor min is csodalkozunk...
Az AMD megkapja a magat, hogy nem tud optimalizalni (egy NV jatekra)...es hopp kiderul hogy az NV-nek sem sikerult(egy NV jatekra)...de azzal semmi gond..ez igy van randjen...meg majd ugyis javitjak..A Witcher 3 fejlesztoi nem NV partnerek? Nem ok is azt mondtak hogy nem lehet optimalizalni az effektet?
De egyebkent igen a fejleszto a hulye hogy belemegy egy zart effektbe (ha tenyleg igaz). Csak hat a tamogatas nagy ur egy kisebb studionak. -
Abu85
HÁZIGAZDA
válasz
#85552128 #5846 üzenetére
Az a baj, hogy a haj annyira vékony geometria, hogy az nem így működik. Elképzelhető, hogy még 16 mintavételi pontnál is úgy átmegy egy haj a pixelen, hogy egyetlen mintavételi pont sem "döfi át". És onnantól kezdve rögtön rossz az adott pixel színe. Ezért nem adnak rá külön opciót, mert tudják, hogy a 8x is kevés.
Az anizo esetében vannak problémák. Nem minden felülettel kompatibilis, így előbb ezeket kell megoldani, hogy használható legyen.
-
Malibutomi
nagyúr
válasz
#85552128 #5843 üzenetére
Az a vicces, hogy mindig az a duma hogy az amd magyarazkodik mindenert...valamiert a gameworks cimeknel mindig a fejleszto a hulye...meg az amd..meg a felhasznalo...az nv sosem hibas...megis valamiert a gameworks cimek korul megy a kavaras.
Most vagy az NV csak a luzer, bena es hazudos fejlesztokkel all ossze...vagy megis valami hibadzik.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5843 üzenetére
Az MSAA részletességét a HairWorksre vonatkozóan csökkenteni kérdéses. Így sem elég a 8xMSAA opció. 16x lenne az ideális.
A HairWorks esetében semmilyen minőségvesztést nem eredményezne a tesszellálás 64x-ről 16x-re csökkentése és két-háromszorosára gyorsítaná az effekt sebességét. Ez sem lenne optimalizálás, de gyakorlatilag minőségvesztés nélkül kapnál extra sebességet, ami kezdetnek jó. A következő lépcső egy analitikai élsimítás lenne, ami kiváltaná a HairWorksre futtatott MSAA-t, mert ez valószínűleg olcsóbban jobb minőséget eredményezne pusztán a célirányos jellege miatt.
Ezután esetleg el lehetne gondolkodni az önárnyék és az átlátszóság problémáján, amivel a HairWorks újra -20-30%-os teljesítménybe kerülne, de a minősége a mostani szinthez képest nagyban megugrana. -
HSM
félisten
válasz
#85552128 #5814 üzenetére
De gyorsabb lesz a pakolgatás DX12-ben, ugyanis jelenleg a pakolgatás nagyon drága, mert először helyet kell felszabadítani hozzá.
Jelenleg védekezhet az Nv, hogy 4GB működik a kártyán, hiszen 4GB-ot jelent, de csak 3,5GB-ot használ.
DE ezt nem fogja tudni letrükközni a driver a direkt memóriaelérést biztosító DX12/Vulcan alatt. Ott vagy 4GB a 4GB, vagy 3,5GB a 3,5GB. A 3,5GB-al pert kockáztatnak, szval eléggé kevéssé esélyes szvsz. A 4GB-os esetet pedig lásd fenn. -
HSM
félisten
válasz
#85552128 #5812 üzenetére
A DX12-vel éppenhogy a pakolgatás lesz sokkal gyorsabb, mert hatékonyan lehet majd cserélgetni a benntlévő dolgokat. Feleslegesen törölgetni semmiképpen nem lesz szükség akkor se, abból nincs baj, ha valami bennt van, de nem kell, viszont lehet vele nyerni, ha benn van és mégis újra kell. Tehát ugyanúgy csak szükség esetén lesz törölve, mint jelenleg.
Most DX-ben még minden vidám, mert tud ügyeskedni a driver, de DX12/Vulcan alatt nem lesz hatása rá. Annyit tudnának tenni, hogy 3,5GB-ot jelent a driver, de azzal jogi problémákat kockáztatna az Nv, mert a terméket 4GB-osként adták el...
-
HSM
félisten
válasz
#85552128 #5701 üzenetére
Azért az remélem megvan, hogy pl.
280X Radeon (ugye, gyakorlatilag egy átcímkézett 7970) GTX Titan szintet hoz, míg a GTX780Ti kikap még a sima 290-estől is?
Ugyanakkor a 970/980 meg éppen annyival van a 290-ek előtt, amennyivel úgy általában.
Arról végképp nincs mit mondani, hogy a 3 évvel ezelőtti két, akkoriban eléggé fej fej mellett loholó csúcskártya viszonya itt milyen, 7970 35FPS, míg a GTX680 csak 27... Ugye, ha már nemrég volt szó az időtállóságról... -
Malibutomi
nagyúr
válasz
#85552128 #5701 üzenetére
Ertem,igen itt gyorsabb a 780 mint a 960. Jobban mutat a kap, bar sehol nincs a januari 30%-hoz.
Ez esetben , majd ha itt felhasznalok tesztelik kiderul a tuti.Ha nv optimalizalasrol diskuralunk, akkor a "de az amd meg..." az nem relevans erv, nem kell befuzni minden hozzaszolasod vegere.
-
Malibutomi
nagyúr
válasz
#85552128 #5699 üzenetére
Eeegen...ahol meg 5FPS el gyorsabb a TX mint a 290X ott meg orommaglyakat gyujtunk, hogy szennealazta.
Project cars: 780-960-Titan
W3 : 780-960-TitanA 780 ahogy irjak az egyik tesztben kb 30%-al erosebb elvileg mint a 960...legalabbis mikor kijott a 960 a tesztekben ez volt lathato. hogy-hogy hirtelen alulmarad...35%-ot lassult az elmult honapban? Bocs nem kovetem az nv drivereket annyira, de jottek ki uj driverek ezekhez a jatekokhoz ugye? Lehet a kepler elfelejtodott megis?
-
Malibutomi
nagyúr
válasz
#85552128 #5693 üzenetére
Ebből leginkább az látszik, hogy AMD-nél 2 év kell, mire kapunk olyan drivert ami már maximálisan vagy ahhoz közelien kihasználja a hardvert, miközben a konkurencia már a kezdetektől gyorsabb és utána sem marad el jelentősen...
Vagy az amd kartyak driveresen szinten maradnak, az nv elozo gen meg le van tojva (vagy szandekosan lassitva hogy valts hamar)...nem tudjuk melyik az igazsag.
-
Valdez
őstag
válasz
#85552128 #5677 üzenetére
Ne akarjuk már megváltoztatni a történelmet baszki.
A 780ti és a titan black a 290x ellenében jöttek, annak idején jobbak is voltak annál, ha nem csal az emlékezetem. Mostmeg egy nyíltan nv-s játékban rosszabbak 10%-al (gamegpu-s teszt) mint a sima 290. Mi ez, ha nem átkúrás?Itt nem arról volt szó, hogy buksz, mert az normális. Mindenen buksz, kocsin, hűtőn, stb.. Itt arról volt szó, hogy mi az ami future-proof. Tök hülyeség azzal jönni, hogy bezzeg mennyibe került akkor. Igen, mert akkor annyiba került, elvárható, hogy ma is teljesítsen egy bizonyos szinten és legalább ne rosszabbul mint anno.
-
Valdez
őstag
válasz
#85552128 #5667 üzenetére
Tehát aki drágán vesz kártyát, az azért is fizet, hogy átkúrják? Mert aki Titant vagy 780ti-t vett, az most ezt érezheti. Pedig az áruk és specifikációjuk alapján nem itt lenne a helyük már most. És ezt megvédeni, hogyhát amúgyis drágák voltak, ezért senki se várjon el tőlük jövőtállóságot meglehetősen vicces következtetés.
A többkártyás/GPU-s rendszerek mindig lutrik voltak, nyilván egyrészt azért is drágák mert 2x annyi a cucc bennük, másrészt megha működik, akkor majdnem 2x gyorsabb. Nyilván ezt meg kell fizetni.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5667 üzenetére
Sajnos semmivel sem jobb egyik AFR technológia sem. Ahol az egyik működőképes ott a másik is, de ahol az egyik nem az ott a másik sem. Erre jön a változás a low-level API-ban, hogy a fejlesztő írja meg, hogy miképp működjön, és ne lehessen a driverekből kényszeríteni egy alig működő megoldást. Ez majd nagy változást fog hozni, mivel újra megéri multi-GPU-ra gyúrni, hiszen a gyártók kontrollja teljesen megszűnik a rendszer felett és átkerül a program irányítása alá a teljes vezérlés.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5568 üzenetére
A gamescon demóban nem volt minden aktív.
2013-ban biztosan nem tudták még. 2014-ben valószínűleg tudták, hogy a tervekből nem valósul meg minden.
Azért ez nem olyan dolog, hogy odamész az AMD-hez, vagy az Intelhez, hogy pacsizzunk le. Az AMD hova tudná őket berakni? Ők viszik a teljes EA, a Square Enix nyugati stúdióinak, és a SEGA nagy részének a fejlesztését, amihez még hozzájött a teljes Capcom is. Azért ezek az erőforrások végesek. Az NV-nél most jóval több a szabad kapacitás, mert csak két komolyabb kiadóval dolgoznak. Szóval a mit akarsz és a mit lehet között nagy a különbség.Dying Light sem volt valami korrekt. Persze az első nekifutás a Chrome 6-tól. Egyébként a W3 attól függetlenül, hogy nem tartalmaz majd egy rakás tervezett effektet elég korrekt lesz.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5564 üzenetére
In-engine render. Lejátszottak egy előre felvett dolgot. Akkor mindegy, hogy egy másodperc volt egy frame. A hardver offline kiszámolta azt.
Átvihető a Gameworks. Nagyon sok csomagnak van és a jövőben még lesz is konzolra portolható verziója. A GameWorks esetében nem ezzel van a legnagyobb baj, hanem a beépíthetőséggel. Ha nem jó, akkor csak a motort hackelheted addig amíg jó nem lesz, vagy egy idő után feladod.
Hihetitek ezt is, de a helyzet az, hogy lassan érdemes lenne feltenni a kérdést, hogy az utóbbi évben miért volt gond főleg az NV által támogatott PC-s portokkal. Biztos, hogy csak az NV választ mindig bénán partnert? Vagy esetleg a fejlesztők által nyíltan kritizált konstrukciójuk is közrejátszik.
-
válasz
#85552128 #5522 üzenetére
Ez biz 44-45%, TPU-sok nem tudnak %-ot számolni
Amúgy a tesztek közötti különbséget a választott játékok és a beállítások befolyásolják leginkább. A pH! tesztek valóban az AMD kártyáknak kedveznek, de szerintem felesleges elfogultságról beszélni - a beállítások többnyire legalább annyira realisztikusak, mint más tesztoldalakon. A játékszelekcióba meg bárhol bele lehet kötni.
-
Anubris
őstag
válasz
#85552128 #5507 üzenetére
Ennyi erővel a grafikával kapcsolatos véleményekkel is még várhatnánk, tudtommal senkinek sincs még fenn a gépén itt, csak egyes weboldalak, youtube videók állnak rendelkezésre, ahogy a játszhatóságról is.
Arra már most merek a fogadni, hogy a lovaglást normálisabban megcsinálták, ha próbáltad, akkor te is tudod, hogy a DA:I-nél még az AC első részében is jobban sikerült ezt megoldani. A rengeteg unalmas, ismétlődő mellékküldetésekről nem is beszélve, vagy az ugyancsak konzolok miatt leegyszerűsített harcrendszer.
Amúgy Abu hozta fel a DA-t példának, nem én. -
Abu85
HÁZIGAZDA
válasz
#85552128 #5489 üzenetére
A konzolon jellemzően jobb a látótávolság, már amelyik játék nem wrapperen fut, hanem a tényleges low-level elérésen. Nem mindegy, hogy egy rajzolási parancs beírása a parancspufferbe három órajel, vagy egy-kétmillió. Ezért hozza a Microsoft PC-re is a low-level API-t. A DX11 ebből a szempontból egy fos, és ezzel már ők sem tudnak mit csinálni, ahogy senki sem a világon. Ezért cserélik le a DX12-vel.
Tudom, hogy sok dolog ki lett kapcsolva. A végleges programban már nem lesz GeometryWorks, a WaveWorks, GPU-s PhysX a részecske effektekre (Particles & Fluids). Ezek mind ott voltak, de hiányoznak. Ez azonban nem a fejlesztők hibája. Maguk a csomagok annyira zártak, hogy borzalmasan nehéz integrálni őket. Az idő múlásával, ha nem sikerül, akkor ráhagyják, mert az NV-nél is van erre egy büdzsé. Ha azt elégetik úgy, hogy nem lesz eredménye, akkor nem löknek bele még több pénzt, hanem elfogadják, hogy nem sikerült, és fókuszálnak arra, amit sikerült beépíteni, mint most a HairWorks, vagy a HBAO+.
Sokszor lehet azt mondani, hogy a fejlesztők a hibásak, de akkor nem amikor olyat várnak el tőlük, hogy zárt rendszereket próbáljanak integrálni. Komolyan a legjobb példa a valóságból, hogy házat senki sem épít úgy, hogy kapnak egy kész tetőteret, és alá behúznak mindent. Nem véletlenül kezdik az építést az alappal, majd a falakkal és végül a tetővel. Persze lehetne találni olyat aki esetleg bevállalná ezt, de baromira megnehezíti a munkát, és ugyanez igaz a programfejlesztésre is. Önmagában mint felhasználók titeket ez nem érdekel, de mégis mit vártok egy fejlesztőtől, meddig égessék a pénzt, amikor negyedik vagy ötödik nekifutásra sem sikerült a zárt middleware-t működésre bírni? Egy idő után közeledik a megjelenés, és a kiadó nem fogja elfogadni azt, hogy egy-két extra effekt miatt a fejlesztők kérnek még fél évet, vagy plusz egy évet. Mondjuk inkább úgy, hogy a W3 a körülmények áldozata lett. Így is elég komplex program volt, gondolom úgy voltak vele, hogy nem számít, ha hat-hét tervezett zárt middleware nem kerül bele. Azok a játékmenetet úgy sem befolyásolják. A program pedig ezek nélkül még jobban optimalizáltabbnak fog tűnni.
-
proci985
MODERÁTOR
válasz
#85552128 #5479 üzenetére
egy picit hatrebb lepve az egesztol: van X eroforrasod fejleszteni, van Y tudasod, a cel a letezo legjobb program kihozasa, mire fogsz koncentralni? hint: nem a kinezetet minimalisan erinto featureokra.
a jatekok valaszido varianciara erzekeny valosideju rendszerek, a budget jellemzoen limitalt (kb minden szoftverhez hasonloan), viszont azert mert hulyen nez ki egy effekt egy adott hardveren, nos, attol meg nem dol ossze a vilag (ez mondjuk egy repulogep/vonat/eromu vezerleserol kevesbe mondhato el).
problemas featureok kiszedese teljesen normalis dolog. ha nem key featurerol beszelunk akkor egy ido utan siman ki lesz dobva az effekt. nincs valos ideju reflekt a vizen? van helyette kevesbe jo feature, ami viszont mukodik. adott esetben pedig key featuret is siman meg lehet vagni, a Stalker SoCnel pl az eredeti ambiciozus (es megvalosithatatlan) AIt adtak fel.
olyan, hogy a jatekfejlesztok nem veszik figyelembe a megterulesi mutatokat es csinalnak egy grandiozus cimet mar megesett, a Shenmue azota is legenda ilyen tekintetben.
---
jatekoskent persze en is minel szebbet, jobbat akarok ami minel jobban fut a gepemen, de azert minimalis fogalmam van a fejlesztes meneterol.
---
egyebkent nyitottsag sem tesz csodat, szoftverminoseg es nyitottsag szerintem nem igazan korrelal. viszont nyitott kodnal adott esetben az ember meg mindig le tud menni a kod szintjere, hogy megis mi az ami hibazik. ezt jellemzoen az ember el akarja kerulni (sokkal tobb ido jellemzoen mint atnezni a manualt), viszont neha ez az egyetlen jarhato ut.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5479 üzenetére
A DX12 sem lesz csoda. Oké eltűnik az overhead, így a látótávolság, illetve a szimuláció részét nem képző objektumok száma növelhető. Nyilván ez a W3-ra is igaz lesz, hiszen ez a játék is küzd attól, hogy 10x-es a rajzolási parancsok többletterhelése DX11-ben, mint low-level API-val. Nyilvánvaló, hogy főleg ez fogja korlátozni a látótávolságra vonatkozó beállításokat, illetve a növények mennyiségét. Ezzel ma nem tudnak mit csinálni.
A zárt effekt egy másik lapra tartozik. Az nem egy API-val kapcsolatos probléma. Az egy döntés, ami vagy bejön vagy nem. Ha úgy veszed akkor a végeredményben lehet úgy gondolni rá, hogy nem vesztesz vele semmit. Ha nem működik, akkor nem lesz benne a végleges játékban. A GameWorks esetében főleg az NV pénze áll benne, vagyis nem az adott fejlesztő büdzséje került elégetésre. Nyilván valamennyit az adott stúdió is belerak, de közel sem annyit, mint amennyibe kerülne egy saját rendszer kidolgozása. Mondjuk utóbbinak az előnye, hogy nagy eséllyel működne, de ha valami gondja van, akkor minimum javítható.(#5482) Szaby59: A rajzolási teljesítmény a konzolon nem gond. PS4-en egy rajzolási parancs beírása a parancspufferbe mindössze három órajel a GNM API-val. Ugyanez DX11-en nagyjából kétmillió órajel. A DX12-ben ezt csökkentik 10-20 órajel közé. Világosan látszik, hogy miért nem rajzolhatsz akármekkora távolságra. Majd az új API-k ezen javítanak. Ez az egyik dolog, ami tényleg nem a fejlesztők hibája.
GameWorks nincs konzolra. Fel sem merül, hogy ott olyan kódot használjanak, amelyet nem tudnak optimalizálni. Ergo semmiben nem határozza meg a két konzol azt, hogy melyik GameWorks effekt kerül beépítésre a PC-s portba és melyik nem.(#5481) TTomax: Nem az a probléma, hogy nincs erőforrás ténylegesen megírni egy komplett rendszert, ami működő. Ezt konzolra minden fejlesztő megteszi lassan pár éve állandó jelleggel.
A PC problémája igazából az, hogy sok az olyan komponens, amelyet semmilyen formában nem tudsz befolyásolni. Például az API és a driver modell, amit érdemes egybevenni. Van egy programod, amelyet ezen futtatsz, és tulajdonképpen a driver csinál valami csodát, hogy jó legyen a hardveren. Na de ha nem jó, akkor mit tudsz tenni? Igazából nem sokat. Semmilyen lehetősége nincs a fejlesztőnek megkeresni a hibát, amely a gondokat okozza, mert nem tudja profilozni a meghajtót. Tehát van egy kód, amelyben elvileg nincs gond. A driver valamit elront, és igazából a programozónak fingja nincs róla, hogy mit. Ekkor jönnek a megbeszélések, hogy hol a hiba. A gyártó és a fejlesztő összeül elemezni, és arra jutnak, hogy ez bizony az API hibája. A fejlesztő elmegy az API biztosítójához, ahol kiderül, hogy márpedig a gyártó a bűnös, azok a szemetek még hazudnak is. A gyártó és az API biztosítója esetleg még összeül, és megegyeznek abban, hogy itt csak a fejlesztő lehet a hibás, néznek egymásra, hogy mégis mi a fasz baj van ezekkel az emberekkel... Na ez az iparág legnagyobb hibája. És akkor kezdődik a foltozgatás, hogy legalább egy picit működjön a program, de valójában senki sem tudja igazán, hogy hol a hiba. Ha a gyártó és a fejlesztő nincs szoros kapcsolatban egymással, akkor talán rá sem jönnek, mert a gyártó a program profilozásánál látja, hogy mi történik a driverben, és még annak a forráskódjával is tisztában van, de a program forráskódják már nem látják. A fejlesztő pont a program forráskódjával van tisztában, de a driverét már nem látják. Aztán az ilyen helyzetek jellemzően megoldódnak úgy, hogy a gyártó visszaad a fejlesztőnek egy forráskódot, hogy ezt írják be és elvileg jó lesz. Aztán később azon megint módosítanak, és kezdődik a buli újra. És a gond ott van, hogy egy hibajavítás hónapokig is tarthat, ami miatt előjön a kérdés, hogy megéri-e bizonyos effektek fejlesztésébe invesztálni, ha ekkora az esélye annak, hogy végül úgy sem fog működni.
MultiGPU dettó. Meg van határozva, hogy mire kell ügyelni, hogy működjön a kényszerített AFR. Megírnak erre egy elvileg jó motort és nem működik. Mindenki csak néz előre, hogy na mi lehet a baj, és megint pitiáner dolgokra mennek el olyan erőforrások, amelyeknek meg lenne a helye. Hogy kevesebb az AFR-t támogató játék manapság? Csodálkoztok? Ki garantálja, hogy működni fog az AFR optimalizálás? Senki. Ilyen szituációban mégis miért lehetne cél az, hogy ebbe invesztáljon egy fejlesztő.
Ezek azok a dolgok, amik miatt a fejlesztők ennyire akarják a feketedobozok eldobását. Hogy lehetnek-e hibák low-level API-val? Hogyne, de nagy különbség lesz, hogy ezeket leprofilozzák, és kijavítják, anélkül, hogy hetekig megbeszéléseket folytatnának a gyártókkal, a szabványalkotókkal, és még az isten tudja kivel. MultiGPU dettó ugyanez. Lehet gond vele low-level API-val? Naná, de ki lehet javítani.Az a poén, hogy ha egy fejlesztőt megkérdezel, hogy mit tart a low-level API-k előnyének, akkor sokan nem a kisebb overheaddel jönnek elő, vagy a hasonló dolgokkal, amelyeket az érintettek esetleg hype-olnak, hanem azzal, hogy kiszámítható lesz a működés. Látják, hogy a program hogyan fut a hardveren, és nincsenek elrejtett szálak, amelyeket nem lehet leprofilozni, vagy olyan forráskód, amelyet nem látnak. Minden hibára célirányos megoldást lehet találni, és nem kell új ösvényeket vágni, amelyek vagy működnek vagy nem. És erre már van erőforrás, mert kiszámíthatóvá vált a rendszer. Tudod a buktatókat, és nem egy előre nem várt tényező fogja megakadályozni, hogy végül az effekt ott legyen a játékban.
-
TTomax
félisten
válasz
#85552128 #5479 üzenetére
Itt nem az a gond,hogy az nVvel áll össze valaki,hanem az hogy baromi gyenge a hardver a konzolokban és ennek szépen alá is rendelnek mindent ahogy eddig tették,mondván nincs elég erőforrás...a dx12vel sem fog ez változni jelentősen,amit nyernek rögtön el is költik másra... semmi nem változott holott jött egy új konzolgeneráció.Én bíztam benne hogy majd most talán egy-két évig nem fogja vissza a pct...
(#5480) Abu85
Az engem nem érdekel mit csinálnak konzolon,az legyen a konzolosok problémája.Majd kíváncsi leszek ha eddig nem volt idő,és erőforrás a normális pc port megírására,akkor majd hogyan lesz amikor a driveres optimalizálás,3d,meg multigpu támogatás is a fejlesztőkre hárul majd a low level apival... van egy tippem és gyanítom be is jön...
-
-
Xmister
senior tag
válasz
#85552128 #5410 üzenetére
Nyilatkozatra gondoltam, nem szóbeszédre...
Jelenleg csak erre lehet hagyatkozni, sajnálom. Ha gondolod ne vedd figyelembe, szerintem viszont senki nem találna ki ilyeneket poénból.Egyébként ha "lassú" a kód akkor az nV-n is lassú lenne.
Nagyon egyszerűen el lehet érni, hogy ez ne így legyen.(#5411) Abu85:
Valami a Final verzióval történt.Esetleg arra tudok gondolni, hogy valamilyen debug kódban volt egy javítás, amit most kiszedtek. De ennyire amatőrök nem lehetnek.
-
HSM
félisten
válasz
#85552128 #5364 üzenetére
A felsőkategóriás csipes kártyákra gondoltam, Cypress, Cayman, Tahiti, Hawaii.
Mindből tudja az összes referenciamodell és a jobb gyártói megoldások is a VRM monitorozást és feszültség állítást.
De a 7870 refi is tudta amúgy, ami a 260X közvetlen rokona.(#5344) gbors: Szerintem nem fognak komolyabban belenyúlni. Épp azért ilyen most is, mert APU-k mellé (is) tervezték.
Igen, ezért kell amúgy. Hogy a leggyengébb csipek is menjenek, és ne kellejen sokat tesztelgetni, tehát túlzottan biztosra mennek. Kicsit többet kéne molyolni a gyári fesz belövésével, az alsó 10-20%-ot meg eladni kicsit magasabb TDP-vel LE néven, ahogy tették eddig is, pl. 5830-Cypress LE, 7870XT-Tahiti-LE.
-
Malibutomi
nagyúr
válasz
#85552128 #5393 üzenetére
..es a fejlesztoknek sem tunt fel. Mert nekik nem kell tesztelniuk a sajat termekuket. Ja de, hisz konzolon jol fut...az is amd, arra hogy sikerult megoldani? Ja ott muszaj dolgozni vele, nem lehet felkeszen lebaszni az asztalra, hogy oldja meg a driver.
Meg a legotvarabb programoknal is ahol tenyleg sokat segitett uj driver csak annyi volt hogy max 5-10 fps elteres a ket gyarto kozott, nem pedig igy hogy a teljesitmeny 1/3-a van kihasznalva.
Na mindegy a lenyeget ugysem tudjuk meg, szoval tok felesleges ragozni.
-
#85552128
törölt tag
válasz
#85552128 #5389 üzenetére
+: [link]
"Great chat with Ian, we love @projectcarsgame and are working with them now. Update to follow shortly, rest assured AMD on Project Cars."
Ezt mondjuk egy user csinálta, Win10-en gyorsabb Project CARS performance test (Windows 8.1 vs Windows 10)
-
Xmister
senior tag
válasz
#85552128 #5380 üzenetére
Ebben az esetben is legalább a 970/780Ti szintjén kellene lennie a 290X-nek. De, hogy 2 különböző NV arch alatt is jó, de AMD-n nem, az azért furcsa. Főleg a fentebb említett szerződés ismeretében.
(#5382) Abu85: Mióta ülnek a gyorsabb kódon, amit megkaptak Inteltől/AMD-től? Lett volna idejük tesztelni.
-
Abu85
HÁZIGAZDA
válasz
#85552128 #5374 üzenetére
Persze, hogy nem, egy csomóan pénzvisszafizetést követelnek a fejlesztőktől. Már alakul egy csoportos per is. Nem ezt támogatták.
A fejlesztők elkövették azt a hibát, hogy a gépigénynél nem írták ki, hogy a Radeon tulajon ne vegyék meg. Ettől jogilag nagyon durván támadhatóvá váltak. A Telltale Games pont ezért írja oda mindig, hogy Intelen nem fut jól xy programjuk, és ennek tudatában vedd meg. Védik magukat a pertől. -
HSM
félisten
válasz
#85552128 #5302 üzenetére
Igen, normális, de nagyon nem mindegy, mennyit... Anno a HD 5850-em kb. 60K-ért vettem 1 hónaposan, és 3 évvel később 24K-ért adtam el. Na, az egy normális amortizáció volt 3 év alatt. Ha a DX12 újításai bejönnek, a 970/980-on nem ekkora lesz a bukó.... Erre célzok.
Persze, ez csak a személyes véleményem. -
HSM
félisten
válasz
#85552128 #5291 üzenetére
Nem tudom, feltűnik-e, hogy a 290 több, mint egy évvel korábban került 550 dollárba, ha ma nézem, másfél évvel ezelőtt. Tehát sokkal kisebb lesz az értékvesztése annak, aki azt vette, mint aki most vesz 980-at, vagy tette fél éve.
Arról nem is beszélve, ha a 290 még erősebb lesz DX12 alatt, amire azért reális esély van, akkor a 970/980 kártyák értékvesztése nem lesz piskóta. -
-Solt-
veterán
válasz
#85552128 #5294 üzenetére
Még jó, hogy odaírtam, hogy feltételezés!
Egyébként gbors cikke is felveti ezt, mint lehetséges kimenetel... A korábbi DX-re hivatkozás nem pálya, teljesen más a szitu... Ennél közelebb pedig úgysem jutunk, tehát marad a majd meglátjuk...
(#5295) TTomax: Ne haragudj, de a stílusod annyira idegen tőlem, hogy amíg azon érdemben nem változtatsz, én nem kívánok kommunikálni veled semmilyen formában.
Értelmesen leírtam a mondandóm, ha ennyi ment át belőle sokadjára is, akkor úgysincs értelme a kommunikációnak. Párszor belementem már a játékba, elég volt.
-
-Solt-
veterán
válasz
#85552128 #5291 üzenetére
Ha csak a BIS (DayZ) fél, egy éven belül átáll a DX12-re, és emiatt beelőznek a régebbi AMD kártyák, már jöhetnek a kérdőjelek az NV tulajokban... (akik az érintett játékkal játszanak). Minél több engine vált, vagy jelenik meg DX12/Vulcanra játék, annál nagyobbat fog csökkenni az értékük... És ugye a jelek szerint itt hamarabb megy végbe a váltás, mint a DX korábbi változatainál.
Nem a természetes avulásról beszélek, hanem arról, hogy egy 1 éves VGA ára egy szintre kerül egy 3 éves VGA árával.
Feltételes módban beszélünk, mielőtt valamelyik élharcos támadna!
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Kevesebb dolgozó kell az Amazonnak, AI veszi át a rutinfeladatokat
- Kerékpárosok, bringások ide!
- VR topik
- Azonnali notebookos kérdések órája
- SSD kibeszélő
- BestBuy topik
- Apple MacBook
- Óra topik
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Kormányok / autós szimulátorok topikja
- További aktív témák...
- ASUS ROG STRIX RTX 4070 Ti O12G 2026.10.24-ig alza garis.
- XFX Radeon RX 580 GTS XXX Edition 8GB 256 bit GDDR5 Jó állapotú
- Eladó használt Gigabyte AMD Radeon HD 6750 videókártya
- Csere-Beszámítás! Sapphire Pure RX 7700XT 12GB GDDR6 Videokártya! Bemutató Darab!
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming D OC Eladó!
- AKCIÓ! ASROCK H310CM i5 9600K 32GB DDR4 500GB SSD RTX 3050 8GB DeepCool Tesseract SW 500W
- Dell P2419H P2419Hc Full HD LED IPS 24" + P2719H 27" LCD monitor (vékony keretes)
- Fotó állvány eladó
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RX 7600 8GB GAMER PC termékbeszámítással
- AKCIÓ! Microsoft XBOX Series X 1TB SSD fekete játékkonzol garanciával hibátlan működéssel
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: PC Trade Systems Kft.
Város: Szeged