- Magisk
- Xiaomi 14T Pro - teljes a család?
- Samsung Galaxy A16 5G - a hetedik évben megpihen
- Milyen okostelefont vegyek?
- Okosóra és okoskiegészítő topik
- Mobil flották
- Hat év támogatást csomagolt fém házba a OnePlus Nord 4
- iPhone topik
- Xiaomi Mi 11 Lite - 4G-vel vagy 5G-vel kéred?
- Motorola G86 - majdnem Edge
Új hozzászólás Aktív témák
-
sb
veterán
válasz
#06658560 #21 üzenetére
Amit leírtam az okozhatja:
Csíkszélesség csökkentés már nem nagyon hoz előrelépést. Vagy k* drágán.
Tulajdonképpen várni sem kell, ez már létező dolog. Nézd meg hány cpu, vga jött ki 10 éve és mennyi az utóbbi 5 évben. Hányat neveztek át vagy hánynál volt kis architektúra finomítás csak.Nem nagyon tudnak értelmes teljesítménytöbbletet kihozni hw szinten. Akkor miért tennének bele csillió pénzt?
És - bár ugye nem azonos vállalat - de a játékfejlesztői megnövekedett fejlesztési költség is visszaüthet. Lásd Mantle/Vulkan demok. Ha X pénzből lóf*sz se jön ki teljesítményben új hw-ben, de egy kis plussz fejlesztéssel 2-3x kihasználtsággal gyakorlatilag 2-3x sebességre kapcsol a jelenlegi hw akkor érdemesebb oda támogatást tolni. Hogy mondjuk legyen kedv (pénz) a másik 10 vga-ra is optimalizálni kicsit.
-
kisfurko
senior tag
válasz
#06658560 #23 üzenetére
De ez miért zavar téged? Legrosszabb esetben marad minden úgy, mint eddig. Remélhetőleg nem.
Neked is ajánlom a doksi megtekintését. Ez nem valami egészen más, mint ami eddig volt, hanem nagyobb szabadság a programozásban. Nagyobb kontroll az erőforrások és a parancskiadás felett. -
válasz
#06658560 #23 üzenetére
Mivel anyagi érdekük fűződik hozzá, így azt látom logikusnak, hogy az eddiginél jobb minőséget fognak felmutatni. Eddig lehetett fogni az API-ra és a gyártókra. Most már csak rajtuk múlik.
Egyébként a kiadók szervezhetnek olyat is, hogy több ajáluk tratozó stúdió között felosztják a fejlesztést, és közösen dobnak össze egy grafikai motort.
Én is olyan helyen dolgozom, ahol a minőség helyett sokkal fontosabbnak tarja az amcsi fél a mennyiséget és az új fícsöröket. Mégis sokkal jobb eredményt értünk el minőség terén azonos idő alatt, amikor egyszer az összes felhasznált 3rd party könyvtár helyett írtunk egy saját könyvtár csomagot C++-ban.
Eleinte sok volt a bug, de mire release-eltük az első ilyen verziót már látszott a nagyobb hatékonyság, mert az utolsó pillanatban kért változtatásokat napok, néha órák alatt be tudtuk építeni, amiket addig halálos hack-ekkel tudtunk csak megoldani, és sokkal többet is kellett tezstelni, mert nem tudtuk, hogy a sok átláthatatlan komponens hogy reagál a változásra.Egyébként erős a gyanúm, hogy az alacsony szintű nyelveken írt játékmotorokat sokkal jobban lehet unit tesztelni, mint a dx11 progikat.
-
válasz
#06658560 #21 üzenetére
A kérdésed jogos és logikus. Ennek ellenére nem hiszem, hogy reálisan, számok alapján össze lehet hasonlítani a rengeteg plusz fejlesztést a rengeteg szopással. Nem azonos a mértékegységük.
Nyilván a nagyobb stúdiók fognak ráugrani először az alacsony szintű API-ra, akiknek van rá erőforrásuk.
Akik nem tudnak vagy nem akarnak ezzel foglalkozni, azok számára továbbra is nyitott a kapu a dx11.x irányába. Tudtommal emiatt született a dx11.3 is.
Vagyis van választási lehetőség. -
sb
veterán
válasz
#06658560 #11 üzenetére
Akkor belefulladnak és bezárják a boltot.
Amit leírsz az azt jelenti, hogy hatékony kód csak egységes hw-ra létezik = konzolok. ÉS ezzel le is zárhatjuk a PC gaming kérdéskört.A kerülőutak meg azok voltak amit láttunk/látunk még:
1. DX szintű egységes magas szintű réteg: ebben nem lehetett hatékony, értsd: jól futó, hw-t kihasználó és bugmentes, debugolható - tehát egyszóval rendes, használható kódot írni.
2. A low level meg majd amiatt vérzik el amit írsz: a fragmentáció plussz költségei.Ha ez a két út nem működik akkor csak a konzol marad.
De ez nem véletlenül régi kérdés. Mindig a kisebb ellenállás (költség) irányába fejlődnek. Eddig a buta sw + olcsón fejlesztett hw volt az olcsóbb út. De ez megrekedt. GPU-nál is, plussz van amit a hw sem old meg (lásd DX11 cpu overhead). Meg amúgy CPU-nál is, de az más témakör.
Szóval szerintem ez nem új kérdés, ősidők óta ez megy. Most olcsóbb lesz 10 felé optimalizálni +20 féle új hw helyett, ami alig hoz előrelépést. És mivel nem hoz fejlődést így nem is fog +20 féle jönni vélhetően, hogy 30 felé kelljen optimalizálni. GCN is mióta reszelődik. NV meg featurre csak visszafelé fejleszt kb. + átnevezések évek óta.Szóval van azért esély, hogy szépen átrendeződjenek a források is hw+driver oldalról sw felé. -
-
Abu85
HÁZIGAZDA
válasz
#06658560 #11 üzenetére
Ezért kell dokumentálni a hardverek működését, hogy ha valamit a fejlesztő nem tud, akkor felüti a dokumentációt és aszerint választ irányt.
Jelen formában ez valóban probléma, már csak azért is, mert egy top fejlesztő ma így dolgozik: [link] - nem véletlenül írnak manapság ennek fontosságáról egyre több blogot az érintettek, hogy az NV és az Intel végre figyeljen, és hozza az új API-khoz szükséges eszközöket és doksikat.
Új hozzászólás Aktív témák
Hirdetés
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7700X 32/64GB RAM RX 9070 16GB GAMER PC termékbeszámítással
- Lenovo Thunderbolt 3 kábel (4X90U90617)
- AKCIÓ! AMD Ryzen 7 3800X 8mag 16szál processzor garanciával hibátlan működéssel
- ÁRGARANCIA!Épített KomPhone i5 10600KF 16/32/64GB RAM RX 6600 8GB GAMER PC termékbeszámítással
- REFURBISHED - HP USB-C Universal Dock G1 docking station (DisplayLink)
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest