- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- iPhone topik
- Honor Magic6 Pro - kör közepén számok
- Íme az új Android Auto!
- Megjelent a Poco F7, eurós ára is van már
- Amazfit Active 2 NFC - jó kör
- Kiszivárgott a Pixel 10 Pro
- Változó design, tekerhető lünetta: megjött a Galaxy Watch8 és a Classic
- Google Pixel 8 Pro - mestersége(s) az intelligencia
- Samsung Galaxy S21 FE 5G - utóirat
Új hozzászólás Aktív témák
-
hugo chávez
aktív tag
"Igazából csak annyit kell észrevenni, hogy óriási áldozatok árán jutunk ehhez a kiaknázatlan dologhoz."
Én nem így látom. Szerintem nincs áldozat, mert nem volt már mit feláldozni. A "hagyományos" API-knak gyakorlatilag végük (nem csak játék-vonalon), nincs már bennük valódi fejlődési potenciál. Nem véletlenül lépett a Khronos is. Tehát bármi történjen ezután, hátrább nem leszünk a váltással annál, mint ahova anélkül jutnánk. Előrébb, de mennyivel? Nos, ez majd kiderül.
Pc-játék vonalon viszont azt is vedd figyelembe, hogy a legtöbb AAA kategóriás játék konzolokra is készül, vagyis multiplatform és nagyon kevés a PC-exkluzív cím. A konzolokra történő játékeladás viszont jövedelmezőbb piac, mint a PC-s. Tehát a stúdiók a fejlesztési keretük nagy részét a konzolra fejlesztésre fogják kapni. Innentől kezdve meg nagyon nem mindegy, hogy a PC-re portolás költsége pénzben/időben mekkora. Low level konzol API-ra írt játék(és motor) PC-s low level API-ra történő portolása töredék költség, szemben azzal, mintha magas szintű, DX11-hez hasonló struktúrájú API-ra kéne megtenni."Mindenki várja mint a messiás, aztán ami a konzoloknál, olyan szépen működik a zárt rendszer miatt. Itt viszont nagyon komoly problémákat szülhet."
Igen, ez így van. Szülhet és valószínűleg fog is szülni jó pár esetben.
"A jövőben magának a driver írásnak a nyűgjei átszállnak a fejlesztőkre? Mikor még az évtizedek óta ezzel foglalkozó komoly mérnökcsapatoknak is szarul megy általában (AMD... de mostanában az NV driverei is kritikán aluliak voltak pár kiadással) A fejlesztők lehet nyernek a dologgal, bár gazdaságilag nem biztos. Szabadabban kódolhatnak, ugyanakkor sokkal hosszabb, drágább tesztfázis kellhet, sokkal több eszközön. Az AMD-nek és az NV-nek minden céghez küldenie kell specialistákat egy zsák pénzzel, hogy segítsék a munkát. Kisebb stúdiók meg... Kitudja... Majd meglátjuk mit hoz a jövő. Az biztos, hogy előbb utóbb meg kellett lépni, de egyelőre nem látni hosszú távon milyen hatásai lesznek."
Persze, simán lehet, hogy még így is kivérzik az AAA kategóriás PC-s játékpiac (amivel együtt a DGPU-knak is végük lesz), mert nem fogják tudni kezelni az új API-kkal együtt jelentkező nyűgöket. De az új API-k nélkül meg biztosan meghalna. Szóval igazából nincs más alternatíva.
-
#06658560
törölt tag
válasz
#16939776 #69 üzenetére
"Szerintem HBM-éra kiteljesedésénél lesz egy csúcs és egy felezett GPU/gyártó és kifújt."
Plusz az APU-k, iGPU-k. Így a lehetséges konfigot meghatározó mátrix még mindig igen nagy lesz. Két processzorgyártó, w/ OR w/o iGPU, két dGPU gyártó, 0..4 GPU/konfig leosztásban, három/két és fél API (Mantle 2.0 csak bizonyos AMD GPU-kon), plusz a két konzol. Viszont mire ennyire leredukálódik a kínálat, az még jó sok év lesz, hisz egy most két éves csúcs GPU még egy jó pár évig bírni fogja a játékokat.
A játékkészítőknek pedig nem valamikori jövőbeli piacra kell fejleszteniük, hanem arra, amelyikre el akarják adni a vackukat. -
Ren Hoek
veterán
válasz
#16939776 #69 üzenetére
Szóval megveszek egy 14nm-es Arctic-et 8 GB HBM2-vel vagy egy Pascalt... és 2-3-4 évig úgy használhatom, hogy közben jönnek folyamatosan a szoftveres fejlesztések - és a studiók egyre jobban kiismerik az archot, egyre szuperebb és szuperebb grafikák, szimulációk jönnek...
Ez lenne a jóféle kimenetel. Csak ezt így valahogy nem igazán tudom elhinni. Konzolnál ez azért működik, mert előre lehet tudni, hogy még sokáig ezek lesznek és el lehet belőlük adni fixen tervezett mennyiséget és tényleg konkrétan egyre fejlesztesz, nagyon alaposan dokumentálva ismerve a full hw-t. Másrészt a konzolnál is szerintem jelentős visszatartó erő ez a "szoftveres fejlődés". Persze működik, de programozói bravúrokra van már most is szükség, hogy kihozzanak belőlük egy értelmes FPS-t. Ez olyan szempontból káros, hogy jelentősen lassítja a fejlődést grafika terén. Ha bejön ez PC-re is, akkor pont ezt a független fejlődési lehetőséget vesztjük el. Gazdaságilag meg mégkevésbé logikus egy döglődő piacból mégjobban kivenni a rugót, hiszen minek is új kártya, ha 2-3-4 évig jó a régi? Persze apró revelés, újítgatások, de így nem lesz egyszerű hasznot termelni.
-
#16939776
törölt tag
Szerintem HBM-éra kiteljesedésénél lesz egy csúcs és egy felezett GPU/gyártó és kifújt.
Nem fognak 2-3 féle interposert párhuzamosan fejleszteni, és már most sincs jelentős selejt az egyszerűbb felépítésű(játékra butított) GPU-k gyártása során, így a gyártóknak sem érdekük már a köztes szegmenseket feltölteni "hibátlan" GPU-ból butított vagy egyedi tervezésű termékkel..970-addigra már rég "legacy support"-on lesz.
-
Ren Hoek
veterán
válasz
hugo chávez #67 üzenetére
Igazából csak annyit kell észrevenni, hogy óriási áldozatok árán jutunk ehhez a kiaknázatlan dologhoz.
Mindenki várja mint a messiás, aztán ami a konzoloknál, olyan szépen működik a zárt rendszer miatt. Itt viszont nagyon komoly problémákat szülhet.Pl a 970 ügye. Ezt korábban kiveséztük, ugye 3.5 GB-ot tud gyorsan használni, 500 mega viszont belassul. Eddig driverből ki lehetett reszelgetni, hogy ne nagyon használja a végét, de most mi lesz? Konkrétan VGA specifikusan kell megírni a 970-ekre a játékokat. BIOS-ból nem tilthatják le, mert akkor hirtelen 3.5 GB-os lesz a kártya és az nem kóser úgy. Lehet aztán semmiféle problémát nem fog okozni, mert csak 2 sor a kódba.
A jövőben magának a driver írásnak a nyűgjei átszállnak a fejlesztőkre? Mikor még az évtizedek óta ezzel foglalkozó komoly mérnökcsapatoknak is szarul megy általában (AMD... de mostanában az NV driverei is kritikán aluliak voltak pár kiadással) A fejlesztők lehet nyernek a dologgal, bár gazdaságilag nem biztos. Szabadabban kódolhatnak, ugyanakkor sokkal hosszabb, drágább tesztfázis kellhet, sokkal több eszközön. Az AMD-nek és az NV-nek minden céghez küldenie kell specialistákat egy zsák pénzzel, hogy segítsék a munkát. Kisebb stúdiók meg... Kitudja... Majd meglátjuk mit hoz a jövő. Az biztos, hogy előbb utóbb meg kellett lépni, de egyelőre nem látni hosszú távon milyen hatásai lesznek.
-
hugo chávez
aktív tag
"Ez a DX12 meglehet, hogy a PC játék koporsójába az utolsó szög. Lehet szuper új lehetőségeket nyújt, de olyan szintű szakadást okozhat a hardver-szoftver terén, amit csak konzolon lehetett menedzselni igazából. Ráadásul a fejlesztőkre is eléggé nagy terhet róhat, főleg a későbbiekben."
Komplex dolog ez. Talán egészen oda lehet visszavezetni, hogy a jelentős mértékű folyamatos órajelemelés, mint lehetőség megszűnt a CPU-nál is, meg a GPU-nál is. Innentől kezdve a párhuzamosítás, minél több feladat egyszerre, egymás mellett történő elvégzése hozhat csak teljesítménynövekedést. Viszont ehhez, vagyis ahhoz, hogy hatékonyan ki lehessen használni a hardvert, nagyobb hozzáférés kell alkalmazásprogramozói oldalról. A nem explicit grafikus API-kal ezt nem kapják meg, ezért azokat elkezdték kinőni a programok, komolyabb játékmotorok, pl. a Frostbite, de esélyes, hogy az "eredeti" UE4-et is emiatt kellett "csonkolni"... Szóval onnan lépni kellett valahová. El lehetett volna húzni még pár évig a váltást, de akkor addigra még jobban összezsugorodott volna a PC játék-piac. Az OpenGL-nél volt egy gyenge próbálkozás egy köztes akármire, ez volt az AZDO, de annak vége lett, mielőtt még megszületett volna és inkább bevállalta a Khronos is a teljes átállást, vagyis a Vulkant. Szóval a DX12 (és a Vulkan) nem az utolsó szög, hanem ellenkezőleg, egy lehetőség, egy mentőövféleség, amivel aztán vagy tudnak élni a piac szereplői, vagy nem. Áldozatok lesznek, ez valószínű, de legalább a piac megmaradhat. Addig is, elvileg jön még egy DX11.3, tehát akik nem tudnak "felnőni" az explicit API-k követelményeihez, azok erre is fejleszthetnek.
-
#16939776
törölt tag
Még cifráznám: max.:2-3 butítással visszaskálázott modell képezheti a kínálatot teljes idő alatt, hogy ne keljen megszakadni az optimalizálással a fejlesztőknek.
Szerintem nem lesz visszafele kompatibilitás, generációváltásnál 3 év! nem lehet elvárni hogy 100%-ig kompatibilis hardver jelenjen meg, és azt sem lehet elvárni 2,5-3 év múlva valaki újraírja adott játékot.Szerintem nem érdeke egyik stúdiónak sem max.3 évig eladható játékot gyártani, úgy hogy valamilyen módon dx11-es kódban is ki fogják ezeket adni, és normális drivert írnak majd hozzá, 3 év alatt csak sikerül.
Ne legyen igazam, de a kezdeti lelkesedés után rájönnek majd a userek hogy mennyivel macerásabb így az élet és ki fognak állni a sorból. Nem lesz "PC-halál" csak az a 3-4 PC-only stúdió fog osztozni a játék piacon, akik tudnak is maradandót alkotni. DX12-es olcsó portokkal meg kitöltik a maradék űrt. -
Ren Hoek
veterán
válasz
#06658560 #63 üzenetére
Gondolom arra gondolt, hogy a compute AI-kat a GPU számolja és ez ma még nincs megoldva rendesen.
Lehet egy Ashes of the singularity-ben van jelentősége, ahol több ezer egység AI-ját előnyösebb paralell módon számolni a GPU compute egységein és nem a CPU-n. Gondolom a szimulációk futtatása ilyen esetben jót tesz a framerate-nek... vagy a CPU-n számolódik, de mivel nem paralell ezért nem használható rendesen.
Persze ezt csak laikusként mondom.
-
Abu85
HÁZIGAZDA
válasz
#06658560 #60 üzenetére
Pontosan erről van szó. Nem szabad beleszólnia. Ezért váltják le a mostani API-kat. Az új modell szerint született API-kkal már eltűnik a kernel driver, így a program elől semmi sem fogja elvenni a processzoridőt, azt mindet szabadon felhasználhatja a programozó kellemetlen meglepetések nélkül.
(#63) Kopi31415: Sajnos pontosan a kernel driver hibája. Bármennyire is akarod kontrollálni az erőforrás-használatot, van egy olyan rész, ami felett nincs uralmad, és az folyamatosa soros feldolgozásra kényszeríti a motort. Erre csak az a megoldás, ha kivágod ezt a részt a rendszerből. Mindegyik új API ezt teszi és működik.
-
Abu85
HÁZIGAZDA
válasz
KillHates #58 üzenetére
A mai gépeket a játékok szempontjából két mutató szerint vizsgálhatod. Az elméleti teljesítmény és amihez az API hozzáférést enged. Jelenleg az a probléma, hogy óriási a kettő közötti kontraszt. Ha vért izzadsz sem tudod elérni a processzoridő jelentős részét. [link] - itt nagyon jól elmagyarázzák miért.
-
Abu85
HÁZIGAZDA
válasz
KillHates #55 üzenetére
Az interakció nagyon sokat számít. A The Vanishing of Ethan Carter játékmenete rém egyszerű, tehát nagyon komplex jelenetek sem születnek benne, emiatt sokkal szabadabban lehet kialakítani a dizájnt, mert biztos, hogy nem omlik darabjaira a pálya, illetve kvázi AI-val sem kell számolni.
A régi API-k problémája nem az, hogy nem tudnak felhúzni rá egy szép nagy full statikus világot. Ott kezdődnek a gondok, amikor az a világ elkezd nagyon dinamikussá válni a szimuláció által. Akkor elkezdi igényelni a komolyabb processzoridőt, és ott jön elő az, hogy a kernel driver is kéri a processzort, meg maga a játék is, és jönnek nagyon gyorsan a versenyhelyzetből származó limitek. Ezért alapvető fejlesztése az új API-knak a kernel driver megszüntetése. -
Persze igen, de már nincsen igazán nagy átütő előrelépés. A minap ajánlották nekem a "The vanishing of Ethan Carter" játékot. Megnéztem és lepetéztem olyan szép! 2014 eleji játék, semmi visszhangja sem volt pedig valami elképesztően szép grafikája. Oké, hogy nem a mai trendeknek megfelelő klános-ölős-b@szós játék, hanem gondolkodós-nyomozós single gém. Ami igazából gyanút fogott bennem, hogy az öreg notebook-omon riccenés nélkül futott. Utána olvastam és DX9-es játék
Valósághű, szinte fotórealisztikus grafikával. Na mondtam magamban, hogy elmehet az összes DX12-es hardverfejlesztő karöltve a puccos kiadóktól való programozóhordákkal együtt a sunyi 3.14csába, mikor 8 fős lengyel csapat össze tud dobni egy ilyen játékot...
Egyszóval bátorkodtam erre alapozni a felfortyanásomat, hogy fejlesztenek orrvérzésig a chip gyártók, miközben a 4-5 éves kódon alapuló motorok sincsenek még kihasználva a szoftveres oldalról... -
Ren Hoek
veterán
válasz
Kotomicuki #51 üzenetére
Egyre nagyobb az igény a már leírt könnyed, gondolkozást nem igénylő, netes, sztori nélküli játékokra. Ezek elfutnak telefonon, tableten stb... vagy aminek mondjuk örülök, hogy az indie játékok is reneszánszukat élik olyan grafikával, ami kvarcórán is elfut. (Egyébként sok tényleg zseniális 2D, izometrikus játék születik... néha ezek jobban lekötnek, mint a nagy címek)
Ezeknél meg nem számít, hogy.DX9 vagy DX12 és hogy milyen HBM interposeren fut... Inkább ilyenért adok ki szívesebben pénzt, mint egy 15K-s játékért, amihez online szerver kell, és lehet el se indul pár év múlva egy új hw-n...(#52 ) sb válasza: Kérheted tőlük, de le fogják szarni. 3 évre rá, egy single játékra minek is költsenek? De ha jofejek is, hatalmas késésekkel számolhatsz. Rosszabb esetben megszűnt a csapat és teljesen esélytelen, hogy patcheljék.
Pedig én nagyon fel lennék b...va, ha pl a pár éves megvásárolt játékaim bugzanak vagy el se indulnak az új gépemen. Nem csak lassulásról van szó.
-
sb
veterán
Nézd, ha nem kérhető tőlük akkor kiktől?
Driver fejlesztők? Ufók? A kód írja meg magát?Jó, hatékony kódot akarunk de ez nincs ingyen. Eddig volt vastag drvier és api, látszik, hogy nincs lehetőség előbbre lépni. A világ meg ilyen, hogy eladni csak újat tudsz. A régit nem kell 10x megvenni mert felesleges.
És egyébként ez nem újdonság... nem technikai korlát vagy bug mint sokan látják. Maga szintű programozás soha nem lesz hatékony többféle architektúrára mert többféle és mert te nem optimalizálsz alacsony szinten. A fordító fordít... jó nagyot, sokféle hw-s megoldásra.
Szóval ez elvi probléma amit ennélfogva soha nem fognak tudni megoldani. Vagy alacsony szintű kód kell és az hatékony lesz, de ahány architektúra annyiféle kód kell. Vagy magas szintű kód és imádkozni egy jó/okos/nagyonszuper fordítóért ami megoldja minden hw-re. Vagy harmadik megoldás, hogy egyféle hw architektúra van és nincs fejlődés. Ez se túl jó.
Eddig ment a hw fejlesztés azonos paraméterekkel könnyedén. 5ft-ból jött egy 2-3x teljesítményű cpu és gpu. Semmi nem hátráltatta, hogy ugyanaz a szar kód+api+driver gyorsabb legyen. De ez leállt elég régen.
Ezért írtam a cpu-kat. Az x86 kódok is kis hatékonyságúak sokszor, 10-20 éves foltozgatott szarok. Ezekbe nem ölt senki energiát mert valóban sok kell hozzá és olcsóbb volt az új chip alacsony hatásfok mellett is. -
Kotomicuki
senior tag
"Ehelyett egyenként oda kell menni a fejlesztőkhöz, hogy ugyan legyenek már kedvesek megpatchelni a játékot, hogy az új VGA-család ne legyen lassabb, mint az előző generáció."
Amikor még most is képesek, soha ki nem javítandó bug-tengert kiadni késztermék gyanánt, akkor csak azért fog babráltatni a kiadó játékával, mert az net-hez kötött, ha nem ilyen, hanem hagyományos "single" game, akkor nagy ívben tenni fog rá, mert addigra - a 2,5 éves ciklusok - abból már a 3. részt szeretné újra eladatni - ha az első még "sikeres" volt - , nemhogy azzal tökölni, amiből már nem lesz profitja (ezt már régen bebizonyították a játék-"fejlesztők" (is)) - a ciklusváltás előtt még talán, de ha az már a kiadás utáni évre esik...!
Uú, mint ahogy nem éri meg a hw-t fejleszteni, majd a szoftver sem fogja - mindenkinek - , és így ez a mutatvány is bukni fog!
Ha meg már a következő évben nem tudod használni az adott programot, mert a hw- és a szoftver-gyártó egymásra mutogat, hogy kinek is kéne a "régi" hw-re kompatibilissé tenni azt - az ezzel felmerülő költségeket állnia - , akkor aztán tényleg be fog zárulni ez az ördögi kör, mert pláne ennyiért felét sem fogják eladni a programoknak, mint most - és csak azok jártak jól ezzel, akik egy sikeres, egykor még öngerjesztő piacra belopakodtak és aljas módon szétverték azt az egyéni hasznukért!Nincs mese: vagy újból "egységes" lesz a piac - vagy a PC(/apple), vagy a konzol visszavonul és a maradék is sztenderdizálódik - , vagy mindegyik bele fog dögleni a szétaprózottságba, mert annyifelé, annyi mindent már tényleg nem éri meg fejleszteni, pláne úgy, hogy a fizetőképes kereslet globálisan egyre kevesebb és egyre kevesebb tőkével is bír!
Ehhez még nyugodtan hozzá lehet venni, hogy nagyon sok más tényezőre van utalva a kiadó, ha a termékét piacra akarja dobni PC-n - op.rendszer, egyéb környezetek, ráadásul ezek megkerülhetetlenül egymásra épülnek... - és ezek is egyre gagyibbak, hiszen ezek készítői is spórolnak mindenen, amin nem szabadna, még azon is és egyre kevesebb a valóban hozzáértő zseni - mert rajtuk, az emberen és a fejlesztési időn a legkönnyebb spórolni - , aki normálisan, a lehető legkevesebb hibával dolgozna: ha meg már az alapok ingatagok, akkor aztán lehet vakarni a fejet, hogy most mi miatt nem megy, ahogy kéne a programom és a hiba kijavítása mennyibe kerülne a bíróságokon, ha mégis rávered azt a monopolistára/jogtulajdonosra és nem ölsz bele 3-5x annyit annak megkerülésébe.
-
Ren Hoek
veterán
Értem én ezt, de gondoljunk bele, már ma is vannak inkompatibilitási problémák, pl Fallout 3 nem megy Win 8.1-en (csak GOTY) erről volt szó múltkor. Még sok ilyen van... Na most képzeljük el azt, hogy nincs egységes driver... Generációnként nyögjük ezt eszközspecifikus bugokkal. Nem kérhető tőlük a régi játékok patchelését... csak jófejség lesz majd.
-
sb
veterán
válasz
KillHates #46 üzenetére
Így van.
És x86 fronton is ez megy. Energiahatékonyságban van előrelépés, nem is kicsi, de abszolút mértékben nincs semmi. Egyébként szükség sincs rá. Átlaguser egy Bay Trail-el vagy i3-ig bezárólag elvan bármivel. Játékra kell több, de ott is csak az elb*szott DX miatt tehát az sem valós igény. A maradékra meg a gpgpu és heterogén kód lenne jó ami megint sw oldali fejlesztés.
-
Abu85
HÁZIGAZDA
válasz
TESCO-Zsömle #47 üzenetére
Nem számolod bele az átnevezéseket, akár kisebb javításokkal. Ilyenek továbbra is lesznek. És ennek az R&D költsége elég alacsony.
(#46) KillHates: Ez nem igaz. Hardverben is van fejlődési lehetőség, csak az a kérdés, hogy API nélkül el merjenek-e indulni az úton. Egyedül az AMD mert elindulni, mert hittek abban, hogy át tudják nyomni az iparon a reformjukat. Persze kockázatos volt, akár az is történhetett volna, hogy ez nem sikerül, és akkor most az AMD-nek le kellene cserélnie a GCN-t. Ez a sok egyéb faktor mellett (konzol, fejlesztők segítsége, saját API) mindenképp mázli volt, hogy sikerült, így most a többieknek kell cserélni architektúrát.
-
TESCO-Zsömle
titán
Pont erről beszélek, hogy ugyanannyi (2.5 év) R&D költséget most sokkal kevesebb eladással/termékkel kell kitermelni. És ezen nem fog javítani, hogy a meg nem csinált új kártyák fejlesztési költségeit SW-re költik, amíg költik. Marad a korábbi képlet, hogy az adott generációnak 2,5x annyi pénzt kell behoznia, mint most. Ez még úgy is húzós, hogy erre 2,5x annyi ideje is lesz...
(#46) KillHates: És látod a sok programozó/fejlesztő még cukrozva se volt hajlandó lenyelni, különben nem beszélnénk API-forradalomról a Mantle, Vulcan meg DX12 kapcsán...
-
-
sb
veterán
Na ez az amit nem fognak megtenni... Egy generációváltáskor már simán lehet, hogy rég megszűnt a fejlesztőcsapat, a studió, a kiadó.. vagy egyszerűen csak sz.rnak rá. Miért is kéne ilyen hosszútávú támogatást nyújtani PC-re, mikor egy döglődő piac?
Épp azért, hogy ne haljon meg. A munka büdös... persze most ezt degradálom, de a költségek kordában tartása tényleg fontos. Viszont fordítsuk már meg, mert megélni meg szeretnének egy piacból ami döglődik. Ehhez tenni kéne... Ha sw-ből kijön 1.5-3x teljesítmény egy adott hw-ből akkor nem látom értelmét, hogy a hw-s +10%-os előrelépéssel vacakoljanak. Az az ami drágább.
Előrelépni meg kell mivel ugyanazt nem adhatod el évekig. Sw-ben sem.
Szóval ezért kell vele foglalkozni.Ez a DX12 meglehet, hogy a PC játék koporsójába az utolsó szög.
Ha ezen a módon állnak hozzá akkor biztos vége lesz. De nem a DX12 a szög, hanem a hozzáállás.Szóval ne a csík tolja már a repülőt.
szerk: Dvga fejlesztés is azért áll mert nincs hova előrelépni a jelenlegi struktúrában. Hw-ben hova lépnél előre mikor 2-300W monstrumok hozzák csak a top teljesítményeket? És közben meg mit csinálsz a 6-8tflops kártyákkal? 40-50%-os kihasználtság mellett meg draw call (cpu) limittel? Akármilyen vga-t tehetsz a gépbe, sehova nem tudsz előrelépni. A hw-s fejlődés leállt. Cserébe sw-ben meg épp nagy potenciál van.
(Persze hw-ben is biztos lehetne fejlődni, de nem a jelenlegi struktúrában. Mondjuk raytrace felé... de azzal a fejlesztőket hímes tojásként kezelőknek megint bajuk lenne, mert új sw-ket kéne írni nulláról.)
-
Ren Hoek
veterán
Nemrég láttam vagy tizedjére ezt a filmet
Zseniális... Régen mennyivel kevesebbet aggódtunk a PC-ipar jövőjén
Bud Spencer filmek után csak beültem a kis piros Junovszty TV és a Commodore 64 elé, volt vagy 500 3.5-ös floppy-m, tele játékkal ... Nem volt ám min FPS, AVG FPS, microlag, anti aliasing, DLC, free2play, stb... csak betettem a floppy-t és futott lag nélkül, betonstabilan
-
stratova
veterán
válasz
KillHates #29 üzenetére
olyan zárt mint a öreganyám szilvabefőttje
vagy a puffin -
Ren Hoek
veterán
Ha efelé haladunk, akkor tényleg kivéreztetik a PC-s piacot. Egyre drágábbak a kártyák amúgy is... bejön még ez az inkompatibilitási hullám is, akkor még kevesebb kártyát fognak venni, még lassabb fejlesztések stb... Az elv hasonló lenne mint a konzoloknál, adott arch-ra fejlesztünk. Csakhogy ez nem konzol, itt többféle arch lesz a piacon. Ördögi kör... minek fejlesszenek egy hasznot nem termelő hw-t?
Szokjunk hozzá a gondolathoz, hogy vehetjük majd a konzolt mi is, ős PC-sek - ha új játékokkal is játszani akarunk. PC meg tényleg marad a gagyi IGP-s grafikájú szarokkal + a felfelé ívelő mobilos játék / esetleg néha kapunk valami konzol portot...
Olyan lesz a jövő mint a Black Mirrorban (Ha van egy kis időtök nézzétek meg az elejétől, zseniális
)
Black Mirror shooterGagyi f2p, virtuális valóság tele reklámokkal, amiket csak akkor tudsz lekapcsolni ha fizetsz, és elnézni sem lehet "Resume viewing"
Oculus Facebook
-
saelin
veterán
Én is felkaptam a fejem erre a mondatra, de kétlem hogy brutális lassulások lennének egy újfajta vga miatt. Szerintem csak pár, max 5-10% teljesítményvesztéssel kell számolni, amit az új vga-k majd erőből megoldanak.
Legalábbis kétlem, hogy olyan előfordulhat, hogy egy adott játék el sem indul, de majd az okosak kijavítanak, én csak spekulálok. -
Abu85
HÁZIGAZDA
válasz
TESCO-Zsömle #32 üzenetére
Ha megnézed az áremelés folyamatosan történik. Ezzel egyébként nincs gond, mert azt a gyorsulást, amelyet mostantól nem a hardver hoz, szoftveresen megkapod, tehát önmagában ettől nem lesz kisebb az adott cég R&D-je, csak mostantól nagyrészt a szoftver teszi majd azt ki.
(#36) otto1: Igen, ez lesz az oka, amiért a jövőben elterjednek az olyasmi pilot VGA-k mint a Tonga. Ezeknek csak annyi a dolga, hogy legyen optimalizálás mire a nagy VGA-k megjönnek.
-
otto1
tag
válasz
TESCO-Zsömle #32 üzenetére
Ha a gyártók profitját veszed alapul mindenképpen áremeléssel kell járni a két termék megjelenése közötti ciklusidő hosszabbításnak.
Ha van egy régebbi VGA-d amit jó eséllyel mindenki beépít az új DX12-es játékába, programjába, ki fog egy új, még nem támogatott kártyát megvenni, és várni a peccs-re?? -
Ren Hoek
veterán
"Ehelyett egyenként oda kell menni a fejlesztőkhöz, hogy ugyan legyenek már kedvesek megpatchelni a játékot, hogy az új VGA-család ne legyen lassabb, mint az előző generáció."
Na ez az amit nem fognak megtenni... Egy generációváltáskor már simán lehet, hogy rég megszűnt a fejlesztőcsapat, a studió, a kiadó.. vagy egyszerűen csak sz.rnak rá. Miért is kéne ilyen hosszútávú támogatást nyújtani PC-re, mikor egy döglődő piac?
Ez a DX12 meglehet, hogy a PC játék koporsójába az utolsó szög. Lehet szuper új lehetőségeket nyújt, de olyan szintű szakadást okozhat a hardver-szoftver terén, amit csak konzolon lehetett menedzselni igazából. Ráadásul a fejlesztőkre is eléggé nagy terhet róhat, főleg a későbbiekben. Eljöhet az a korszak, hogy minden generációból kell majd egy VGA, mindkét gyártótól, ha valaki játszani akar a régiekkel is. VGA exklúzív játékok kora...az kéne még csak. Tényleg vesz az ember egy 80-100K-s konzolt, aztán szevasz. Nem generációnként nem kompatibilis 200K-s VGA-kat...
Ezen kívül magának a dVGA piacnak is egy nagy szőrös lompos a hátsójába. Lassuló fejlesztések, amiknek nagyobb a költsége pl a HBM miatt, hasznot pedig jóval később látnak és talán kevesebbet is egy amúgy is amortizálódó piacon. Miért is érné meg kihozni egy új gent? A HW gyártók a szoftverből élnek? A vége tényleg a dVGA halála lesz. Opció lesz pár gyártó kicsi IGP-je, amin majd szépen elfuttathatjuk a Wii szintű grafikákat, és a VR szemüvegben jól szórakozhatunk. Úgy is a mobilos meg tabletes gagyi free to play játékokra van igény sz..rás közben, nem fotorealizmusra. Fizikailag van óriási lemaradásban az IGP és ezen nem lehet segíteni, csak visszafejlődéssel.
-
Huh! Azért elfogadnám. A VRM-re "bordás" hűtésnek csak akkor van értelme, ha van légmozgás a gépben. De mivel ez olyan zárt mint a öreganyám szilvabefőttje ezért gyanítom, hogy blokk fedi azt is...
Viszont ez a tepsi méretű chip aggodalommal tölt el:
De biztosan tudják a mérnök bácsik, hogy mit csinálnak...
-
jacint78
addikt
Tiszta szilícium? Nincs benne semmi vezetősáv? A szilícium érinkezik szilíciummal?
Goblin12
De az AsRock VRM hűtés nélkül. Előbb nézz utána, hogy mennyi hőt vezet el a nyák, ja és mekkora konverter hatásfoka. Megjegyezném, hogy a hűtős megoldásokon is inkább dísz a hűtő, a hő nagy részét a nyák vezeti el ott is, közvetlenül a FET hőelvezetőihez csatlakozva, nem az alumínium a műanyagtokon.
-
Goblin12
őstag
Itélje meg mindenki magának.
-
Abu85
HÁZIGAZDA
Valószínűbb, hogy az interposer elnyújtja majd a VGA-k tervezési idejét. A Fiji is 2013 végén készült el a Tongával párhuzamosan, de azzal ellentétben egy és háromnegyed év múlva jelent meg. De ez egyébként nem akkora probléma. A fejlesztések eleve le lettek lassítva az egy generációs frissítésekről. A jövőben valószínűleg két és fél évente jön új generáció, mert szoftverfejlesztés is megváltozik, és sokkal többet hoz a konyhára a meglévő architektúra megismerése. A low-level API-val már nem lesz arra lehetőség, hogy kiadjanak egy új drivert az új architektúrához optimalizált allokációs stratégiával. Ehelyett egyenként oda kell menni a fejlesztőkhöz, hogy ugyan legyenek már kedvesek megpatchelni a játékot, hogy az új VGA-család ne legyen lassabb, mint az előző generáció.
-
Reggie0
félisten
De szamolnak, viszont vegeredmenyben a gyakorlat donti el, hogy mennyire jol, nem a gyorsitott oregedesi tedztek. Az, hogy van egy plusz problema forras amit probalnak a garancialus ido vegeig kordaban tartani, nekunk csak annyit jelent, hogy meg kevesebb eselye van a termeknek a hosszu elettartamra.
-
jacint78
addikt
Újabb szeg a megbízhatatlanság koporsójába! Igy is volt épp elég kontaktus ami megszakadhatott a hőtágulástól, most van még kettő.
-
Meridian
senior tag
Arra lennék kíváncsi hogy a biológiát és géntechnológiát mikor vetik be az áramkörgyártásban...
Azaz génmódosított baktériumokkal mikor növesztenek térbeli áramköröket... -
Rive
veterán
Egyrészt a GDDR5 valós órajele sehol sincs a 7GHz-hez.
Másrészt a probléma gyökere a behúzandó vezetékek száma. A HBM 'szélessége' többszöröse a többi memóriaszabványénak, és minden vonalnál egyszerre kell figyelni az impedanciára, a hosszra és a vonalak közötti áthallásra.
Úgy egy-két nagyságrenddel bonyolultabb probléma, mint rendes PCB-n megcsinálni 'rendes' memóriával.
-
#16939776
törölt tag
Meg nem lehet akárhova árnyékolást rakni, mert a szort kapacitások és a "változatos" vezetékezés induktivitásai miatt úgy fog működni, mintha RND "méretezett" szűrőtagokat építenénk be, és nem jut át rajta a jel vagy torzulni fog. 1024*2(szimmetrikus az adatvezeték) vezetéket kellene közel egyforma paraméterekkel legyártani az órajel skálázódáshoz, ami tényleg nehézkes. Minden támogatás mellett is legalább egykét év lesz mire elkészülne a végleges verzió, de addigra már másik GPU alá kell gyártani egy másik elosztásút...
(#6) Kotomicuki: +1
Ha fel tudnák rakni a mem. vezérlő hátára a HBM-et interposer nélkül akkor nem kellek közé csak táp vezetékek. De ahhoz "úgy kell megtervezni" a GPU-t, és innen már egy lépés a teljes integráció. -
Kotomicuki
senior tag
Ez a probléma is meg fog oldódni, hogyha egy lakán kap majd helyet minden részegység, ez a mostani felállás átmenetinek(/kényszerű zsákutcának - mint a SLOT-os CPU-k, amiken a nyákon volt a cache, vagy amíg még külön lapka volt a CPU és a GPU, egy tokozáson belül) fogható fel: ha majd valóban lemennek a marketinges 10-7 nm közelébe a gyártástechnológiával, akkor már majd gyárthatják egy lapon is az egészet - hiába nő meg a lapka kiterjedése, ha a teljesítményt és a kihozatalt csak így tudják majd magas szinten tartani!
-
Petykemano
veterán
akkor mégiscsak beta teszt volt, csak nem a driveré, hanem a hardveré. Ha hinni akarunk a DX12-vel kapcsolatos ez majd az AMD-nek lesz jó híreszteléseknek, akkor ez azt sugallja, hogy kellett a beta teszt, hogy a DX12 érkezésééig felfusson a tömeggyártás és legyen megfelelő készlet, amikor az emberek majd megrohamozzáka boltokat
lol
-
Kíváncsi vagyok, hogy milyen fizikai kapcsolat lehet a flipchip és a vastagréteg hordozó között, Ha maradnak a régi ball grid array technológiánál akkor gyanítom, hogy az AMD a saját sírját ássa...
-
seolwon
tag
Továbbra sem értem ezt. Miért nehezebb a GPU közeli HBM-et összedrótozni 1GHz-en mint a 7GHz-es ráadásul aránylag távol található GDDR5-öt? Nagy az áthallás a vezetékek között?
Ugyanennek a gondnak akkor meg kell lenni egy GPU-n belül is (~600mm2 1GHz körül).
Nincs ez a probléma kicsit felfújva? -
Goblin12
őstag
Áhh, jól hangzik, de ennyi + problémát. Már látom egyes oldalakon, hogy nekem 2Ghz-es Interposerem van, és és akkor én most királyok szövegeket.
Ha meg ennyire baromian nehéz összeilleszteni őket, akkor hova növelik a sebességét annál nehezebb lesz.
NV is ezt a HBM-et fogja majd használni vagy Ők fejlesztenek valami mást?
Új hozzászólás Aktív témák
Hirdetés
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- A Windows 11 lett az úr az asztali PC-k piacán
- TCL LCD és LED TV-k
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- Építő/felújító topik
- No Man's Sky - Már elérhető a Worlds Part 2 frissítés
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Hamarosan rézhiánytól szenvedhet az egész chipgyártás
- Gumi és felni topik
- Anime filmek és sorozatok
- További aktív témák...
- Apple iPad (9th Generáció) Wi-fi + Cellular, 1 Év Garanciával
- BESZÁMÍTÁS! ASUS Z390 i5 9500 16GB DDR4 512GB SSD RTX 2060 Super 8GB Rampage SHIVA Thermaltake 500W
- Telefon felvásárlás!! iPhone 13 Mini/iPhone 13/iPhone 13 Pro/iPhone 13 Pro Max
- Bomba ár! Dell Latitude E7240 - i7-4GEN I 16GB I 256SSD I 12,5" HD I HDMI I Cam I W10 I Garancia!
- Apple iPhone 14 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest