- Motorola Edge 50 Neo - az egyensúly gyengesége
- Motorola Razr 60 Ultra - ez a kagyló könnyen megfő
- Hívószám-hamisítás
- Milyen okostelefont vegyek?
- Android alkalmazások - szoftver kibeszélő topik
- Honor 200 Pro - mobilportré
- Samsung Galaxy Watch7 - kötelező kör
- Samsung Galaxy A53 5G - kevesebbet többért
- Netfone
- Poco F6 5G - Turbó Rudi
Új hozzászólás Aktív témák
-
smkb
őstag
válasz
sayinpety #30625 üzenetére
Ezeket évek óta írod. Évek óta mindenben fasza a GCN, NV kínlódás, gyötrelem, pokoljárás. PC gaming piac meg ebből semmit nem igazol. Évente többezer játék jelenik meg, ebből 1 kézen meg lehet számolni, hányban jelent előnyt a GCN. Tények sehol. Kezdesz hiteltelen lenni.
"Polaris, Vega a legjobb, am korabbi GCNek nem eleg jok. Nv meg rosszabb."
Nem értem a Polaris előtt GCN miért nem jó. Korábban még azokról állítottad, hogy milyen remek. Fura. Nem 2016-ra kellett volna elkészülnöd valami DX12 motorral?
-
stratova
veterán
válasz
sayinpety #17943 üzenetére
A végét emelem ki:
With these shader extensions AMD again improving the performance on the whole GCN lineup, which is good for their customers, but harmful for their business.
Kiegészítve a véleményemmel: lásd egyedi R9 290(X), R9 390(X), ha AMD megoldja, hogy ez a 2013-as kártya az általuk támogatott címekben még mindig jól teljesítsen, nem kényszeríti a saját vásárlóbázisát váltásra. Látszólag sokkal gyorsabban cserélődnek NV hadrverek mint AMD-k, ami bőséges bevétel NV-nek.
Jó példa erre a Hitman, vagy a driver frissítés utáni Doom eredmények. A kvázi jófejségből egyszerűen nem lehet jól megélni. -
Locutus
veterán
-
#45185024
törölt tag
válasz
sayinpety #13934 üzenetére
Ezt akkor konkrét kérdésként meg tudjuk fogalmazni.
Idejár az a programozó srác kérdezzük meg tőle.-Kedves Sayinpety szerinted 2 Gigát törölni az szignifikánsan több idő mint 300 Megát ???
Mert az én véleményem hogy maga a törlés (memóriaátlapozás?) a sok idő az hogy mennyit az kevesebbet számít.
De lehet tévedek mondja meg ezt egy ezzel foglalkozó profi. -
válasz
sayinpety #11771 üzenetére
CPU oldali multithreadingről van akkor szó? Az (számomra) nem magyarázza a mért eredményeket - a 2 magra (HT nélkül) konfigurált CPU-val is 30%-kal gyorsabb a 980Ti, mint a Fury X, ill. az AMD-s kártya a 3.5GHz->4.4GHz húzásra 0.5%-kal gyorsul. Szóval én azt látom, hogy totál a VGA oldalán van a limit - de szólj, ha valami fölött elsiklok.
Btw. @all, ha VGA-oldali limitről beszélünk, az biztosan utilizációs limit, nem hardware-plafon.
-
-
Yllgrim
őstag
válasz
sayinpety #11390 üzenetére
Fejlesztoi szemmel te hol latod a kulonbseget DX11 es DX12/Vulkan kozott, gyakorlatban ez mit jelent a szamunkra?
(#11392) Locutus : Olvass vissza 2 hozzaszolast es gondold at ujra. A technologianak fejlodnie kell, igy vagy ugy. Lehet csoszogni is es lehet ugralva haladni is.
-
Abu85
HÁZIGAZDA
válasz
sayinpety #10857 üzenetére
Az parancslista túlterhelése vezethet olyan problémához, amiről az Oxide beszélt a Nitrous és az async compute NV-s problémáival kapcsolatban? Szimplán annyira megnövelte a processzorterhelést a driver munkája a hardver hiányosságainak kezelésére, hogy az egész eredménye lassulás lett úgy is, hogy elméletben gyorsulnia kellett volna?
-
rocket
nagyúr
válasz
sayinpety #9321 üzenetére
Mindekozben meg sose latott melysegbe sullyedt az AMD es szaguld a tenyleges csod fele.
Nekem ez nem siker tortenetnek tunik.#9339: Az erem masik oldala, hogy egalban van a 980Ti-vel DX12 alatt AOTS-ban, mikozben ugye vannak DX11 jatekok amiben gyorsabb a Fury-x, pl. Ryse, innen nezve megnagyobb blama, hogy az agyon hypeolt AOTS nem hoz semmi extrat az AMD-nek.
-
schwartz
addikt
-
válasz
sayinpety #9250 üzenetére
Az remek, hogy tetszik az AotS, de ettől az alpha még nem alkalmas a DX12 előnyeinek demonstrálására
A második szakasz megosztását köszi
Ez viszont azt is jelenti, hogy a 3 IHV közvetetten kikényszerít egy olyan vizuális komplexitást, amire a DX11 nem alkalmas. Arra, hogy ez a vizuális komplexitás megfelelő sebességgel szaladjon CPU oldalon, az nVidiának van megoldása, a másik kettőnek nincs. Az nVidia megoldása miatt csökkentenetek kell a gameplay komplexitást - míg ha az nVidia megoldása nem lenne, akkor (esetleg) nem kellene csökkenteni a komplexitást, viszont bizonyos jelenetek akkor sem mennének 4GHz-es i7-nél gyengébb CPU-n 30 fps felett, ha megfeszültök. Kellemes dilemma, és nagyon szépen látszik belőle a 3 cég piaci hozzáállása:
"N" felhasználja a saját vásárlói bázisának erősítésére
"A" előhúz valami innovatívat, amiből egyszer majd lesz valami, de a jelenben csak a pénzüket viszi
"I" teljesen mást csinál, mint a többiek, és abból vagy nem lesz semmi, vagy ha igen, akkor az mindenkinek nagyon sokba fog kerülni -
Ren Hoek
veterán
válasz
sayinpety #9250 üzenetére
Jó hsz!, köszi a belsős infót... Egy usernek tényleg nehéz átlátni mi zajlik egy játék fejlesztéskor...de még általános programozóként sem - aki kisebb projecteken van. Az optimalizálás és portolás amúgy szerintem idegileg is nagyon fárasztó és undok egy munka nulla kreativitással. Ezt most épp saját bőrömön tapasztalom egy GPU-s compute optimalizációval. Szóval megértem, ha senkinek nincs kedve évekig szopni vele DX11 alá, még pénzért is. Meg főleg, hogy emiatt ki kell venni a már megírt kódot, vagy feláldozni a sebesség/grafika oldalán játékmenetbeli elképzeléseket.
Ha csináltok DX12-es űrszimet, ami van olyan flash mint az Imperium Galactica volt anno... akkor rátokhagyom a lakásomat
-
válasz
sayinpety #9235 üzenetére
Ezeknek mind nagyon tudok örülni, amikor éppen nem a "vásárló" feliratú sapka van rajtam. Vásárlóként viszont a jobb gameplay / fizika / stb., aminek amúgy nagyon örülnék, megint csak belógatott ígéret, amiből egy jó darabig semmit sem látok. Valamint az AotS alpha ezt egyáltalán nem demonstrálta - innen indult az egész téma.
Emellett még egy dolgot nem értek. Ha fontos a jobb gameplay, akkor miért nem csökkentik a stúdiók a grafika komplexitását annak érdekében, hogy több erőforrás maradjon más célokra?
-
HSM
félisten
válasz
sayinpety #9235 üzenetére
Igen, ezt nem látják a játékosok nagyrészben, hogy a "jó" DX11-es Nv driver szépen megzabálja az erőforrásokat más dolgok elől. Persze, a teszteken szép FPS-t fog felmutatni az 5Ghz-re húzott 6-magos Intel vason...
Mondjuk az AMD lépése is érthető, hogy behoztak több szálat, ha olvastad a fórumot, évek óta köpködve van, hogy nem megy olyan szépen extradurva procikon, mint az Nv-é, és nem csak a fórumokon, cikkekben is legtöbbször ez volt a vélekedés, ritkaságszámban említve azt a tényt, hogy az agresszív multithreadingnek egy VGA-driver esetén komoly árnyoldala is van.(#9237) Egon: A felhasználók aztán képben vannak, mi megy a színfalak mögött.
-
Egon
nagyúr
-
válasz
sayinpety #7744 üzenetére
Az első kérdésem az lett volna, hogy a konzolos motorok használják-e az aszinkron compute-ot, de a későbbiekből kiderült, hogy igen. A következő kérdés - mennyire elterjedten, és mennyire intenzíven? Van reális esély arra, hogy megborítja a Maxwellt vagy a GCN1.0-t?
Emellett kérdés, hogy a PC portoknál ki fog sok energiát beletenni, hogy megnövelje az aszinkron pipeline-ok arányát az extra teljesítmény miatt (a többi sürgősnek tűnő dolog nem tűnik differenciálónak), ill. hogy ezek az engine-ekre épülő játékok mikor jönnek. Ugye a Tiétek majd 2016-ban.A shader-fordítós okfejtés érdekes, köszi. A loading screen eliminációt nagyban támogatnám
(#7745) sayinpety: 700MB-ban már benne vannak a textúrák is? Meglepő...
Ill. nem értem, miért fáj a törlés, még ha sokáig is tart. Nem lehet aszinkron csinálni? -
rocket
nagyúr
válasz
sayinpety #7764 üzenetére
GCN meg 40% korul
Konkurencia lassitasa a lenyeg az NV-nek, hiaba van 2 konzolban GCN, ha munkaorakert es/vagy szponzorizacios penzert cserebe, sok esetben a PC verzioban ott lesz a gameworks.
Tudom nincs architekturahoz kotve az aszinkron shader, teljesitmeny oldalrol irtam, ha nem lett volna egyertelmu.
-
rocket
nagyúr
válasz
sayinpety #7746 üzenetére
Optimalizalni pc-re lehet mindket gyarto iranyaba,fuggetlenul a konzoloktol, attol fugg kit milyen erdek hajt.
Az AMD az elozo generacioban amikor az x360 volt a legtobb multiplatform fejlesztes fo platformja a pc portokbol nem sokat profitalt, es eddig a nextgenbol se.Nem kell kikapcsolni, de mivel a Maxwell-nek nem fekszik az aszinkron shader igy jelentos teljesitmeny hatrany varhato, amivel a potencialis piac kozel 4/5-od resze fuggoben marad , plusz ha kell az NV ugyis megnyitja a penzcsapot a PC verzio "optimlizasaert", mint ahogy eddig is tette, az AMD meg majd magyarazkodik, mint ahogy eddig is tette.
Csodat az aszinkron shaderekkel az AMD oldalan a Pascalig kell varni, mert onnantol irrelevans lesz mint elony az AMD-nek, sot lehet az lesz, mint anno a tesszallacio kapcsan, hogy elsore jobbat alkotott az NV, mint az AMD sokadjara, es mar inkabb elfelejtenek.
Majd az ido eldonti, hogy a tortenelem ismetli onmagat a gyakorlatban, vagy sok NV tulaj rohan a boltokba gcn1.1+ kartyakert.
Az, hogy a szoftverfejleszto mit gondol 1 dolog, a kiado aki finanszirozza a projectet akarata a donto, nekik meg a minnel nagyobb eladas ami szamit, es nem az, hogy az AMD-nek piaci reszesedest szerezzenek.
#7749: Elneztem a jatekot
-
válasz
sayinpety #7697 üzenetére
Világos. Magyarul, a DX12 felé való gyorsabb elmozdulásnak anyagi okai vannak - ebből nekem az következik, hogy a következő 6-12 hónapban érkező címek nagy része ezeknek az anyagi előnyöknek a realizálására lesz kihegyezve, nem pedig a DX12-es innovációra. Additional benefitként pedig bejön a CPU-limitáció erős mérséklődése.
A másodikkal biztosan nyer az AMD - nem teljesítményelőnyre fog szert tenni, hanem a jelenlegi esetenkénti teljesítményhátrány fog "elveszni".
A RRC vajon fog differenciáni az architektúrák között? -
#85552128
törölt tag
válasz
sayinpety #7477 üzenetére
"MS nagyon sokat var D3D12tol. 70+ jatek egy ev alatt a terv"
Pasziánsz DX12, Aknakereső DX12, Mahjong DX12, Candy Crush DX12 és hasonlókkal ?
Mert még úgy is necces, hogy meglenne...
Pont a multiplatform címektől nem kell félni, mert annál úgyis az XO gyengécske GPU-ja lesz a szűk keresztmetszet, nem a PC-s bika GPU-k legyen az Maxwell vagy GCN architektúrájú... -
válasz
sayinpety #6137 üzenetére
Ja, akkor még egyszerűbb a történet, csak pont a másik irányból. Ha nyílt lenne az effekt, akkor mindenki kedve szerint állítgathatná a tesszelációs faktort, és a leírtak alapján x16 (de legkésőbb x8) alatt már az AMD lenne a gyorsabb. Ez meg üzleti szempontból elég vicces lenne - csak az nVidia vezetése pont nem röhögne
A diszkrét GPU-s dolog csak elsőre hangzik logikusan. El akarnak adni, de kinek? Intel CPU-hoz nem fognak tudni alaplapot szállítani, tehát az eleve bukta. A sajátjuk mellé meg minek?
Megjegyzem, azt elhiszem, hogy az Intel ezt szeretné, de az meglepne, ha ezen az időtávon meg tudnák valósítani. Egyelőre még a 100 USD-s diszkrét VGA-któl is borzasztó messze vannak.GRID: jogos, azokban a beállításokban nemigen lesznek ezek a feláras extrák benne.
(#6138) HSM: bármit, ami kézzelfogható
-
válasz
sayinpety #6083 üzenetére
Nehez megallapitani, am nem tunik jonak az LDS usage. Optimalizalatalan kodjaim jobbak.
Értem, viszont ha a GW nem fekszik rá a saját architektúra gyengeségeinek elrejtésére, akkor Radeonon jobban kellene fussanak a GW effektek, nem? Nyilván az überultra tesszeláció kikapcsolása után.
Amit az Intellel kapcsolatban írsz, azt még nem hallottam, de rögtön két dolgot nem is értek benne:
- Ha az Intel erre képes, akkor az AMD-nek ebben előnyben kellene lennie - minek erőlködik a PCIE-vel?
- Ha az nVidiának a cloud gaming a jövő, akkor miért érdekeltek a "teljesítményrontásban"? Csak drágább lesz nekik fenntartani ugyanazt a felhasználói bázist...(#6087) HSM: Ha az Intel ilyen IGP-ben gondolkodik, akkor lesz alternatíva a felhőcskék helyett
-
Abu85
HÁZIGAZDA
válasz
sayinpety #5242 üzenetére
A GAB és az ARB munkáját már befolyásolják azzal, hogy az xy fejlesztővel kidolgozott ötletükre még a szabványosítás előtt kiadnak egy játékot. És ezért nem olyan jó dolog ez a diktálás, mert egyrészt rendben van, hogy a GAB és az ARB ettől dolgozhatna nyugodtan és átgondoltan, de a másrészt a gyártók számára a gyorsaság fontos lenne, mert az AMD a beépítendő technikára már hardvert és programot is kínál, miközben az Intel és az NV a szabványosításon tanácskozik. Ez közvetetten már nevezhető hatalommal való visszaélésnek.
(#5256) tom_tol: A GAB a Microsoft Graphics Advisory Board, míg az ARB a Khronos Group Architecture Review Board. Röviden itt születnek meg szabványok (DX, OpenGL, Vulkan).
-
Abu85
HÁZIGAZDA
válasz
sayinpety #4781 üzenetére
Oké elfogadom ezt a lehetőséget, de azok az adatok amiket írtál itt, azt mutatják, hogy a Hawaii sokkal gyorsabb a GM204-nél. Aszinkron compute mellett és nélkül is erősebb. Aszinkron compute-tal 10 ezresmásodperccel jobb, ami azért nem kevés. Ez azért nem feltétlenül azt támasztja alá, hogy minden rendben lesz az optimalizálás kiszervezésével, de nyugodtan javíts ki, ha tévedek.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ASUS Dual RTX 4070 SUPER EVO OC Edition 12GB - AQUA garancia 2027.12.19.
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming D OC Eladó!
- Asus Rog Strix RX 6800 XT LC 16 GB - GARIS (ritkaság)
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming Elite Eladó!
- Garis ZOTAC GeForce RTX 4070 Ti Trinity 12GB GDDR6X videokártya
- REFURBISHED - DELL Thunderbolt Dock WD19TBS docking station (210-AZBV)
- PlayStation Plus Premium előfizetés 3416 Ft / hó áron!
- Microsoft Surface Laptop 3 - 15 col - Fekete
- Bomba ár! Lenovo ThinkPad T15 G1 - i5-10GEN I 16GB I 256GB SSD I 15,6" FHD Touch I Cam I W11 I Gari!
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RTX 4070 Ti Super GAMER PC termékbeszámítással
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest