Hirdetés
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
A Video AI lehet a One UI 6.1.1 ütőkártyája
ma Vagy hogy fogja a mesterséges intelligencia manipulálni a mozgóképeket?
-
Premier előzetesen a Wrath: Aeon of Ruin konzolos változatai
gp A PC-s változat után a minap PlayStationre, Xbox-ra és Switch-re is elérhető lett a program.
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz daveoff #2500 üzenetére
Ha megoldható lenne az optimális élmény a Frostbite 3-mal DX11 alatt, akkor nem használna az EA low-level API-t. A PC-ért nem érné meg a beruházás, ha ki lehetne hozni a DX11-ből is a fejlesztők által elfogadottnak tartott élményt. Viszont a fejlesztők már annyival jobbnak tartják a low-level elérést, hogy megéri beruházni annak érdekében, hogy a konzolos élményszintet a PC is megkapja. Nekik megvannak az eszközeik, hogy kimérjék a legkisebb változásokat is a PC-ken, amiket átlag szoftver nem tud mérni. Az fps csak egy mérőszám, és ha nézel DICE előadásokat, akkor sokszor elhangzik, hogy az egyik legrosszabb mérési módszer.
Annak nyilván örül a DICE, hogy te jónak érzed a DX11-es munkájukat. Ők viszont nem érezték annak a DX11-et, ezért használnak más API-t is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daveoff
veterán
-
Abu85
HÁZIGAZDA
válasz daveoff #2502 üzenetére
Mindenkinek mást takar. Ha te elégedett vagy azzal, amit kapsz, akkor a DICE nagyon boldog, hiszen részben azért dolgoztak, hogy elégedett legyél a szoftverükkel. A lehetőségekhez mérten a legjobbnak akarták kihozni. Viszont minden fejlesztőnek van egy nézete arról, hogy mire van szükség. A DICE azért használ low-level elérést, hogy az általuk elgondolt élményt át tudják adni a PC-seknek. Nem kötelező ezzel élni, vagy akár egyetérteni sem. Ők csak a lehetőséget akarják biztosítani nektek, hogy úgy játsszátok a játékot, ahogy elképzelték. De még egyszer mondom, ha te boldog vagy azzal, amit most kapsz, akkor a DICE is boldog, mert pozitív az élményed a szoftverükkel, ami később új vásárlásra fog sarkalni stb.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Malibutomi
nagyúr
-
Abu85
HÁZIGAZDA
válasz Malibutomi #2504 üzenetére
Nem valószínű, hogy a DX11 render prioritás. Erre elég drága optimalizálni, és állandó probléma a Frostbite 3-nál a DXGI_ERROR_DEVICE_HUNG hiba, ami ugye ismert a fejlesztők előtt is. DX11 alatt szándékosan feláldozzák a stabilitást a nagyobb sebességért. Enélkül a DX11 kód sokkal lassabb lenne, viszont így meg néha összeomlik a játék. Aki teheti nem a DX11 renderen játszik egy Frostbite 3 játékkal.
Az, hogy a Frostbite 3 értékelhetően fusson DX11 alatt, minden egyes játék, minden egyes új patch-jénél iszonyatos mennyiségű pénz és erőforrás befektetését jelenti. Egy évben az összes megjelent játékra nem kell költeni annyit a driver fejlesztésénél, mint egy Frostbite 3-as programra egymagában.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daveoff
veterán
-
Abu85
HÁZIGAZDA
válasz daveoff #2506 üzenetére
Mondtam, hogy ha te ezzel boldog vagy, akkor annak a DICE és az EA nagyon örül. Ezért dolgoztak az elmúlt hónapokban, hogy mindenkinek jó legyen. De ők már nem tartják a DX11-et használható API-nak, és sok dologban teljesen igazuk van. A Frostbite 3 az egyetlen motor a piacon, amely befolyásolja a grafikus driverek működését, és ezt senki sem ajánlja, mert összeomláshoz vezethet. Ez persze random jellegű, de létezik a probléma, és sokat kell tenni azért, hogy az összeomlások megritkuljanak. A BF4 egy évvel a megjelenés után már elég jó, viszont egy fejlesztő alapvetően szeretne a játék megjelenésére stabil programot kínálni. Persze, ha nem jön össze, akkor később ott a patch lehetősége, de ez nem optimális fejlesztési modell.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daveoff
veterán
Akkor most a Low-Level API kinek jó? Nekünk, vagy a fejlesztőknek? Én úgy érzem, hogy inkább csak a fejlesztőknek jó, könnyebben dolgoznak vele, ahogy mondod, de én sok hasznát egyenlőre nem tapasztaltam, mert DX is lehet ugyanolyan jó, csak esetlegesen többet kell vele dolgozni. Ha jön a DX12, az mit fog megváltoztatni? A Mantle elvesztheti a létjogosultsága, vagy akkor is ilyenek lesznek a játékok, hogy választhatsz melyiket használod.
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Abu85
HÁZIGAZDA
válasz daveoff #2509 üzenetére
Mindenkinek. A top fejlesztőknek azért, mert esélyt kapnak rá, hogy a konzolra készült új generációs játékokat ne kelljen majd butítani PC-re. Hiába minden TFLOPS, ha a konzol csupán szoftverből többmilliószor gyorsabban ír be egy GPU parancsot egy parancspufferbe. És ez neked is jó, mert a PC-n is megkapod a teljes élményt.
A DX12-vel sok változás nem történik majd, mivel a low-level irány már eleve ki van jelölve. A DX11 támogatása valószínűleg vissza fog szorulni.
Az AMD addig készít saját low-level API-kat, amíg a fejlesztőpartnereik igénylik. Az egészet fogd fel úgy, mint egy problémamegoldást. Van egy gond, amire nincs megoldás létező API-n belül? Csinálunk egy új API-t, vagy kiegészítést, hogy legyen megoldás. Ennyi a célja. Most például a shader nyelvek reformja következik.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
daveoff
veterán
De ha meglesz az új API DX12 formájában, akkor az ugyanígy egyetlen API lesz, mint az eddigi DX-ek? Vagy az AMD partnerei továbbra is igényt tartanak majd a Mantle-re, vagy azt mondják, hogy itt a DX12, úgyhogy nem tartanak rá igényt a továbbiakban?
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Abu85
HÁZIGAZDA
válasz daveoff #2512 üzenetére
Vannak partnerek, akik már mondták, hogy a DX12 mellett is az AMD API-jait tekintik majd elsődlegesnek. Az EA stúdiók, a Firaxis, az Oxide és a Gamebase biztosan. Azzal indokolták döntésüket, hogy az AMD megoldásai alacsonyabb szintűek, illetve gyorsabban fognak fejlődni. De ettől mindegyik partner készít majd állandóan DX12 portot, és amit abban meg lehet oldani azt implementálni fogják.
Nagyon sok függ attól, hogy mi az adott fejlesztő igénye. Például a multi-GPU támogatását szükségesnek érzik-e, mert ez a DX12 előzetes speckóiban nincs benne, ugyanis az MS szükségtelen részpiacnak tartja, így nem élvez prioritást. Ehhez hasonló tényezők döntenek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
FLATRONW
őstag
Jelen állás szerint ez csak a fejlesztőknek jelent élmény javulást, a Civilization Beyond Earth kivételével, mert ott legalább a felhasználó is kap valami újat. Az SE3 esetében is a fejlesztőnek jó, hiába van biztosan magas minőségű textura Mantle használata mellett, hogyha valójában ez nem is a DX11 korlátai miatt van, mert más DX11-es játékoknál is megtudják oldani ezt. Konzol élmény áthozásáról pedig ne beszéljünk már olyan esetekben, amikor a DX11-es PC-s verzió sokkal jobb élményt ad grafika és sebesség területén is, mint a low-level API-s konzol vezió.
Lehet, hogy a jövő mást hozz, de jelenleg ez a helyzet. -
HSM
félisten
válasz daveoff #2509 üzenetére
Mi lenne, ha úgy gondolkoznál, hogy a fejlesztő csapatnak van X pénze és Y ideje, ahogy mindenki másnak. Ebből az időből neked, mint felhasználónak is állatira nem mindegy, hogy a DX11 renderer bugjait kell irtani, és összeszenvedni a játékot a driverekkel, ne omoljon össze, vagy ezt a rengeteg időt hasznos fejlesztésekre lehet költeni.
Mondok egy példát... Mennyit kellett várni egy normális hitbox-ra? Fél évet? Mindenkinek jó lehetne, ha nem ilyen hülye kompatibilitási marhaságokra megy el a fejlesztők ideje a lényegi karbantartás és fejlesztés helyett. -
Abu85
HÁZIGAZDA
válasz FLATRONW #2514 üzenetére
Az Asura motor esetében a textúra streaming működése egy érdekes optimalizálási stratégia valóban, de teljes egészében a DX11 miatt alakították így. Azért tölt be a memóriába alacsonyabb felbontású textúrákat idővel, hogy a nem használt területet ne kelljen törölni. Viszont, ha nem törlöd, akkor egyre kevesebb használható területed van, tehát alacsonyabb felbontáshoz kell folyamodni. Egyszer persze úgyis lesz törlés DX11 alatt is, tehát ezzel csak az időt húzzák. Nyilván nem mindegy, hogy több órás játék során hányszor akad be a program a nem használt textúrák törlésétől. A Rebellion abszolút a folyamatosságot helyezi előtérbe, tehát minél kevesebb akadás lesz ebből, annál jobb lesz az élmény a fejlesztők szerint. És ezért úgy gondolják, hogy megéri beáldozni néhány textúra minőségét is.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ezek a dolgok nagyrészt kapcsolódnak a DX11 API-hoz.
A Capcom beszélt erről egy hete a Panta Rhei kapcsán, hogy az aktuális PC-s kódjukban ez a motor képkockákként 3 interakciót képes kezelni, miközben a PS4-en nem okoz gondot a 30 fizikai interakció sem. És ez nagyrészt a DX11-re vezethető vissza. Hiába nincs köze az API-nak a fizikai motorhoz a Panta Rhei PC-s portjában le kell butítani a fizikát, mert túl sok az API többletterhelése. Az AI-t is ezért kell butítaniuk PC-re.
Masaru Ijuin azt is mondta, hogy PC-n, DX11-ben nagyon korlátozott a gyakorlatban is hozzáférhető processzorteljesítmény. Hiába terjedtek el a 100+ GFLOPS-os procik, DX11-ben nincs mód a teljesítményük kinyerésére.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Persze, teljesen logikus, egy vacak, alapvetően egyszálú API, gigantikus overhead-el. Kész csoda, hogy egyáltalán ilyen dolgokat hoznak ki belőle a fejlesztők, amit.
A gond csak az, hogy sokan nem látják a zöld szemüvegüktől, hogy mennyire nem csak az FPS, ami számít, és mekkora gát manapság, hogy még mindig ez a fő API PC-n... -
FLATRONW
őstag
Felesleges fejlesztés. A régi verzióban tökéletesen működött a régi megoldás is, ha voltak is akadások azok nem voltak szembetűnőek.
Laikusként nagyon az az érzésem, hogy ennek a kifejlesztése nem vett sok időt igénybe. Inkább az volt a háttérben, hogy a DX11-es optimalizálás helyett elkészítették a Mantle verziót, mert így is hamarabb készen voltak a fejlesztéssel. Marketing szempontjából pedig legalább eltudták adni azt, hogy szükség volt a Mantle-ra, mert így jobb minőségű lett a játék is. Itt nem volt elég a plusz sebesség, mert nem egy multi játékról van szó. -
Abu85
HÁZIGAZDA
válasz FLATRONW #2522 üzenetére
A régi verzió negyedakkora méretű textúrákat támogatott. A Sniper Elite 3-ban a low szint az, ami a Sniper Elite v2-ben a maximum volt a textúrarészletesség szempontjából. Erre reagál az új streaming stratégia.
Igazából ezeket a streaming rendszereket nagyon nehéz PC-re kifejleszteni. Tökéleteset két év alatt sem lehet alkotni. Nagyon akadályozza a fejlesztőket az a tény, hogy a DX11 nem engedi a közvetlen memóriaelérést, tehát nem tudnak akármit megcsinálni, hanem kerülőutak tucatjait kell kidolgozni, hogy egy átlagosnál jobb streaming rendszer egyáltalán működjön a gyakorlatban.
Kevés olyan játékot láttam, ami annyira példásan lett volna DX11-re optimalizálva, mint a Sniper Elite 3.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
FLATRONW
őstag
Én nem mondom, hogy rossz lenne a SE3-ban az optimalizálás, mert szerintem is nagyon jó.
Azzal van bajom, hogy a motor önkényesen állítgatja a minőséget és ez úgy van reklámozva, hogy milyen nagyon jó dolog. Miközben más DX11-es játékokban, hasonló vagy jobb minőség mellett is megtudják oldani ezt a problémát. -
nagyúr
nem a zöld szemüvegtől nem látják (ill. nem látjuk ), hanem attól, hogy nincs mit látni. csak a duma megy arról, hogy micsoda hűde dolgokra lennének képesek az AMD kártyák a Mantle API-val, de mindig van valami kifogás, hogy éppen most miért nem. vagy ha éppen most igen, akkor azt valami furcsa módon a másik oldalon is meg lehet valósítani. legyen olyan kedves az AMD, és tegyen már valamit le az asztalra, amivel az nVidia nem tud versenyezni...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
HSM
félisten
válasz #35434496 #2527 üzenetére
Én látom szabad szemmel a difit AMD DX és Mantle között, ami van, az nem kevés. Én mindig érzékeny voltam erre, mindig igyekeztem gyors, kis késleltetésű kütyükkel körbevenni magam. Ugyanakkor többen nem vettek észre SEMMIT ezen két mód között sem. Én ebből arra következtetek, vagy nem érzékenyek erre, vagy túl gyenge a többi hardverük, hogy kijöhessen a különbség.
Nv DX-et nem volt még módom tesztelni, de előre leszögezném, nem hiszek a csodákban.Ahhoz tudnám hasonlítani ezt az input lagos dolgot, mint kocsikban/motorokban az "elektromos" gázpedál. Ott sincs felháborodás, hogy nem azonnal reagál, mégis hatalmas a difi, a bovdenesen húzol gázt és azonnal megindul, az elektromoson meg húzol gázt, kis gondolkozás, rossz esetben meg is torpan, és csak utána indul el.... Nyilván, a durva szélsőségek ott is kapják a savat, de a kevésbé gyenge megoldások már nem....
[ Szerkesztve ]
-
Laja333
őstag
válasz #35434496 #2527 üzenetére
Nvidia 5 fpssel jobb mint Amd, lényeges. (Szemmel nem látható)
De ne mérjünk latencyt mert az lényegtelen, nem szemmel látható. Köszönöm, nincs több kérdésem.Tipikus agymosott NV duma. Csak éppen az a mérvadó, és csak addig, amíg abban jobb az NV. Ezzel a fogással sózza rátok az NV is a "csoda cuccait".
[ Szerkesztve ]
-
#35434496
törölt tag
válasz Laja333 #2530 üzenetére
Köszönöm a kikoktatást de számomra jelenleg jobb erőben, hőmérsékletben, fogyasztásban a 980 mint a 290x. Dx+980-al nem érzek/làtok semmilyen input-lag-ot. Az, hogy AMD kártyám szarul mennek dx alatt arról meg amd tehet. Gondolom azért rossz mert a mantle dolgot eröltetik. Sok volt 290/x tulaj lett agymosott mostanában.
[ Szerkesztve ]
-
HSM
félisten
válasz #35434496 #2531 üzenetére
Na persze. AMD-n szarul megy a Dx 3-as prerenderrel, de a Maxwell-eken a Mantle-t is beelőzi 5-ös prerenderrel az Nv.
Nem érzel semmilyen input lagot, oké, mihez képest? Ez tipikusan olyan, amit ki kell próbálni, hogy ráérezz.Nem tudom, miért agymosás, hogy kipróbáltam a Mantle-t, és miután kipróbáltam, teljesen le voltam döbbenve, sőt, kicsit fel is háborodtam, hogy sehol a kerek-e világon nem írt erről senki sem, hogy Mantle-vel mennyivel kisebb az input lag, mindenhol a tesztekben csak a nyomorult FPS-ek virítottak, hogy alig gyorsabb.
Pedig ha korábban tudom, inkább rászántam volna egy fél napot a win8 upgrade-re, mert hónapokig DX-en toltam, mert win7+i5 alatt laggos volt a BF4 valami miatt, én meg sajnáltam az időt pár FPS-ért windózt frissíteni.
A korábbi állapotokban pedig annyira akadozott, hogy nem lehetett normálisan tesztelni sem, mert kb. 1 perc után agyvérzést kaptál a kb. egymásodperces beakadásoktól....[ Szerkesztve ]
-
nagyúr
három lehetséges kimenetele van a mérésnek:
1. nVidia oldalon az input lag (4 * 1000 / FPS ) mseccel nagyobb, mint AMD oldalon. ebben az esetben az látszik, hogy a megnövekedett input lag még nem lép át egy olyan mértéket, ami a játékosok többsége számára érzékelhető.
2. a két input lag között kisebb a különbség. ez esetben a Mantle-lel kapcsolatos információ fals.
3. a két input lag között nagyobb a különbség. ez esetben az nVidia még 5-nél is nagyobb prerenderrel dolgozik. ez kevéssé valószínű.pontot egyik kimenetel sem tenne a kérdés végére, bár valóban érdekes lenne látni.
(#2529) HSM: ha látod a különbséget az 1 és a 3 között, az sokkal valószínűbb, hogy a DX renderer valamilyen egyéb problémája miatt van, nem a prerender miatt.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
HSM
félisten
1. pontodra... Kicsit bonyolultabb a számolás.... Nv-n a 980-on durván 30%-al magasabb az FPS a tesztek, beszámolók szerint, tehát Mantle és 100FPS 10ms késleltetés 1-es prerenderrel, míg az Nv 5-el és 130FPS-el 38ms, tehát durván 28ms-el mérnénk többet. A Titánon mért, vélhetőleg még a 3-as prerenderrel készült teszten 82FPS-mellett ~73ms lagot mértek, tehát ebből 36ms lehetett a prerender sara. [link]
Ha ebből indulok ki, akkor a ehhez képest a Mantle 24ms-el jobb, ha minden más változatlan, ami hát elég komoly difi, 49ms vs 73ms azonos 82 FPS mellett, ami megmagyarázhatja az általam a szintén 3-as prerenderű AMD DX-hez képest mért komoly javulást.A 3. pontra reagálva van egy fontos extra kérdés, miszerint a Mantle az API overhead-et is csökkenti, tehát elméletileg lehetséges, hogy a CPU-s ciklus is hamarabb lefusson, mint a két DX-es esetben, hamarabb elkészüljön a renderelésre kész állapot, tehát simán mérhetünk mégkisebb input lagot, nem feltétlen jelentené, hogy 5 felettit használ az Nv, az tényleg nagyon durva lenne azért.
Az utolsó részre reagálva... Bármi miatt is érzékelhető a különbség, van. Márpedig ha a DX okozza, nem is a prerenderer, akkor ott az Nv-k is érintettek, nem csak az AMD-k szvsz...
[ Szerkesztve ]
-
daveoff
veterán
Na csináltam egy videót, nem tudom mennyire mérvadó egy ilyen felvétel, de talán az. 1000fps-es kamerán nincs, de talán ez a foskupac webcam is megteszi(Logitech HD Pro C910). Szerintem a lényeg látszik, vagy ez az eljárás nem jó ilyen célra? Szerintetek?
[link][ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
Abu85
HÁZIGAZDA
válasz FLATRONW #2524 üzenetére
Ennek az a célja, hogy minél később és egyben minél ritkábban kelljen törölni a nem használt textúrákat a VRAM-ból, mert a DX11-ben bármit törölni annyira körülményes procedúra, hogy jó eséllyel be fog akadni a program. Maga a DX11 API kényszerítette a Rebelliont egy olyan döntésbe, hogy akadjon, vagy ne, és akkor egy kis minőségcsökkenés belefér. Ez egyáltalán nem a fejlesztők sara. Ők két rossz közül választották ki a nézőpontjuk szerint kevésbé rossz opciót.
És hogy mennyire nem egyedi a Rebellion gondolkodása megemlíthető, hogy a Frostbite és a CryEngine új verziói ugyanerre a streaming modellre állnak át. Sőt, a Ryse már használja is. Bár a Ryse annyiban más, hogy ott még a maximális textúrarészletességet sem állíthatod be egyénileg, hanem a program automatikusan intézi ezt.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
#1: igen, ha nem egyformák az FPS-ek, akkor külön kell számolni.
azt szívesen megnézem, amikor egy vakteszten különbséget teszel 49ms és 83ms input lag között#3: nem tudom, ez mennyi lehet, de nem hiszem, hogy a frame delivery idejével azonos síkon mozog.
Bármi miatt is érzékelhető a különbség, van. Márpedig ha a DX okozza, nem is a prerenderer, akkor ott az Nv-k is érintettek, nem csak az AMD-k szvsz.
ha az AMD DX-implementációja okozza, akkor az nV-k nem érintettek...
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
daveoff
veterán
válasz deadwing #2539 üzenetére
Az a baj a gyorsabbat nem tudja lekövetni a kamera, de a gyorsabb is ugyanilyen direkt, nincs különbség...
Egyébként a felvétel valami NVidia NVENC izével készült, ami levesz 30fps-t a teljesítményből, de egyből tömöríti mp4-be.
(#2539) deadwing: Haggyámá, mivel csalnék, milyen vágásnál.... Lassú a kamera.
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
deadwing
addikt
válasz daveoff #2541 üzenetére
Előző hszemet szerkesztettem, kibővíteném: végig hamarabb lő a fegyver mint ahogy az ujjad mozog. Az egér gombján lehet látni.
Szerk: akkor ez így ebben a formában nem használható semmire. A monitor képét kellett volna venned...
[ Szerkesztve ]
60Hz = lakossági frissítés :) Jabarkas!
-
daveoff
veterán
válasz deadwing #2542 üzenetére
Élőben ment mindkét felvétel, vettem a játékot videóra, és közben ment a kamera, egy időben, Action!-nál be lehet állítani, hogy menjen felvétel közben a webcam. Ennél jobb ötletem nem volt, de ha jobban megnézed a videót, akkor látod, hogy akkor lő a fegyver, amikor az egér gombja mozdul, és ez így is van élőben is. Aki itt látja a késleltetést az nem ember!
Én segíteni próbálok, bizonyítékot akartatok, ennyit tudtam tenni....
Pufff PH! addikt lettem..
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
-
HSM
félisten
válasz daveoff #2537 üzenetére
Ez tök jól néz ki, csak azt nem méri, amiről beszélünk.
Akkor jó, ha a kamera egyszerre veszi az egered, és a monitort. PL. ahogy itt is látszik akamera, és a kontroller is, a végén lassítva remekül látszik a dolog: [link]. Bár szerintem ez csak egy sima 30FPS-es kamera.
A Webkamod is jóféle, de az is max 30FPS-t tud 720P-ben, nem erre készült.(#2540) gbors: Nos, az a nagy helyzet, hogy még sosem mértem meg, pontosan mi az az input lag, amivel jó játszanom, és mi az, ami már zavar, tehát magam sem tudom, 49 és 73ms-et mennyire éreznék jónak, rossznak, de abban egészen biztos vagyok, hogy egyik másfélszerese a másiknak, ami szignifikáns difi. A másik, amit biztosan tudok, hogy a CF engem minden játékban kiborított a +1 képkockányi input lagjával szűk 60FPS körül, ami pedig mindössze +16-20ms.
Pedig ha ezt tudom előre, csináltam volna egy 60FPS-es videót (mármint a Canon 550D-mmel 60FPS-es 720P-s videón rögzítve azzal a 70-100 FPS-el, amin játszottam/teszteltem őket, a saját gépemen, monitoromon, stb) Mantle vs. DX input laggal, de már nincs meg az asztali gépem és a 290. Akkor lennének konkrét számok, amiket össze lehetne hasonlítani.
Ami az AMD-s DX implementációt illeti, nem hinném, hogy drasztikusan rosszabb lenne, ha pedig mégis, akkor nyilván már rég kiszaglászták volna, az Nv-é miért jobb, és megcsinálták volna ők is....
(#2539) deadwing: Nincs véletlen a közeledben/baráti körben véletlen egy 60 vagy 120FPS képességű fényképező, kamera, vagy mobil, vagy bármi?
A gyors monitor és a 290 nálad már adott...(#2543) daveoff: A szándlkod díjazzuk, eddigi fáradozásod köszönjük. Grat a ranghoz!
(#2545) daveoff: Nem csak a monitor input lagja van ám ott, a panelnek is váltania kell, a DVI-on is át kell szaladjon az adat... Ez az összemixelés így sehogysem jó, a kamera képe is késhet a felvétel ideje sem egzakt, nem jó így, teljesen kiszámíthattlan, mi mikor történik. Ha egy kamerával veszel fel kívülről, ott eltűnik a kamera késleltetése, mint probléma, mert a rögzítés azonos pillanatot rögzít a monitoron és géren, és az fogja megmutatni a teljes lagot az egértől a monitorod válaszáig.
[ Szerkesztve ]
-
daveoff
veterán
Csináltam egyet úgy is, ahogy mondod, szerintem így is ugyanaz a helyzet, lassítsd be..
[link]
Mit gondolsz?Igazából engem már csak azért idegesít a dolog, hogy kiderüljön tényleg csak én/mi nem látom/látjuk a különbséget.
[ Szerkesztve ]
LG 27GL83A 27'' UltraGear™ QHD IPS 1ms Gaming Monitor with G-Sync®
-
deadwing
addikt
válasz daveoff #2549 üzenetére
Itt már látszik valami. Igaz, ez semmi, kb annyi mint nálam a mantle. De ennyiből sajnos lehetetlen leszűrni.
Forgolódást hiányolom viszont, ott látnád te is visszanézve, jobban mint egy lövésnél, az 1000%.
Gondolom lövés esetében a lag is kisebb lehet, mivel nem számol a kártya szinte semmit. Nem tudom, csak gondolom a paraszti eszemmel.HSM: nincs sajna. amúgy is nálam CF lag is lehet
Amit meg nem kapcsolok ki azóta, mióta egyszer összehányta magát a driver egy kikapcsolásnál60Hz = lakossági frissítés :) Jabarkas!
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Dell 7920 2x Intel Xeon Gold 6148 (80 szál, 3,7GHz), 192GB - 1,5TB DDR4 ECC, 1TB NVMe SSD 1400W, ÁFA
- Exklúzív! Ilyen SEHOL MÁSHOL NINCS! MAGIC MOUSE KÉK! BLUE!
- HP OMEN Gaming 16-xd0009np - ÚJ 16" FHD GAMER laptop - Ryzen 7-7840HS, 16GB, 512SSD, RTX4050 (6GB)
- ARCTIC Liquid Freezer 360 II A-RGB rev.3 ( Garancia )
- NAD M25 7Ch Master Series végfok végerősítő