- Motorola Moto G24 Power - hol van az erő?
- Milyen okostelefont vegyek?
- Vodafone mobilszolgáltatások
- Xiaomi Mi 11 Ultra - Circus Maximus
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Xiaomi 12 - az izmos 12
- Samsung Galaxy Watch4 és Watch4 Classic - próbawearzió
- Samsung Galaxy A54 - türelemjáték
- iPhone topik
- MIUI / HyperOS topik
Hirdetés
-
Robotkart irányított a majom a kínai Neuralink agyi chipjével
it A mindezt lehetővé tévő Neucybert a Neuralink kínai riválisa, a Beijing Xinzhida Neurotechnology fejlesztette ki.
-
A Video AI lehet a One UI 6.1.1 ütőkártyája
ma Vagy hogy fogja a mesterséges intelligencia manipulálni a mozgóképeket?
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
Új hozzászólás Aktív témák
-
nagyúr
Hát, nem hiszem, hogy ez már drámaian befolyásolná a dolgokat - a tesztben az egyik eleve olyan volt.
Nekem az a bajom, hogy lassan két éve lett bejelentve a G-Sync, és a választék továbbra is tendál a nullához. A FreeSync-ről pedig az a propaganda ment, hogy a nagy monitorgyártók mögötte állnak, és eljön a kánaán, ehhez képest a választék még a G-Sync-nél is gyengébb.
Értem én, hogy mindenki szeretné a népet átterelni WQHD-re, meg 4K-ra, de
a) nekem most erre állatira nincs igényem
b) nincs kedvem csak ezért megtriplázni a VGA-budgetemet
c) menjenek a p***ába a terelgetésükkel(#8810) kovsol: nekem pont az a fontos takeaway, hogy nyugodtan elkötelezheted magad valamelyik gyártó mellett, mert a kapcsolódó ...Sync megoldással nem lesz gond. nVidia oldalon fizetsz kb. 50e prémiumot, ezt bele kell kalkulálni.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
Abu85
HÁZIGAZDA
Valószínűleg arra gondol, amiről az Oxide, illetve a Square Enix is beszélt még 2013-ban az APU13-on, hogy ezek miatt az agresszív DX11-es driverek miatt játékötleteket dobnak a kukába, mert lehetetlenné válik a leprogramozásuk a folyamatosan csökkenő, felhasználható processzoridő miatt.
A Nixxesses gyerek mondta, hogy a DX11-ben minden elmélet. Kiszámolod, hogy elég lesz-e az erőforrás, de fogalmad sincs, hogy a driver mennyi processzoridőt fog elvenni a program elől. És ez kellemetlen a megjelenés előtt, amikor elvben jó minden, de jön egy driver, amitől rossz lesz, és jön az, hogy xy effektet ki kell venni, mert már nincs arra idő, hogy átírd a szimulációt az új driverhez. Ezt szünteti meg úgy a DX12, hogy a kernel drivert kivágja a rendszerből, így nem kell félni az új driverektől.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
Az a gond, hogy nem nehezebb leprogramozni, hanem hogy nem lehet. Tehát ahogy Abu leírta kicsit felettem nagyon jól, játékötletek végzik a kukában. Ezenkívül olyan a mesterséges intelligencia, mint 10 évvel ezelőtt. A hang is olyan, mint 10 évvel ezelőtt, sőt talán még rosszabb, 10 éve az EAX révén néhány játéknak még komolyabb hangzásvilága volt, mint a maiak 90%-ának.
Az, hogy az AMD VGA-k is profitálnak a CPU-ból az kicsit bonyolultabb történet, mint amit itt célszerű lenne levezetnem, annyit írok csak, nem ilyen egyszerű. Hint: maga az API is erősen egyszálon dolgozik.Tehát gyakorlatilag az a helyzet, hogy a user örül, hogy az Nv hardveren megy jobban a játék, közben meg nem látja, hogy a színfalak mögött azért sem lehet komolyabb a játék más szempontokból, mert a brutál erőforrászabáló drivernek szabadon kell hagyni elég CPU-erőforrást.
(#9242) Abu85: Igen, erre gondoltam.
Viszont azt nem jól írtad szerintem, éppen ez a gond, hogy NEM tudják a fejlesztők DX11 alatt előre megbecsülni a dolgok erőforrásigényét, mert egy bazinagy feketedoboz az egész a működési elvei miatt. Ezért utólag kell addig pofozni, míg jó nem lesz, illetve már előre is nagyon óvatosnak lenni.(#9243) Ren Hoek: Hát ezaz, a user örül, de csak azért, mert nem tudja, miről marad le emiatt....
(#9250) sayinpety:
(#9240) deadwing: A többieknek adott válaszomból és a többiek hsz-eiből remélem megkapod a választ. Az Nv drivere gyors, de megvan az ára.
AMD sebességét multiban DX alatt nem a többi játékos öli meg, hanem a komplex pályák. Ultra helyett High grafikával pl. teljesen megszűnnek a sebesség gondok, látványos minőségvesztés nélkül. Azt is megfigyeltem egy éve, mikor játszottam, hogy mindig akkor esett le a GPU-használat és az FPS, amikor pl. rengeteg törmelék szállt a levegőben, ami driver/Api limitnek tűnik. Arról nem is beszélve, a játék/driver is véleményem szerint inkább a "biztonságra" van optimalizálva DX alá, sebességnek ott van a Mantle.[ Szerkesztve ]
-
#Morcosmedve
veterán
Koszi, neked is Malibutomi, mar nem tudom hol irtad a driver rev. listat, de nem gyakori az uj, ez teny.
Itt a videoban egyszer egyik maskor a masik driver jobb, akarhogy is nezem.
A forumos hsz t nem tudom hova tenni. Majd hetvegen lesz 15.8 teszt nalam, ha minden jol megy.[ Szerkesztve ]
© asszongya'hogy
-
Egon
nagyúr
válasz bozont #10408 üzenetére
Jó az 30-40-nek is
??? Ezt az ujjadból szoptad, esetleg kristálygömb? Linkeltem a ph-s tesztet, ott 72W volt a különbség.
de a lényeg, ezeket a vgakat még lehet halkan hűteni léggel is, amire példa is van.
Ez házfüggő. Hangszigetelt házban, ha nem akarsz sokezres fordulatszámú ventiket, még egy 170W-os kártya hűtése sem egyszerű - tudom, mert nekem is olyanom van (meg is fogadtam, hogy 150-160W-os TDP felett nem veszek kártyát legközelebb - a proci is legyen 80W környékén).
Persze talán a legnagyobb szubjektívum, ami előfordul az informatika világában, az a zajszint megítélése (fiatal koromban nem zavart az 5K RPM-es GlobalWin hűtés sem... ), úgy hogy erről kár vitatkozni."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
TTomax
nagyúr
válasz bozont #21727 üzenetére
Csak a 3GBos 1060ra sosem mondták hogy 4K-ra való kártya... Szerencsére van belőle 6GBos is,egyébként ahány teszt annyiféle végeredmény,a beépített benchmark se sokat ér benne,kíváncsian várom mi fog ebből kisülni DX12re,bár annyira már nem érdekel hogy pénzt is adjak a játékért...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Egon
nagyúr
válasz bozont #21733 üzenetére
Na igen nem egyszerű dönteni, ezért (is) hezitálok még mindig a vga vásárláson.
Arról lehet egyébként tudni valamit, hogy a 1060 (6 GB) és a 1070 közé jön-e még valami (1060Ti)? Most ezen két kártya között vacillálok (nekem mondjuk 1440p-re kellene, legalább 2-3 évre, ezért is vacillálok)."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
TTomax
nagyúr
válasz bozont #21733 üzenetére
Ebben egyetértünk 4GB VRAM jelenleg elég,de a jövőre nézve már kétséges,persze lehet kompromisszumokat kötni,ezt mindenki eldönti mennyit és hogyan hajlandó a pénztárcája függvényében.
(a 2GB VRAMra nem is reagálnék,ott már szerintem túl sok a kompromisszum)
A Vegara én is kíváncsi leszek,remélem jól sikerül,de valljuk be a 480 eredményeit szemlélve vagy nagyon kukáznak,vagy megint bevállalnak valamit hogy meglegyen a teljesítmény.A jövő eldönti...(#21734) cain69
No hát igen,az user tesztek majd többet mutatnak.Majd leginkább akkor lesz érdekes ha kinn lesz a dx12 render is,meg az is túl lesz 2-3 patchen.(#21736) Egon
Szerintem oda most nV kártya nem jön,esetleg AMD mert a vega még ködös,állitólag elég széles tartományt fed le...[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Firestormhun
senior tag
válasz bozont #25928 üzenetére
Nincsen látványbeli különbség, de hát ott is van az opció nevében hogy cache azaz gyorsítótárazás. A játék betöltési ideje alatt előtölti az árnyékokra vonatkozó adatokat a GPU memóriájába, míg az opciót kikapcsolva a GPU-nak real-time kell kalkulálnia mindent.
1440p-ben nálam kikapcsolt cache-sel is megeszi 980Ti 6GB memóriáját egy idő után. Gyanús hogy valami memória túlcsordulás van a dolog mögött, mert a textúrák kinézete biztosan nem indokolja az eszement memória igényt.
...
-
TTomax
nagyúr
válasz bozont #25928 üzenetére
Persze,megnézem nélküle is!
(#25931) Pepeeeee
Aha,értem csak közben ugye azt is észre kell venni hogy bugos,meg a játékok 90%ában (ha nem több) nincs ilyen opció,akkor mindenki h@lye aki nem használja/épiti be?Arról nem is beszélve,hogy a látványra hatással nincs,akkor minek is kapcsolja be bárki is aki teljesitményt veszit?[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
TTomax
nagyúr
válasz bozont #25928 üzenetére
Ehhez a látványhoz ez a VRAM foglalás valahogy nem stimmel... shadow cache offal,amugy lassul nélküle a TitanX is,csak hát bekapcsolni meg ugy látszik FHDban 6GB VRAM kell felette még több,mert azért azt se feledjük hogy nem biztos hogy kell neki attól hogy nálam lefoglalja.Szóval ennél azért biztosan kevesebb ami valóban kell is.Summa summárum VRAMból sosem elég...
(#25931) Pepeeeee
Ezt még azért hozzátenném....Te melyikkel tesztelnél/játszanál?Ugye ugye.. ennyit a "sebészeti pontosságu bemetszésröl".
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
Raymond
félisten
válasz bozont #32193 üzenetére
Azokon egyebkent szepen latszik a cel folyamatos elorehaladasa. Hiaba fejlodott rengeteget az Ubi motor az evek alatt es hiaba neznek ki sokkal jobban az uj jatekok (WD2, GRWL, ACO, FC5), a Digic alltal keszitett demo videok ugyanugy fejlodtek es meg ha kozelebb is van a ketto meg mindig aranylag nagy a kulonbseg.
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
Abu85
HÁZIGAZDA
válasz bozont #32193 üzenetére
A háttérben ez nehezebb ügy, mint ahogy ezt megéritek. A fejlesztés során vannak elgondolások, amelyekből vagy lesz valami vagy nem. És amikor nem lesz belőle semmi, akkor annak leginkább az az oka, hogy az adott leképező, vagy technika egyáltalán nem úgy működik, ahogy azt elgondolták. Ez lehet stabilitási probléma, és itt gondolok arra, hogy akár képi hibákat is eredményez, vagy szimplán teljesítményre vonatkozó, esetleg legrosszabb esetben valamilyen külső szerződés által igényelt zárt effekttel vagy effektekkel való kompatibilitási gond, stb. Ezek mind olyan tényezők, amelyek az eredeti koncepciót kiadhatatlanná teszik. Nem véletlen, hogy az utóbbi években ez főleg az Ubisoftra volt jellemző. Ők dolgoztak egy rakás zárt middleware-rel. Az sem véletlen, hogy már nem így dolgoznak, csak ez jelentős károkat okozott, amit időbe telik felszámolni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
HSM
félisten
válasz bozont #36595 üzenetére
Szerintem nem lenne jó. Ha az 590 alapból egy kimaxolt, prémium termék, 8GB rammal, az úgy egy jó brand, akkor egyből tudod, hogy ami 590, az erős.
És akkor nem lenne az a felhígult kínálat az olcsóbb és főleg 4GB-os verziókkal, mint az 580-aknál, amik szvsz azért nem ugyanazt a szintet képviselik, mint egy prémium 8GB-os változat. Így meg lehetne oldani okosan.[ Szerkesztve ]
-
félisten
válasz bozont #43362 üzenetére
A DLSS re írtam egyértelműen , hogy n1.a minősége az Ultranak. A fenti esetben ahogy nézem jobb képminőséget ad a DLSS ultra mint a natív. Innentől igazából, nekem mindegy aktiválva van e vagy nincs. Persze megértem, hogy nem tesz jót az egonak, én sem szerettem a CP 2077 ig ,de ott az RT annyit tett hozzá, hogy bevállaltam a DLSS-t.Nem bántam meg.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
-
válasz bozont #43798 üzenetére
honan gondolod, hogy nem eleg 8GB? csak mert nekem ez sehonnan nem jon le.
az AMD legerosebb, csak 8GB rammal szerelt kartyaja az 5700XT, ami kb egy 2070S (azt hiszem ez a 3060 jelenleg? nem olvasok GPU tesztet nem kaphato termekekre) szintjen van. es RT nelkul elegnek irjak 1440p@60@ultraran, ami kb FC5/New Dawn alapjan stimmel.
Far Cry 5nek is volt HD texture packja, picit jobban nezett ki vele minden. remelhetoleg most is ez lesz, Cyberpunk tavaly kb eljutott egy fotorealisztikus szintre, Far Cry 6 a videok alapjan meg leragadt 2017ben.
Don't dream it, be it. // Lagom amount.
-
HSM
félisten
válasz bozont #46007 üzenetére
"Mondjuk nem lepődtem meg, valami ilyesmire számítottam (bányászkártyák voltak)"
Ha már behivatkozod, szerintem úgy lenne korrekt, ha a szaki véleményét emelted volna ki, ami pedig a szakszerűtlen tárolás volt, nem a bányászat.#46008 Gyuri27: "Azt se gondolom, hogy a bânyászat jót tesz a vgaknal."
Ahogy a játék sem. Főleg, ha kifogod valami hozzánemértő amatőr OC-bajnok szellőzésnélküli csupaRGB házában ócska tápról szénnétuningolt kártyáját... Ugyanez létezik bányában is persze.
A legjobbat az teszi a kártyának egyébként, ha ki sem veszed a dobozából. -
félisten
válasz bozont #46090 üzenetére
Ha megnézed az teszteken az Ada és a RDNA3 már egyformán érzékeny vagy nem érzékeny a felbontásnál a CPU ra azaz nincs igazán különbség már kis felbontásban az RDNA3 javára vagy ha úgy jobban tetszik magasabb felbontásban az Ada javára. Kb egyforma a különbség pár százalék plusz minusz.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
válasz bozont #46237 üzenetére
Hogy jön ide a PCI-E 3.0? 5700XT is PCI-E 4.0-ban működik a tesztben.
Az, hogy elég kell, hogy legyen" semmit nem jelent, egyrészt az elmélet és a gyakorlat két különböző dolog, másrészt könnyen lehet hogy a motornak kell a 16 sáv, hogy optimálisan működjön VRAM hiány esetén. Ez nem az első ilyen eset.
Ha a játéknak kevés lenne a sávszél, akkor minden esetben rossz lenne a sebesség és nem csak akkor, ha elfogy a VRAM. Az 1% percentile értékek is azért zuhantak be annyira, mert a 8 sáv csak annyit bír. Felesleges mást belelátni, mint ami. Az RX 5700 XT-nél is elfogy a VRAM, de ott sokkal jobb az 1% érték, mert ott 16 sáv tudja pumpálni az adatokat 8 helyett.
Ez egy klasszikus VRAM hiány probléma, amint írtam nem az első eset amikor a 6600-as szériánál megbosszulja magát a 8 PCI-E sáv.2023-ban ne csodálkozzunk már azon, hogy VRAM hiány esetén kevés lehet a PCI-E 3.0 x16 tempó.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
válasz bozont #46351 üzenetére
erre azok kb 650-700 euroert mentek. ket napja lottem egy 850 euros 7900XTt, szoval en jol vagyok.
(SEKbol atvaltva: 6800 -> 7200SEK, 6800XT -> 8000SEK, 6950XT 9000-9500SEK, 7900XT 10.000SEK postaval mindennel EU masik vegebol. 4070TI 10500SEKtol indul)
Don't dream it, be it. // Lagom amount.
-
válasz bozont #46446 üzenetére
Jaja, nem ez az első eset, 2011v3-ban híresen gyilkolták a procikat az Asus lapok hibás vrm miatt. (google x99 killing cpus)
Persze itt most nem csak az Asus a hibás.
Talán túl ki van élezve már minden proci és lap terén is aztán asztali cuccoknál meg a minőségen is spórolnak.
Meg kellene nézni egy workstation lapot hogy azok gyilkolják-e a procikat.b.
Tök jó akció, ha leég a 4090-es akkor egyből van tartalék kártya kéznél.[ Szerkesztve ]
Vintage Story PH szervere újra fut!
-
Callisto
őstag
-
Devid_81
nagyúr
-
válasz bozont #47053 üzenetére
Igen, közben az AMD bejelentette, hogy elvileg jön az Avatar-hoz FSR 3. Feltételezem akkor talán post-launch patch fogja majd szállítani, vagy egyszerűen az Ubi nem beszélte le rendesen az AMD-vel a dolgokat.
#47054 HSM: Nincs olyan, hogy DLSS exkluzív, az NV nem blokkolja a többi felskálázó technika beépítését, ez már nem egyszer ki lett beszélve különböző topikokban.
"A natív felbontáshoz szerintem ma már elvárható egy jó minőségű TAA megoldás."
Hát ez az, hogy elvárható, csak sajnos sok esetben nem sikerül jó minőségűt szállítani a készítőknek. Reméljük az Ubi jó TAA-t fog csinálni.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.