- iPhone topik
- Vodafone mobilszolgáltatások
- Telekom mobilszolgáltatások
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Eleglide C1 - a középérték
- Milyen okostelefont vegyek?
- Android szakmai topik
- DIGI Mobil
- Android alkalmazások - szoftver kibeszélő topik
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
Hirdetés
-
Nyár végén jön az idei THQ Nordic Digital Showcase
gp Az új bejelentések mellett újabb részleteket kapunk a Gothic Remake-ről és a Titan Quest II-ről is.
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
-
A Colorful "fagyosan kompakt" alkatrészekkel megy elébe a nyárnak
ph A vállalat többek között egy slim profilos léghűtővel, egy helytakarékos táppal és egy ITX-es házzal adott magáról életjelet.
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
-
nagyúr
Az előző két generációban 60-70% volt az előrelépés a 04-es chipek között - az pusztán a 40%-kal több ALU-ból nehezen lesz. Ezért írtam, hogy kíváncsi vagyok, mit kezdenek a backenddel - ha marad a 256/64, akkor hiába a gyorsabb memória, nem fogja tartani a lépést a számítási kapacitással.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
nagyúr
-
core i7
addikt
válasz FollowTheORI #16209 üzenetére
Szerintem is ez lenne legésszerűbb
-
nagyúr
Igen, akkor a 02-es HBM és 128 ROP. Hogy miért érné meg? Akkor van ennek értelme, ha az nVidia fenn akarja tartani az elmúlt évek menetrendjét, ahol a 600-700 USD-s ársávban évente kiad egy erősebb kártyát, generációnként kettőt. És mikor akarja fenntartani? Természetesen akkor, ha a profit-előrejelzés ebben az esetben magasabb, mint akkor, ha a Volta alapú GeF csak kisebb előrelépés. Ezt meg a jó ég tudja, meg persze Jensen.
[ Szerkesztve ]
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
carl18
addikt
Üdv! Érdeklődnék a volna kb mikorra várható?
Majd szeretnék egy GTX 2050-et esetleg GTX 2060-at, ha akkora lesz a előrelépés mint ahogy sejtem a GTX 2050 kb a GTX 1060 szintjét fogja hozni. A GTX 2060 meg kb az 1080 szinje körül fog mozogni.Ahogy elnéztem a tudtommal a volta DDR6 memóriát fog használni Hbm2 helyet, mert túl drága az utobbi.
Szerintem a DDR 6 mellé elég a 256 bit a GTX 2080-al, és biztos a 2080TI mellé megy majd a 384 bit és ddr6 memória.Hiába szúr, itt Ryzen a úr!
-
Arról van már valami tippelgetés, hogy a következő generáció kap-e natív HDMI 2.1 kimenetet (amin ki is lehet használni a szabvány szerinti elméleti max sávszélt, nem egy kvázi integrált DP-HDMI konverter lesz)?
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
nagyúr
válasz janos666 #16213 üzenetére
Nincs, kicsi esély van rá, de azért nem biztos hogy várható. Kevés megjelenítő van rá, addig meg nem biztos hogy erőltetik.
Persze állítólag jövőre jönnek a TV-k/monitorok is majd a 2.1-el... majd kiderül ki lesz előbb.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
carl18
addikt
válasz core i7 #16214 üzenetére
Annyira nem sürgős csak megérdeklődtem ha már itt jártam, kíváncsi vagyok mennyivel lesz jobb.
Bár gondolom emelik a videómemóriát is minimum 3 gigára a 2050 esetén esetleg 4 gigára.GTX 1080 8 gb talán a gtx 2080 lesz 16gb?
Azt a pár hónapot ki bírom még várni, jelenleg majd lehet veszek egy GTx 1050-et.
Utána ha jön a 2050 majd átváltok később arraHiába szúr, itt Ryzen a úr!
-
Jack@l
veterán
válasz Puma K #16218 üzenetére
Mivel a volta alapú tesla is 16 gigás, nem hinném hogy lapátolnák rájuk ész nélkül a drága hbm2-t...
#16220: A csúcs biztos nem gddr-el jön majd.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
s.bala31
őstag
válasz carl18 #16212 üzenetére
Szerintem ekkora gyorsulás most nem valószínű mivel a Volta is 16nm-en lesz gyártva. Nagyobb sebességnövekedés általában csíkszélesség váltásnál szokott jelentkezni. Persze az is lehet hogy nagyot villantanak ismét a mérnökök és sikerül egy hasonló teljesítményboost mint a 900-1000 váltásnál.
-
s.bala31
őstag
válasz core i7 #16222 üzenetére
Igazad van. De ez a 12nm nem olyan váltás mint amikor 28-ról 16-ra álltak át:
TSMC’s 10nm process, unlike Intel’s Cannonlake design, is expected to be more of a stop-gap measure between their current process and the almost mythical 7nm lithography. To put that into perspective 7nm is about the height of three Tom Cruises standing on each other’s shoulders. But getting down to 10nm seems to be more of a challenge than maybe even they expected. I’m guessing either the price is prohibitive or the yields too low to offset the performance benefits of a newer design. Or a combination of both.TSMC have though announced this stop-gap measure, which they’re nominally calling 12nm. It’s apparently based on their existing 16nm design, but with density, performance and energy efficiency improvements. Whether this 12nm node will genuinely be packed with 12nm transistors, or whether it’s just going to be clever marketing, is about as clear as thermal paste.
-
Én tudjátok mit nem értek? Ha kijön a Volta, akkor aki még mindig FHD-én van (többek közt én is) az majd downgrade-el 2060-ra mert most ugye a 1070 az kb. FHD recommended VGA, a 1080ti (ha ez a szint lesz a 2070) az meg ugye overkill erre a felbontásra...
[ Szerkesztve ]
Passionate about minimalistic software, the Linux philosophy, and having fun. SFF enthusiast.
-
válasz Crytek #16227 üzenetére
Mostanában sokat játszogattam ezzel.
A natív 2160p szebb, de 1080p kijelzőn is sokat javul a kép, ha 4k a render.
A GTX1070 beleroskad a 4k-ba (most próbálgattam, többnyire 1-3 éves játékokkal, Ultra-ról High-ra visszalépve + nálam blur, grain, DoF, aberration, ilyesmik mindig OFF ha engedik, AA szintén OFF, főleg a post-process AA tiltva...). Teljesen esélytelen a stabil 60fps, és nekem borzalmas a 30 (talán még zavaróbb, ha folyton csapkod a kettő közt a Vsync, de próbáltam fix 30-on is).
Sajnos a 4k-s TV-m beépített scaler-e maszatos/életlen hatású képet gyárt 1080p120 bemenetből (tesztképeken látni, hogy minden 1 pixel széles vonal az 2 pixel + halvány árnyék), kicsit olyan mint ha 720p-vel etetném az 1080p kijelzőt. És valami fura módon annak ellenére, hogy lágy a kép, még zavaróbb az aliasing (valahogy nem elmaszatolja, hanem kihangsúlyozza, bár nekem ugyan ez az élményem a maszatoló post-process AA-val is natív 1080-ban).
Ez is olyan, hogy egy "konzolparaszt"-nak mindkét fenti dolog triviális megszokás lehet (a 30fps és a lágy resolution scaling, akár egyszerre, de legalább is játékonként változva hol mi), de nekem ez az "akkor inkább nem játszom", vagyis az "inkább vissza a régi képernyő" kategória (pedig játékokban szép a HDR is).
Ami egy érdekes kompromisszum, az az 1440p60 a 2160p TV-n: az extra felbontással közel olyan éles a kép, mint a natív 1080p, de ilyenkor valahogy pont nem "nagyítja", hanem egész szépen elfedi az aliasing-et a lágy scaling, jobban mint az FXAA, SMAA, stb natív 2k-ban. Ráadásul a GTX1070 sem kap bokaficamot ettől a felbontástól, gyakorlatilag mehet olyan beállításokkal, mint az 1080p, mégis megvan a 60fps.
Szóval most már tapasztalatból is mondom, hogy szerintem eszméletlen népámítás volt, mikor itt Ph-n is beleaggatták a 4k jelzőt a VGA tesztek címébe ("a 4k kapujában" és hasonlók rémlenek az utóbbi pár évből). A mai generáción legfeljebb ilyen formában lehet kísérletezgetni a 4k-val, ahogy most én. Ha keresel a játékban egy helyet, ahol kicsi a gépigény, ott tudsz egy kicsit nézelődni anélkül, hogy zavar az alacsony fps, mikor körbeforogsz. Illetve álltóhelyben nézegetheted a játék látványosabb jeleneteit, hogy miként festenek, de nagyjából ennyi.
És akkor arról még nem is beszéltem, hogy mennyire imádnám egyébként a 120fps-t, ha nem lenne túl maszatos a kép. 4k-ban 120fps meg ... hát ... ja ...
^^ Ezért kérdeztem nemrég, hogy mi a hír a HDMI 2.1-ről, mert azzal be tudnám pakoltatni a GPU-val az 1080p render-t 2160p120-ba (feltéve persze, ha lesz majd TV is, amit azt támogatja, a VGA és még maga a HDMI kompatibilitás sem elég önmagában), az általában élesebben skáláz.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Crytek
veterán
-
válasz Crytek #16229 üzenetére
A Gsync/Freesync sem tesz csodát, amíg nincs elég sok képkockád, addig darabos lesz a mozgás azzal is. Ugyan úgy, mint ahogy a fix 30 fps zavaróan darabos, és ugyan úgy, ahogy a fix 60 fps is csak kompromisszumosan épp elég, hogy ne zavarjon, de azonnal érzed, hogy mennyivel jobb a 120, sőt még az is ha 90-120 közt váltogat.
Másik oldalon pedig 120fps alatt mindig mosódik is a mozgás, ha nem impulzusos a kijelző (de még ahhoz is kell legalább 60fps), ami viszont nem G/Free-sync kompatibilis dolog (kizárják egymást), szóval az ideális megoldás még mindig minimum 60+impulzus, de inkább 120 fps, akárhogy sync-elsz vagy nem sync-elsz (mindegy).
A G/Freesync azoknak jó igazán, akik minimális lagot akarnak képtörés nélkül, de közben magas fps-el játszanak (120+), jellemzően mondjuk competitive FPS játékot. Alacsony fps mellett is van kis haszna, de nem megoldás sok dologra, amit csak más old meg (és esetleg nem mehetnek egyszerre).
Nem tudom miért hiszik egyesek, hogy az okosabb szinkronizálás kárpótol a képkockák hiányáért. Ez hülyeség (vagy azt hiszei ezt, aki nem tesztelte alaposan és áhítozik iránta, mindenfélét remél tőle, vagy aki bemeséli magának, hogy ezzel is szentesítse az anyagi kiadást). Van értéke ezeknek, de más.
Én LCD-t már ~5 éve nem vagyok hajlandó nézni.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Crytek
veterán
válasz janos666 #16231 üzenetére
Én pont úgy tudtam hogy pont ezt a képkocka hiányos képtörést törlik el ezek a synces szarságok... Akkor nagyot tévedtem.. Még jó hogy egy ember (te) most leírtad akkor ott rohadjon meg az összes ilyen soha nem lesz ....Akkor rántom is be az első 4K 60hz-es ételmes IPS cumót
Next PC Upgrade: 2022
-
Crytek
veterán
válasz Crytek #16232 üzenetére
Akkor mégsem én tudtam rosszul...
"Ennek megoldására találta ki az Nvidia a G-syncet, ami egy csapásra megszünteti a monitorok fix frissítési frekvenciáját, és teljesen dinamikussá változtatja azt, így a monitor mindig pontosan akkor frissíthet, amikot a VGA elkészült egy képkockával, tehát a kettő teljesen szinkronban működhet egymással. Nem tudni, mi a G-sync felső határa, de az Nvidia egyelőre egy 144hz-es Asus monitorral demózta a cuccot, az alsó limit pedig 30hz, hiszen 30fps alatt már a játék szaggatni kezd, így ilyenkor a G-sync minden képkockát megdupláz. Az eredményt persze nem lehet látni sem videókon, sem képeken, ezt majd minden érdeklődőnek élőben kell tesztelnie, mindenesetre akik látták működés közben, arról számoltak be, hogy a végeredmény nagyon meggyőző, és tényleg eltűntet minden képhibát, ami korábban a szinkronizációs probléma miatt előjött."
Tehát szerinted akkor ez hazugság?
Next PC Upgrade: 2022
-
válasz Crytek #16232 üzenetére
Na, ne essünk át a ló túloldalára.
Van haszna, csak nem csinál mókusürülékből gyémántot. Létező problémákat kezel többnyire sikeresen, csak nem lesz tőle egycsapásra varászlatos módon minden tökéletes. Amire ez nem megoldás, azt nem tudja megjavítani, de ez nem azt jelenti, hogy semmire nem jó.
Ártani sohasem árt az adaptív sync, csak nem mindig old meg minden gondot. Az a kérdés, hogy mik a prioritások és lehetőségek.
Egy szem aszpirin valószínűleg nem lesz jó tüdőrákra, és még egy ártalmatlan fejfájásra sem biztos, hogy elég, attól is függ miféle, mi váltotta ki, milyen erős, stb... de persze lesz, amikor hatékonyan segít bizonyos panaszokon.
Csak azt utálom ebben, hogy mikor jön egy ilyen technológia, akkor mindenki messiásnak állítja be és azt hiszi olyasmiken is segít, amire sohasem volt hivatott, márpedig ha minden gondot varázsütésre megold, akkor másik minden tökéletes.
Valódi előnyei:
1: Nem ingadozik viszonylag távoli értékek közt az fps, és vele együtt a lag.
Ennek akkor van szerepe, mikor nem tudod kvázi-stabilan tartani a megcélzott értéket (teszem azt pl. fix 60fps-t). Ilyenkor még mindig jobb lesz a helyzet, mint sima Vsync-el lenne. Csak a "rossz" és "még rosszabb" közül egyik sem "jó". Az alacsony fps az még mindig alacsony fps marad.
Ha pl. 30 körüli szűk sávban mászkál az fps, akkor kb. olyan lesz G/Freesync is, mint ha fix 30fps-ed lenne. Próbáld ki most, hogy milyen a fix 30fps és merd azt mondani, hogy szép sima és folyamatos... ugyan úgy nem lesz az a Free/G-sync sem, ha körül 30-on átlagol.
Ha pedig vadul fel-le szaladgál az fps, akkor is elkezded megérezni a problémát, mert ha lágyabban is, de mégis változik a képkockák közti idő. Mikor egyszerűen nincs kész a következő képkocka, akkor nincs mit kirakni a régi helyett, ilyenkor ugyan így meg kell várni a következőt, szóval ha kiugróan magas a frametime, akkor ott érezheted is, hogy nem történik semmi, illetve érezheted a hullámzást.
2: Alacsonyabb a késés
Egyrészt ugye eltűnik az extra lag, amit a hagyományos directX Vsync bufferelés okoz (***).
Másrészt pl. a Gsync esetén a speckó modul és az nVidia partneri "minősítés" szavatolja, hogy nem tököl a kijelző (pl. real-time scan-out megy, nem bufferelget, de főleg nem számottevő lag-al), illetve azt hiszem az új Freesync hitelesítése is garantál már egy bizonyos maximális lagot (amihez a monitor gyártó tartja magát, ha akar az AMD-től ilyen "matricát").
*** Ez még egy érdekes kérdés, állítólag rengeteg múlik a hagyományos Vsync esetén is a konkrét implementáción, ami állítólag kifejezetten rossz (gyakorlatilag minden DirectX játékban évtizedek óta), de állítólag lehet vele trükközni (megakadályozni, hogy teletömődjön egy hosszú buffer) és akkor jelentősen csökken. [link]
----
Szóval van ennek értelme, de az igazán folyamatos és főleg még emellett éles mozgóképnek továbbra is feltétele a magas átlagos fps érték elérése, ami 60 felett lesz, nem alatta.
Illetve ez már erősen szubjektív, de ha pl. a 120fps-t célzod meg, akkor ott engem már nem is szokott zavarni a képtörés, mert sokkal kisebb a különbség a csík felett és alatt, hisz fele akkorát mozdul egy-egy képkockán, mint 60fps-el (30-al nyilván még nagyobb a difi). Sőt, ugyan így csökken a hagyományos Vsync bufferelési lag is (a bufferelt képkockák száma megmarad, így 1/freki idő késésekből kevesebb darab adódik össze). Szóval még egy "élhető" laghoz sem feltétlenül kötelező az adaptív sync.
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Crytek
veterán
válasz janos666 #16234 üzenetére
Az a baj ,hogy ezt tesztelni se tudom mert gondolom egyik bolt se olyan hogy hoztam a pc-m had kössem rá és nézzem meg...
Nekem soha nem volt célom később se lesz se a stabil 60 -120-144 fps...nekem nem kell stabil.... Mivel mindent csutkán játszok a 30-50 közötti fps nekem bőven elég.
Őszintén megvallva sokszor a képtörést se veszem észre pedig csak 60hz-es sima szarom van.... De pl a Sleeping Dogs Benchmarknál ahol 100 fps felett van ott látványos....
Mindegy a sima V-Snycnél rosszabb biztos nem leszNext PC Upgrade: 2022
-
válasz Crytek #16235 üzenetére
Pedig baromi egyszerű a képlet.
1: Minél több fps, annál folyamatosabb és élesebb a mozgókép. Ennyi.
Durván 30-tól lesz elviselhető, 60-tól egész jó, 120-tól kiváló (persze ezek ilyen saccolt és kerekített számok), valahol 170 körül pedig már gyakorlatilag tökéletessé kezd válni (bár ez itt már egyéntől függhet, hogy még meddig érzékeli a különbséget, és nyilván egyre kisebb a hozadéka a további növekedésnek, én már 120-al is beérném, ha az egyéb tekintetben kompromisszummentes, a lényeg hogy ~60 alá ne nagyon menjen se pillanatokra, se átlagban).2: Minél hatékonyabb a sync megoldás (és a scan-out, stb), annál alacsonyabb lehet (és gyakorlatban sokszor tényleg lesz is) a lag (bár persze maga a sync az opcionális, van aki megvan képtörésekkel is).
Szóval persze, ha LCD monitort akarsz, akkor jobb a Gsync-es, mint ugyan az a monitor Gsync nélküli verzióban. Ha megfelelne nekem egy LCD, nekem is Gsync-es lenne. Csak ne hidd, hogy majd 30 körüli fps-el neked pusztán a Gsync miatt vajsimaságú és tűéles lesz a mozgókép, mert nagyon nem, ugyan úgy kellenek azok a fránya képkockák, minél több. Ameddig ki tud még többet rajzolni a monitor, addig mindig jobb a több, még 100 felett is...
[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
Crytek
veterán
-
-
Melorin
addikt
Sziasztok!
A Volta mikorra várható és vajon mekkora előrelépés lesz a Pascalhoz képest?
Én még tavaly adtam el a 970 karimat mondván, hogy hátha nagyon ütős lesz az AMD "középkategória királyának" beharangozott új kártyája és azóta nincs dedikált VGA-m, IGP-n nyomulok
Közben volt egy félresiklásom egy 1050 Ti-vel, de ahogy azt előre is sejtettem, nekem túl gyenge volt fullHD-ra.
Jó lenne már végre valami, de olyan ami nem gyenge már most sem, és 1-2 évig ellennék vele.
Ha nem biztos hogy nagyon nagy durranás lesz, szerintem beleinvesztálok egy 1070-be. -
carl18
addikt
válasz Melorin #16239 üzenetére
Hát hogy kapj választ is, úgy 30-40% szerintem a teljesítmény nővekedés.
Szerintem ha jön a GTX 2060 abból ismét 2 variáció lesz. Lesz a kisebb és a nagyobb dupla memóriával, szóval jó esetben a kisebb 6 gigás lesz a nagyobb 12.
Teljesítménybe a GTX 2060 legalább a GTX 1070 tudását tudni fogja, legjobb esetbe a 1080-al fog vetekedni.
Hát a kérdés mennyire tudsz várni, az nvidia nem siet a megjelenéssel jelenleg ugyan is nincs verseny helyzet gpu fronton.
Hát amik elsőnek meg fognak jeleni nyilván a csúcskártyák X80/X70 na meg jön nem sok időkülönbséggel a Volta Titán is. X80-ra rá 1 évvel meg biztos jön a X80TI pascaból ki indulva hasonló lesz a helyzet a voltánál is.Hát elsőnek a Drága kártyák jönnek, ha jobb ár-értékű kártyát szeretnél akkor 2018 végére is elcsúszhat a az idő. A döntés már csak a tied, tudsz-e várni 1 évet, addig meg használsz valamit átmenetileg GTX 1060 3 gigás egész jó árba van és sokkal erősebb mint a 1050Ti.
Hiába szúr, itt Ryzen a úr!
-
wjbhbdux
veterán
megint új titan jön [link]
/s
-
őstag
-
Jack@l
veterán
válasz wjbhbdux #16241 üzenetére
Tele van a raktár hbm2-vel, mostmár el kell kezdeni szétszórni őket drágán.
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
MPowerPH
félisten
Van mar info arrol, mikorra varhato az elso consumer piacra szant Volta? Erdemes most penzt invesztalni egy 1080 Ti -be egyaltalan?
Don't Tread On Me
-
nagyúr
-
MPowerPH
félisten
válasz FollowTheORI #16247 üzenetére
Dehogy szeretem.... Mar a 980Ti(anno SLI) van 2 eve. De most mar lehet nem szivesen adnek ki orult osszeget Pascalra(foleg, hogy ugy tudom, lehet lesz meg refresh is, ami a mostani gen. arat mar lejjebb tolja), ha jon a Volta, es megint atir mindent. Azota, hogy megbontottam az SLi -t viszont semmi nem megy 4k -ban. Szoval passz, nekem pluszban bajos, mert az uj szeria megjelenese utan meg varnom kell, mig lesz vizhuto blokk a kartyakhoz, ami +2 honap alt.
[ Szerkesztve ]
Don't Tread On Me
-
Jack@l
veterán
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Aventador91
őstag
hi. egy kis off
telepítettem a legújabb nvidia drivert, és azóta nem megy az experience-ben a játékfelület, ahol videózni lehet, mutatja az fps-t, stb. bekapcsolni sem lehet a beállításoknál, rámegyek az on-ra, de csak tölt és nem csinál semmit, ha úgy hagyom 1 órára akkor se. mit lehetne tenni?
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- BestBuy ruhás topik
- Milyen billentyűzetet vegyek?
- 3D nyomtatás
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Kihívás a középkategóriában: teszten a Radeon RX 7600 XT
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- Microsoft Excel topic
- Fujifilm X
- Renault, Dacia topik
- OLED TV topic
- További aktív témák...
- Újszerű - POWERCOLOR Radeon RX 5500 XT 8GB GDDR6 VGA videókártya
- Hibátlan - GIGABYTE GTX 1660Ti Windforce OC 6G 6GB GDDR6 VGA videókártya dobozos
- Hibátlan - PALIT GTX 1650 StormX 4GB GDDR5 VGA videókártya - tápcsatlakozó nélküli !!!
- ASUS ProArt GeForce RTX 4080 SUPER 16GB GDDR6X OC (ASUS-VC-PRO-RT4080S-O16G) Bontatlan új 3 év gar!
- XFX RX 6600 XT SPEEDSTER SWFT 210