- Ezek a OnePlus 12 és 12R európai árai
- Egy kabaré volt az Edge 50 család belgrádi bemutatója
- iPhone topik
- Samsung Galaxy S24 - nos, Exynos
- Garmin Instinct – küldetés teljesítve
- Samsung Galaxy A52s 5G - jó S-tehetség
- Yettel topik
- Fotók, videók mobillal
- Samsung Galaxy S23 Ultra - non plus ultra
- Redmi Note 13 Pro 5G - nem százas, kétszázas!
Hirdetés
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Free Play Days 2024 - 22. hét: Assetto Corsa, Dragon Ball Xenoverse 2
gp Extraként a Call of Duty: Modern Warfare III többjátékos és zombi módját valamint a Skull and Bones-t is próbálgathatjuk.
-
A hajlíthatók kedvence lehet a Dimensity 7300X 5G
ma Átcímkézés helyett csíkszélességet váltott a MediaTek, népszerű Motorolában debütálhat.
Új hozzászólás Aktív témák
-
Kvg
senior tag
válasz zovifapp111 #34163 üzenetére
Ebben egyet értünk a freesync gyakorlatilag csak ront játék élményen nem tudom mit kurtak el, de gáz lett nagyon. Marad a v-sync ami azt 120 - 144 már! még többé kevésbé működik.
(#34161) lezso6 Ne gondold azt hogy azt hogy az AMD nem ott gáncsolja el a usereket ahol tudja. Egyik kutya másik eb, ahogy fentebb írták már.
[ Szerkesztve ]
-
keIdor
titán
válasz zovifapp111 #34163 üzenetére
Pontosan, hardveres az egyik, szoftveres a másik, de a hardvert nem adják ingyen. Azt meg kellett tervezni, le kell gyártani, be kell építeni, ez nincs ingyen. Nem értek egyet a G-Sync jelenlegi 200$ árával, de a felár a fentieket figyelembe véve teljesen jogos.
¡GLORIA A LAS PLAGAS!
-
veterán
válasz zovifapp111 #34179 üzenetére
FreeSync esetén a VGA driver (ami a CPU-n fut) érzékeli a monitor paramétereinek tudatában, hogy képkocka ismétlésre lesz szükség, és utasítja a VGA-t hogy az utolsó képkockát küldje el újra a monitornak.
A G-Sync esetében ezt a monitorba épített modul végzi önállóan.
Szerk.: Az emberek alapvetően nem szeretik ha az ólom kapcsolatba kerül velük, de elbeszélsz mellettem...
-
Abu85
HÁZIGAZDA
válasz zovifapp111 #34187 üzenetére
Ilyen formában biztos nem. Ez az NV-nek is egyre kevésbé éri meg. Azzal nem mennek sokra, hogy prémium fícsőrnek tartják. A HDR-es G-Sync esetében nem sok céget győztek meg. Az Acer és az ASUS, ennyi. És ez már probléma nekik, mert például a prémiumért azért egy monitorgyártó elvárná, hogy többet tudjon, mint a FreeSync 2. De ehhez képest az NV megoldásából hiányzik a direkt tone mapping, illetve a Windows bugos HDR pipeline-ját kell használni a maga lilás beütésével. Értem, hogy prémium, csak nem tudni, hogy mire? A lilás árnyalatra? A direkt tone mapping hiányában a nagyobb késleltetésre és a kötelező kijelzőoldali tone mappingra? És akkor az ASUS és az Acer rak rá majd ezer dollár prémiumot, hogy a maguk oldalán azért ne legyen nagy kockázata ennek, így gyorsan visszahozza a beleölt pénzt, amire az európai kereskedők még raknak vagy 800 eurót, mert a luxuskategóriát luxushaszonnal árulják ugye. Legalább a Windows pipeline-ját meg kellene kerülnie az NV-nek, és akkor a lila árnyalat elkerülhető lenne, csak ez annyira körülményes, mert arra kell az NVAPI-ba egy kiegészítés, ami támogatná azt, hogy a játék egy meghajtóoldali pipeline-on kiküldje a képet, és ha már ezt megteszik, akkor amúgy mehetne rögtön a direkt tone mapping megjelenítés, tehát ott lennének, ahol a FreeSync 2, és akkor már csak arról menne a vita, hogy ér-e ez ~2000 dollárt.
Az MS-től nem tudom, hogy mennyire lehet amúgy a lilás beütésre megoldást várni. Az a vicc, hogy Xbox One-on ők is az AMD pipeline-ját használják, annyira jól sikerült a sajátjuk.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Dandris
tag
válasz zovifapp111 #34190 üzenetére
-
Abu85
HÁZIGAZDA
válasz zovifapp111 #34190 üzenetére
Igazából az a legnagyobb tévedés, hogy azt hiszed olyan világ jön, ahol választhatsz. Nem sajnos. Már a processzor kiválasztása meghatározza a GPU-t. Az Intel nem azért csinál dedikált GPU-t, mert hirtelen olyan nagyon fontos lett a VGA-piac, amikor évekig csak azt mondták, hogy elhanyagolható tényező. Azért lett fontos, mert a jövőben nem tudod majd odarakni a VGA-kat a procik mellé, hanem ott lesz a GPU a procival közös tokozáson. Így pedig már be kell nevezni, mert természetesen saját GPU-t akarnak a procijaik mellé párosítani. Szóval a jövő a jelenlegi útitervekben úgy néz ki, hogy ha kiválasztottad a processzort, akkor azzal jön a GPU és a memória. Később még az adattároló is. Szépen megkapod mindet a fémkupak alatt.
Ennek a legfőbb oka, hogy a CMOS-t nincs mivel leváltani. Elmegyünk 3 nm-ig, 2023-ben itt is lesz, és alapvetően nincs tovább (a 2 nm már nagyon elenyésző előnyt ad, az 1 nm pedig gazdaságilag értéktelen alternatíva). Elméletben sem lehet lépni, hacsak addigra valami CMOS alternatíva nem jön, de nem nagyon látszik semmi, ami 6-7 éven belül bevethető lesz. Szóval el kell kezdeni 3D-ben építkezni, és olyan terülteket fejleszteni, ahol van még potenciál, például a részegységek összeköttetésében. Aztán hosszabb távon, úgy 2030 környékén talán látni lehet majd valami CMOS alternatívát, amire át lehet állni. Az más kérdés, hogy a mai legózás nem biztos, hogy azzal visszatér.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz zovifapp111 #34217 üzenetére
Mivel a 7 nm-es node gyártási költsége eleve eléggé magas, így leginkább maximum ~400 mm2 közötti GPU-kkal fogunk találkozni. Ezek kerülnek majd annyiba, amennyibe a 12-16 nm-en az ~550 mm2-esek. De persze a költségeket figyelembe véve ideálisabb a 350 mm2 körüli maximum. Ez már egy nagyobb, HEDT tokozásra ráfér.
A Kaby Lake-G jóval gyorsabb a GT 1030-nál. Még az 1050 Ti-nél is jobb. De a Fenghuang Raven gyorsabb lesz a Kaby Lake-G-nél is. Az olyan 1060 szint, és az IGP. Persze elég sokat trükközik a rendszermemóriával, onnan azért sokat nyer.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz zovifapp111 #34220 üzenetére
Nekem csak akkor fog tetszeni, ha értelme is lesz a lapkák közelebb helyezésének. Mert azért lehet igen komoly haszna is. De ha ezt nem használjuk ki, akkor inkább vesztünk.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Televan74
nagyúr
válasz zovifapp111 #34379 üzenetére
Nvidiánál könnyesre röhögik magukat!
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
#45997568
törölt tag
válasz zovifapp111 #34381 üzenetére
Jok ezek a feloldalas hozzaszolasok, ott van tudas meg tartalom, eleg szepen elvalik a viz attol a sz@rtol amit jo paran probalnak neki beadni
Hajra Abu Mester
-
Milka 78
nagyúr
válasz zovifapp111 #34383 üzenetére
Az a meleg amikor te elkezdesz tisztelni IS valakit
-
#59036672
törölt tag
válasz zovifapp111 #34383 üzenetére
Szerintem összekevered Abu-t a Révai nagy lexikon-al. 🤣😂
-
válasz zovifapp111 #34383 üzenetére
Lexikális tudáshoz nem kell agy. Csak hatalmas segg. Abunak inkább komoly forrásai vannak, egy jóféle integrált bullshit metere meg egyedi rálátása a témára.
A RIOS rendkívül felhasználóbarát, csak megválogatja a barátait.
-
#45997568
törölt tag
válasz zovifapp111 #35129 üzenetére
Auto, arra buknak a csajok
-
Milka 78
nagyúr
válasz zovifapp111 #35248 üzenetére
Gyááá
-
válasz zovifapp111 #35256 üzenetére
ahol megvolt a 90% skalazodas ameddig nem fogyott el a videomemoria addig ebbol az utobbi evekben nem volt baj.
pl bioshock infinite mikroakadt ultran a 7850eimmel mert kifogyott a 2GB vram.
amikor vettem oket a 290X / 980 volt a csucs, mindenhol erezhetoen simabban ment a CF.
Don't dream it, be it. // Lagom amount.
-
FLATRONW
őstag
válasz zovifapp111 #35302 üzenetére
Azért itt kijön a DX12 azon problémája is, hogyha nem kap külön odafigyelést, akkor nagyon lemaradnak az előző generációs GPU-k.
Az 1070 is odavág a 980Ti-nek, pedig teljesítményben elégé egy kutya a két GPU.
Ahogy a FuryX is szépen lemarad az 580 mögött, pedig előtte szokott lenni.[ Szerkesztve ]
-
FLATRONW
őstag
válasz zovifapp111 #35304 üzenetére
A játék nem ad megfelelő támogatást ezekhez a generációkhoz.
Állítólag Low-Level Api esetén az alkalmazás maga a driver. A fejlesztőknek kell elvégezni a megfelelő finomhangolást minden egyes generációra.
A gyártók driverei már nem sokat tudnak segíteni. -
félisten
válasz zovifapp111 #35308 üzenetére
Azért ne feledkezz meg ez után a 3 világmegváltó játék után a maradék 2-300 címről amiben a Vega 56 és 64 az 1070 kártyával harcol
Rohanok RX 580 kártyát venni , hátha lesz az elkövetkezendő 2 évben még egy ilyen cím
980 TI jogos, 6 GB ramos.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Abu85
HÁZIGAZDA
válasz zovifapp111 #35308 üzenetére
Nem teljesen ugyanannyit ér a VRAM más Resource heap szinten. Itt magának a játéknak nem igazán kell 2 GB-nál több VRAM, de egy Tier_1-es beállítással sokkal jobban szemetel, mint a Tier_2-essel, emiatt GeForce-on inkább 6 GB az a limit, ami kb. kezd jó lenni, míg Radeonon 4 GB-hoz közeli, de itt annyira a határon van, hogy számít a DCC hatékonysága is. Emiatt jók 4 GB-tal a Polarisok, és kevésbé az a többi Radeon.
Jó, hát ez az első játék, amit már dizájnban is a legmagasabb Resource heap és Resource binding szintekre optimalizáltak, tehát alapvetően természetes, hogy nem hozza a megszokott sorrendet, ahol messze nem volt ennyire extrém a terhelés az API felé.
(#35306) FLATRONW: Valamennyi optimalizálási lehetőség van a driverben is, de közel sem annyi, mint régen. Az a baj, hogy nagyban meghatározza ezeket a lehetőségeket az is, hogy az alkalmazást hogyan írták meg. Mennyire követték a Microsoft ajánlásait, ami például köztudottan rossz az NV-nek (kivéve a Turingnak), és innen nagyon nehéz kiszakítani a rendszert, mert csak szívnának vele, amikor jönnek a patch-ek a játékhoz. Nem véletlen, hogy a Turingot már a Microsoft ajánlásaihoz tervezték, elvégre nem mindig van lehetőség az NV saját ajánlásaihoz írni egy játékot.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
válasz zovifapp111 #35350 üzenetére
Ezért nem vesz az ember a 4gigás 1050Ti-nél gyengébb VGA-t ha játszani akar, kb 3éve...
30€ Meta store bónusz Quest headset aktiváláshoz, keress priviben :)
-
syberia
veterán
válasz zovifapp111 #35353 üzenetére
Haverom most akarna váltani 1050 2GB-ról 1060 irányába. Mondtam hogy a 3GB verzió nem a legjobb. Itt egy bizonyíték erre.
https://howbad.info/
-
PuMbA
titán
válasz zovifapp111 #35350 üzenetére
Igen, de ez egy nagyon rosszul megírt játék. Forza Horizon 4-ben az RX560 jobb, mint a 1050 és úgy látszik, ahogy egyre inkább kúszunk a DX12 felé, tényleg megfordul a kocka, de ehhez kellett 2 év
[ Szerkesztve ]
-
Milka 78
nagyúr
válasz zovifapp111 #35718 üzenetére
Tedd hozzá, hogy ohne gitt
-
CsonkaImo
addikt
válasz zovifapp111 #35718 üzenetére
Játék függő is. Sony exkluzív címek azért nem semmi hogy néznek ki a hardverhez képest. Meg a közelgő Red Dead Redemption 2 is elég látványos. Viszont tény, hogy egy középkategóriás PC-n minden jobban néz ki (a konzol exkluzívokat leszámítva). Viszont már közel sincs akkora különbség, mint anno a PS3-Xbox 360 idejében volt.
-
keIdor
titán
válasz zovifapp111 #35718 üzenetére
Én a PS4 Pro és Xbox One X-re gondoltam. A két kicsit nem követem már.
Candyland meg DigitalFoundry alapján a legtöbb játék High/Very High-on megy. Árnyékok vannak néha medium-on.¡GLORIA A LAS PLAGAS!
-
keIdor
titán
válasz zovifapp111 #35723 üzenetére
Assassin's Creed Odyssey
Shadow of the Tomb Raider
Forza Horizon 4Én ezekkel játszom most, a TR-t már kivittem pár hete, itt nagy különbségeket nem látok.
Nekem van mindhárom platform, de csak a Forzát tudom összevetni, a többi csak Xbox-ra van meg.Ahol tényleg drasztikusabb különbség lesz az a BF 5, de ott is csak azért, mert konzolon is kell a 60fps, az tényleg medium környéke lesz.
¡GLORIA A LAS PLAGAS!
-
keIdor
titán
válasz zovifapp111 #35725 üzenetére
Inkább a low level API, amivel elérik a hardvert az számít.
Áhh... AMD Jaguar ez, hiába 8 magos, ez egy gyenge CPU, kb. a Bobcat szintje, ezek alacsony fogyasztású notebookokba voltak tervezve, ilyen 2008 körül talán ha jól emlékszem. A GPU meg közelebb áll a GCN 2-höz, inkább egy 280X-et képzelj el. Viszont nem érdemes PC-hez hasonlítgatni a teljesen más API miatt. Meg itt a memória is közös, ez is számít.
Lényeg, hogy árnyékokban szebb a PC, olykor a textúrákon is látni, de a fő különbség a framerate.
¡GLORIA A LAS PLAGAS!
-
keIdor
titán
válasz zovifapp111 #35727 üzenetére
Csak az SM-ek száma ugyanannyi, de nem Polaris van benne.
Jó gépek amúgy, nekem a töltési idő a legnagyobb gondom velük, PC-be nekem már 10 éve SSD van játékokra is, ezekben meg csak HDD van. Illene már egy SSD-t tennem a konzolba is...
[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
#00137984
törölt tag
válasz zovifapp111 #35727 üzenetére
A végtelen történet a fejtegetések szerint 1 TB/s sávszélességet, legalább 16GB HBM2 videómemóriát igényel. Egy ilyen videókártya már képes lenne arra, ami az RTX 2080 Ti-nek most még nem sikerült. A Next Gen végre valóságosan kezdetét venné, mert csak hosszú évek óta beszélünk a jobb grafikáról és a realisztikus texturaminőségről. DX12 végre érdemben többet mutatna meg, amit a DX11-hez képest most fel tudna mutatni. Most ezt konzolon vagy PC-n éled meg, az már egy hosszabb történet.
[ Szerkesztve ]
-
cyberkind
félisten
válasz zovifapp111 #35731 üzenetére
A konzolportok idejében ez aztán rengeteget számít.
Paranormal Cocktivity
-
nagyúr
válasz zovifapp111 #35731 üzenetére
Jah, csak ami tényleg érdemben jobbat ad majd, mint egy akkori konzol az annyira szűk réteg kiváltsága lesz, hogy le fogják tojni a studiók. Már most is letojják majdnem a PC-t nagyrészt.
Ami extra van a PC-n az gyakran csak azért van mert a konzolra készítés közben ígyis ugyis létre kellett hozni a részletesebb modelleket, textúrákat... vagy semmibe nem kerül szinte (jobban felcsavart effektek, stb), vagy megcsinálja helyettük az NV vagy AMD max.[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
CsonkaImo
addikt
válasz zovifapp111 #35749 üzenetére
Én egész jó PC-ről váltottam konzolra, és nem tapasztalom azt amit te írsz. Meg elég sokan cáfolják még a véleményed, úgy hogy szerintem érdemes továbblépni.
-
cyberkind
félisten
válasz zovifapp111 #35749 üzenetére
Jah, tényleg előrébb van a PC, ohh wait!
Nem tudom te milyen konzolt néztél és min, de tuti nem volt ott minden rendben, ha pedig csak gondolod, akkor meg nem volt konzolod, és pláne nem játszottál ahhoz hasonlókkal, mint amit linkeltem.
[ Szerkesztve ]
Paranormal Cocktivity
-
cyberkind
félisten
válasz zovifapp111 #35752 üzenetére
Nem sörözök, csupán láttam PC-ről egy átlagos PS4-re az átmenetet, ami meglepően jó, nem valami olyasmi mint a régi időkben, a címed abszolút nem érdekel, ez pedig nem gyalulás, hanem korrekció.
Paranormal Cocktivity
-
nagyúr
válasz zovifapp111 #35749 üzenetére
Nem haragszom... nekem van mindkettő... és semmi szégyenkeznivalója nincs egy konzolnak a PC mellett ma már... később meg még kevésbé.
Amúgy nem tudom mit néztél... de akkor biztos valami mást láttál.
Szerintem ahogy a 1X-en megy az AC Odyssey, meg a Shadow of the TR, azt jelenlegi PC-m is megirigyelné, nemhogy egy beugró.Sőt a PC-men pl nem tudok UHD HDR-ben játszani, a konzolokkal meg igen...
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
nagyúr
válasz zovifapp111 #35756 üzenetére
Szerintem nem felesleges...
Mert aki azt nézi X pénzből mit tud kihozni annak nagyon nem mindegy, hogy 150 ezerből vagy csak kétszer annyiból tud játszani... főleg hogy a PC nem lesz már olcsóbb.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
PuMbA
titán
válasz zovifapp111 #35877 üzenetére
Hogy viccelnék? Intel előtt szintén AMD-m volt, akkor is minden progim működött, most mintha kicsit visszaestek volna. Intelen játszottam League of Legends-et, DiRT Rally-t hibamentesen, multi-monitor kiválóan működik, böngészőben VP9 videó gyorsítás van (Polarisból ezt kihagyták, pedig úgy reklámozták az elején, hogy fogja tudni és a procim pörög). 2 évig ment hibátlanul az összes progim. Persze mai Intelről beszélek (HD5xx, HD6xx), nem a régiekről.
(#35878) proci985: Biztos nem gari, hanem driver, mert a játékok tökéletesen mennek és azok kicsit nagyobb terhelést nyomnak a kártyára, mint egy Lightroom
[ Szerkesztve ]
-
#59036672
törölt tag
válasz zovifapp111 #35877 üzenetére
Buli volt a vs-be és nem szóltál zovi??? [link]
-
Petykemano
veterán
válasz zovifapp111 #36326 üzenetére
Azért durva...
28nm 250W
Hol vagyunk ettől?
28planar->(20planar->)14+finfet!->10finfet->7finfet0.127-um2 ==> 0.027um2
5 generációnyi process fejlődés, 5x kisebb SRAM cellá
4-5 generációnyi architekturális fejlődés.Ehhez képest a 450mm2-es 28nm Hawaiihoz képest a 330mm2 7nm Vega20 épp csak a kétszeres sebességet érheti el ugyanezzel a fogyasztással. És ezt is nagyrészt annak köszönhetően, hogy 1050-ről felment az órajel 1800-ra.
Mintha kissé megállt volna az idő.Emlékszem, talán a Maxwell.megjelenésekor mondta Abu, hogy amikor nincs más mód az előrelépésre, mint az órajel emelése, egy architektúra ott pukkadt ki. Különös, hogy a gcn esetében ez már a második generációnál gyakorlatilag bekövetkezett.
[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
cyberkind
félisten
válasz zovifapp111 #36555 üzenetére
Mindkettő brutál szép most (is), de szerintem a Cry 3 szebb, persze az csak egy csőjáték.
Paranormal Cocktivity
-
cyberkind
félisten
válasz zovifapp111 #36558 üzenetére
És ez még részben a mai napig is így van, 4K-hoz nekem a 1070 bőven kevés volt.
Paranormal Cocktivity
-
syberia
veterán
válasz zovifapp111 #36558 üzenetére
HD 3850 256MB -on toltam ki anno medium-high beállításon. Szerintem is hatalmas előrelépés volt a Crysis első része.
(#36561) proci985: De a HL2 minden maximumra húzva ment 100 fps felett, Radeon 9800 Pro nem kicsit volt gyors kártya a maga idejében.
[ Szerkesztve ]
https://howbad.info/
-
HSM
félisten
válasz zovifapp111 #36588 üzenetére
Azért erre elég kevés esélyt látok, mivel alapvetően az RX580-assal lábkompatibilis az új GPU, így gyakorlatilag a már bevált RX580-as kártyákat kapjuk, kicsit magasabb órajelen.
Mondjuk hogy újabb az nem egészen értem, miért jobb, amikor a GPU nem változott, csak a gyártástechnológia, amivel gyártják. Pontosan ugyanazt tudja ilyen téren, mint az elődje, ami amúgy szvsz teljesen oké.
[ Szerkesztve ]
-
HSM
félisten
válasz zovifapp111 #36590 üzenetére
Szerintem megfelelően árazva mindkettőnek meglenne a helye a piacon. Ami az időtállóságot illeti, szerintem ugyanakkor lesz vége mindkettőnek, a 8GB-os 580-nak és a 8GB-os 590-nek is. A 4GB-osok persze sokkal előbb ki fognak kopni, mivel az már néha ma is kompromisszumos.
Plusz, az 580-ból lehet egyszerűbb/olcsóbb verziókat csinálni, mivel alacsonyabb a TDP gyárilag, míg az 590-es az inkább a prémium 580-asokat váltja le. Valószínűleg ez lehet a terve az AMD-nek, hogy így jobbak lehetnek a prémium 580-asok az új GPU-val, és az olcsóbb típusváltozatok maradhatnak 580-asok.(#36591) PuMbA: Amiről beszélsz, az a user error kategória. Amikor csak a feszt és órajelet húzza felfelé a user, és elfelejti, hogy a low-cost kártyájának vannak beépített limitjei... Ezért kell olyan modellt venni, aminek kellően magasak a gyári limitjei, és ésszel belőni a tuningot. Akkor szépen fog ez a GPU skálázódni az órajellel.
Az RX460 tipikus példája ennek... Az alapból TDP korlátozott kártya, főleg az elterjedt gagyibb kiadások. Az RX560-asomnak nekem is kellett kis plusz TDP limit BIOS alól, mert a gyári ha jól emlékszem 48W nem sok mindenre volt elég. Egyből meglett OC-val a 7000 pont 3DMark FireStrike [link], amikor a gyári BIOS-al jó, ha bő 6000 fölé ment, függetlenül az órajeltől... 896 shaderes fajta volt, szóval ennyit kéne mennie a 460-adnak is ilyen órajelen, ha nem fogja meg valamelyik limit.
[ Szerkesztve ]
-
Locutus
veterán
válasz zovifapp111 #36588 üzenetére
Vagy inkább ezt se, meg az 580-ast se.
Komplett hangrendszerem eladó - https://hardverapro.hu/apro/mackie_studio_monitorok_mr5mk3_mr10s_mk3_sub_asus/hsz_1-50.html
-
Milka 78
nagyúr
válasz zovifapp111 #36607 üzenetére
Ezt már kiveséztük többször. A 980ti- ref órajelen hajtották ami 1075mhz és kb vicc kategória.A legalapabb is gyárilag 1340-et ment és ugye az enyém is 1530-on ment. Az simán 1070 szint amivel helyére is kerü a táblázaton.
-
HSM
félisten
válasz zovifapp111 #36648 üzenetére
Még a 970/980 ellen is teljesen jók voltak a 290-esek, ha a jobbak közül válogattál. Plusz ott legalább rendesen 4GB volt a VRAM...
Itt azért kuncogtam magamban a 970 láttán... [link] -
nagyúr
válasz zovifapp111 #36660 üzenetére
Ez így van... bár azért ha ez beindul majd, főleg a DLSS az NV-nek, akkor lesznek itt még meglepődések szerintem.
Főleg a következő menetben a 7nm-en, ha nem lesz ezekre az AMD-nek válasza.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
félisten
válasz zovifapp111 #36660 üzenetére
egyetértek, szépen összefoglaltad
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Vírusirtó topic
- OLED TV topic
- Renault, Dacia topik
- Olasz autó topik (Fiat, Lancia, Alfa)
- LG LCD és LED TV-k
- AMD Ryzen 9 / 7 / 5 / 3 5***(X) "Zen 3" (AM4)
- Samsung LCD és LED TV-k
- Ezek a OnePlus 12 és 12R európai árai
- Gaming notebook topik
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs