Hirdetés
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Xiaomi 12 - az izmos 12
- Honor Magic6 Pro - kör közepén számok
- iPhone topik
- Titan 2 Elite néven érkezik egy újabb BlackBerry-szerű Unihertz
- One mobilszolgáltatások
- A kamera nem lesz karcsú a Honor Magic8 Pro Air esetében
- Milyen okostelefont vegyek?
- Okosóra és okoskiegészítő topik
- Mobil flották
Új hozzászólás Aktív témák
-
Busterftw
nagyúr
En ertem, hogy az user szamara mindegy es sovany vigasz, de nem hagyhatod figyelmen kivul azt a tenyt, hogy 4000-5000 szeria ugyanazon a node-n keszult. Nem volt tobbet kolteni a node javulasbol, mig 2000-3000 szerianal volt egy hatalmas ugras.
Mintha almat hasonlitanal kortevel.
-
Jacek
veterán
válasz
Busterftw
#50774
üzenetére
Ahamm , atment a lenyeg megint

3070-2080Ti gyorsabb 1-2-3%-al magyarul gyorsabb, magyarul megverte.
5070-4090 lassabb 60%-al gondolom majd jon a 90 kulon kategoria de mivel mincs Ti ez a csucs, de ha a 4080-hoz nezzuk 30% al lassabb, hat ez nem verte meg
De m8nden rendben lehet vasarolni

-
X2N
őstag
válasz
Busterftw
#50773
üzenetére
Az az érdekes hogy múltkor is találtam olyan játékot(CS:GO) ami a Techpowerup teszt szerint ilyen 300-360 fps-el ment volna a hardveremen 4K felbontásban, erre nálam 450-500fps is simán megvolt. Ugyanazokkal a beállításokkal, ugyanazzal a pályán, tettem is fel róla képet. Nagyon nem mindegy pl. hány botot teszel be, cpu limites játék. Ha nem ebben a topikban akkor a Radeonos találgatósban. Érdemes lecsekkolni, mert lehetnek eltérések, nem is kevesek, persze ehhez kell egy olyan vga ami ezeket az fps-eket még 4k-n is tudja. Szerepelhetnek rossz mérések is tesztekben, amik eltérhetnek még az előző tesztben mértekhez képest is, meg nem árt ismerni a játékot is, hol milyen teljesítményt tud, ezért nehéz is lehet reprodukálni a teszteket, legyetek résen

-
X2N
őstag
Persze hogy nem vagyunk előrébb, ha nem realisztikus a tesztkörnyezet se amiben mérnek. Akkor mi értelme van az egész mérésnek? Én is lekapcsolhatom a tűzfalat, meg a defendert meg a biztonsági patcheket ahogy Steve, meg minden mást is amit tudok még ebben a rendszerben is, de nem ezt kellene lemérni hanem hogy mindenféle mókolás nélkül mit tud a rendszer.
-
PuMbA
titán
Azon kívül, hogy elmondtad a bajaid a beszúrt tesztekről még mindig nem vagyunk előrébb, csak feleslegesen pörögnek a hozzászólások
Nincs róla mérésünk, hogy gyorsabb lenne a 10 vagy egy kiherélt rendszer a gyári 11-hez képest játékok alatt, miközben sok mérés van arról, hogy ugyanolyan gyors a 11. Továbbra is itt tartunk, a többi a templomba tartozik, mert úgy hívják, hogy hit. Eredményeket szeretnénk látni, hogy hol van olyan újabb teszt, ahol kimérték, hogy a 10 gyorsabb, mint a 11. -
X2N
őstag
-
huskydog17
addikt
"AMD & NVIDIA Abandoned This Segment" | Intel Arc GPU Factory Tour with Sparkle
Gyárlátogatás a Sparkle-nál.
Rendkívül érdekfeszítő volt ez a videó és nagyon tetszik, hogy a Sparkle sok olyan információt oszt meg, melyeket más AIB partner nem (pl. konkrét árak).
-
PuMbA
titán
Ok, bár most itt játékokról van szó és közben nem szoktunk renderelni a háttérben vagy hasonlókat csinálni
Én még 22GB-nál több memória használatot nem láttam a 32GB RAM-ommal, gyári Windows 11-gyel. Simán belefér 1-2 repülő szimulátoron kívül minden ebbe a mennyiségbe bloat-tal együtt és még marad is szabad hely. -
Ribi
nagyúr
És akkor ne is beszéljünk arról hogy W11 gyorsabb mint a 10?
-
X2N
őstag
FPS-t limitál, így jóval kisebb az eltérés a mért eredmények közöt ami csalóka is lehet. Azt se felejtsük el hogy ezek friss telepítések, nem 1-2 éve futó rendszerek.
"Ezt sem értem, hogy mi különbség van 1,6GB memória és 1GB memória használat között, ha van bőven memória, mondjuk 32GB. Ugyanolyan kényelmesen és zavartalanul elfér."
Szeretem a bloat mentes oprendszereket, már futottam ki többször is 32GB ramból, még ezzel az optimalizált rendszerrel is, akkor upgradeltem 96GB-ra, nekem ne fusson semmi felesleges a háttérben ami nem kell. még ha csak +500MB, akkor se.
Linuxon a KDE Plasma el van 800MB-al, az baráti. -
PuMbA
titán
"Még mindig limitál a 9070"
Továbbra sem értem, hogy mit limitál
Ha a Windows miatt lenne lassabb, akkor pont hogy gyengébb hardveren jobban lassulna, hiszen kevesebb benne az erő, azaz kevésbé bírja a Windows háttérfolyamatait futtatni zavartalanul, mint egy csúcs konfig."1.6GB memória, az még mindig sok."
Ezt sem értem, hogy mi különség van 1,6GB memória és 1GB memória használat között, ha van bőven memória, mondjuk 32GB. Ugyanolyan kényelmesen és zavartalanul elfér mindkettő.
-
X2N
őstag
Még mindig limitál a 9070, nem győzöm hangsúlyozni, a játék összeállítás is elég rossz, multis címek->kapásból kuka.
Ez a Nano11 mit tud a gyári win11 hely képest? Feladatkezelőben mennyi a memória használat, mennyi a cpu-nál a processes? Még Defender sincs ebben a nano11-ben? Az viszont gáz.
Szerk:Na most néztem, nano11, ~106 process, 1.6GB memória, az még mindig sok.

Nálam ReviOS win10-nél ~73 process és még ennél is kevesebb ram használat van. -
PuMbA
titán
Windows 11 vs Nano 11 - Is a De-Bloated Windows REALLY faster??
Ezt is kimérték már és semmivel sem gyorsabb játékok alatt egy kiherélt Windows 11 verzió
Itt 7800X3D-t és RX9070-et használtak:
-
X2N
őstag
Kedvenc indiai youtuberünk mondta nemrég egy Windows-os videójában a múltkor(ez a 12% eléggé megmaradt), el tudom képzelni, le kellene tényleg tesztelni, de nem csak a WIN10-11-et hanem esetlegesen egy Win10 LTSC-t is, nálam is hasonló, ReviOS megy, sokkal jobb mint a gyári. Persze csúcs hardverrel lenne érdemes letesztelni 5090, 9950X3D, beállított ramok. stb.
-
Raymond
titán
Nem lehetne lenyugodni egy picit?
-
gV
őstag
lényeg, hogy hazudsz. ekkor szintén: ezutan tevedtem 5-7% 10 ev tavlatabol nem, nincs 10 év, de ha ezeket mind elnézem neked, akkor ennyi erővel az nV-nek is elnézhetem, hogy 4x MFG-vel van meg a 4090 és akkor nincs itt semmi látnivaló, 70-es hozza az előző 90-est. jöhetne tőlem: jacek te meg miről beszélsz?!
ja és ha nem tűnt volna fel a 2080 Ti/3070 állításod nem vitattam. tessék akkor álljon itt: egyetértek. -
Ribi
nagyúr
Paraj módon fogalmazott az biztos. Ha értelmesen megfogalmazza, hogy nincs úgy ahogy mondod akkor nem lenne semmi, csak hogy olyat írsz le ami nem igaz, mert nem néztél utána. Ennyi. Többire meg nem érkezett rá válasz, mert az úgy van ahogy írtad. Nem kell semmit túlgondolni. Paraj módon válaszolt, te meg még parajabbul reagáltál. Kezet foghattok.

És látom ahogy telik az idő kb olyan szinte sikerül alulmúlni mindent is, hogy inkább hagyd abba a vergődést. -
Jacek
veterán
Hunnye ertem tehat a 3070 megveri az elozo csucsot, a 2070 meg 5-7% lassabb.. ebbol nekem nincs igazam , es hazudok
atya isten.. hat a kurva anyamat hogy nem emlekszem 10 evvel ezelotti dolgokra tu pontosan.. ettol meg amit mondtam all, arra termeszetesen nem erkezett valasz 
Az nem baj hogy a 5070 60% lassabb mint az elozo csucs es 30%-al mind az egyel a csucs alatti 80-as..Milyen nyomorult szanalmas gondolkodassal lehet levonni ilyen kovetkeztetest?
Ez felre irasnakntunik? "a 30-as 70-es megverte a 20-as tetejét" ezutan tevedtem 5-7% 10 ev tavlatabol

Ilyen dagvany fanboy gondolkodast vazze.
egyes embereknek lappattal lehet letolni a szart a torkan es csillogo szemmel nezik. -
PuMbA
titán
Nem láttam mostanában olyan friss tesztet, ahol lassabb a Windows 11. Ez egy 7 hónappal ezelőtti teszt és igazából picit gyorsabb a 11: Windows 10 vs Windows 11 - Is Windows 10 REALLY faster??

-
Ribi
nagyúr
Te írtad, hogy a 30-as 70-es megverte a 20-as tetejét, "ugy ahogy az elod 70-es az elozo csucsot". Itt lehetett arra gondolni, hogy akkor a 2070 verte meg a 10 tetejét. Amire a linkelt kép, hiszen 20-30-as elődjénél ezeknél korábbiakról kell legyen szó. Ehhez képest te 20-30-as utániakat hozol fel. Akkor most félreírtad vagy mi történt?
#50747X2N: Ezt mi alapján írod? Mármint hogy lassabb.
Volt erről pár teszt, de azt hiszem azóta ezt javították. -
Jacek
veterán
Es akkor.. ja a ket generacioval elotti csucsot sem eri el
a 4080-at sem tudja meg megkozeliteni sem nemhogy a 90-et..
-
Busterftw
nagyúr
3070-2080ti-nel is inkabb egalrol lehet beszelni, nem "megveresrol"..
Es itt is pont azert, mert a node ugras ezt megengedte.Nem lehet ignoralni azt a tenyt, hogy Ada-Blackwell kb ugyanaz. Amit a custom performance node (N4P) adott nagyobb TDP-vel, annyi a kulonbseg. (+15%).
De ugye a fizika meg a tenyek = bullshit. -
Jacek
veterán
Megverte? Megverte.. minden mas bullshit..
-
Busterftw
nagyúr
"3070 megutotte a 2080Ti ugy ahogy az elod 70-es az elozo csucsot, most az 5080 sem tudja megszagolni az elozo csucsot."
Ott volt egy eleg nagy node ugras am. 8N vs 12nm, amik kb javitott" 10nm es 16nm nodek, plusz arch.Ada es Blackwell eseteben a node kb nem valtozott. N5 (N4 es N4P)
-
Jacek
veterán
válasz
Callisto
#50738
üzenetére
Most raneztem TPU 1080P-13%, 1440P-17%, 4k-21% biztos nem er dupla arat, de mint mondtam ettol meg az 5090-et is megveszik 5x aron

Csak ez a gen az NV-nel botrany arazasban es teljesitmenyben.
3070 megutotte a 2080Ti ugy ahogy az elod 70-es az elozo csucsot, most az 5080 sem tudja megszagolni az elozo csucsot.
De most super szeria helyett lesz 6x frame gen, gondolom a kovetkezo gennel jon a 8x
-
4K-n azért 20%-35%. Ára sem 100% plusz volt. Egyébként a jó isten sem igazodik ki rajta, mert láttam olyan tesztet is ahol 1x játék átlaga alapján 35% előny volt, de láttam olyant is ahol másik X játék átlaga alapján csak 15%

Megnézem nyújt-e többet annyival ami nekem megéri. A Nitro+ 9070XT elvan a dobozában addig is. -
Ma hazahoztam egy GB Gaming OC 5080-at. Kapcsolom be a gépet DDU-hoz és az első amit az Adrenalin feldobott, hogy nagyon megköszönnék ha kitöltenék egy kérdőívet, hogy felmérjék hogyan tudnának javítani. Micsoda véletlen egybeesés

A szabadszöveges mezőbe beírtam:
Nem támogatják a 7900XTX-et (FSR4). Ezért lecseréltem 9070XT-re, majd jött a Redstone, majd a CES ahol a consumer-ek semmit se kaptak. Ma vettem egy 5080-at. Good Bye!Persze aztán majd kiderül, hogy személyes tapasztalatok alapján 4K-n mennyire fogom a 9070XT-hez képest a jóval magasabb árat elviselni
Azt tudom, hogy az Adrenalin köröket ver az Nvidia app-ra stb., de ez legyen a legkisebb bajom -
Abu85
HÁZIGAZDA
válasz
szarnyasdino
#50734
üzenetére
Kérdeztem a PC-gyártókat erről, de azt mondta nekik az Intel, hogy nem lesz. Eredetileg gondolkodtak rajta, de a mobil piacra is nagyon kevés Panther Lake fog készülni, asztalra nem maradna semmi.
-
szarnyasdino
junior tag
[Intel Core Ultra X9 388H "Panther Lake" iGPU Doubles AMD "Strix Point" Performance in Cyberpunk 2077]
Asztali fronton durva lenne egy ilyen
De kb álom 
-
-
Alogonomus
őstag
Mivel az AI folyamatokat eleinte lényegében kizárólag CUDA környezetben próbálták kezelni, így az AMD nem is lenne alkalmas a feladatra. Illetve csak ilyen ZLUDA típusú alternatív megoldásokkal, amivel viszont az Nvidia rosszallását vívnák ki a kínai fejlesztők. Ezért nem használnak az AI feladatokra AMD hardvert. A nyilvános projektekhez Nvidia, a védett projektekhez pedig esetleg valami kínai belső hardvert.
-
PuMbA
titán
GeForce RTX 5090, 5080, 5070 Ti and even 5060 Ti are now sold in blower-style designs for AI farms
Mindegyik NVIDIA 5000-res modellt használják már AI farmokon a sima 5070 kivételével
Érdekes módon átalakított AMD kártya még mindig nem került elő, bár a GamersNexus felderítő videóban azt mondták, hogy egyáltalán nem érdekli a kínaiakat az AMD. -
bozont
veterán
válasz
huskydog17
#50726
üzenetére
Pont ezért értetlenkedtünk sokan ( én még most sem értek egyet a döntéssel), hiszen egy fsr 3 quality is jobban néz ki mint a native taa és akkor az fsr native aa-ról ne is neszéljünk.
-
huskydog17
addikt
És azóta se sikerült felfogniuk a károgóknak, hogy azok játéktesztek és nem GPU tesztek.
Te is tökéletesen láthatod, még az agyon tömörített YT videókban is, hogy a játékok saját TAA algoritmusa meg sem közelíti a DLSS minőségét, ezt még Crizzpy (WormZ) is meg szokta mutatni. Azért őt említem, mert többször írtad, hogy őt szoktad nézni.
Emiatt nem mindegy, hogy egy játékban TAA-t vagy DLSS-t használsz, mert a DLSS jóval alcsonyabb input felbontással is sokkal szebb képet ad, mint a TAA magasabb felbontáson, ez tény, ezt te is milliószor elismerted, szóval számodra is logikusnak kellene tűnjön a CB lépése.
A GPU tesztek továbbra is azonos render felbontáson történnek. -
-
PuMbA
titán
válasz
Busterftw
#50723
üzenetére
Behozhatjuk a képminőséget a vitába, de ez ingoványos talaj
Nagy felháborodás volt a ComputerBase-nél vagy talán a PCGamesHardware-nél is amikor a régebbi kártyákon a natív TAA-s sebességet rakták egy grafikonra RDNA4-en az FSR4-esével és NVIDIA-kon a DLSS-ével Balanced módban, merthogy képminőségben így fer a sebesség összehasonlítás. Azóta szerintem senki sem próbált meg így tesztelni. -
Raymond
titán
válasz
Raymond
#50720
üzenetére
Pardon, 1.33ms...
De azt hiszem a lenyeg ott van hogy a Preset M a Performance-hez van, tehat az az 1.33ms is 1280x720 -> 2560x1440 felskalazasra ertento nem a Quality 1707x960 felbontasara.
A Developer Guide-bol:
- Preset K: Default preset for DLAA/Balanced/Quality modes. Less expensive performance wise compared to Preset L.
- Preset L: Default preset for UltraPerformance mode. Delivers a sharper, more stable image with less ghosting than Preset J, K but are more expensive performance wise. Preset L is peak performant on RTX 40 series GPUs and above.
- Preset M: Default preset for Performance mode. Delivers similar image quality improvements as Preset L but closer in speed to Presets J, K. Preset M is peak performant on RTX 40 series GPUs and above.
Tehat DLSS Quality Preset K es a DLSS Quality Preset M osszehasnlitasnak nincs ertelme a sebesseg szempontjabol, csak a kepminoseg szempontjabol van ertelme. Mondjuk DLSS Performance Preset K vs Preset M lenne az erdekes.
Szerk: a CB azt tesztelte amit kell - 4K DLSS Performance K vs M [link] Az 50-es es 40-es sorozat 4-5%-al lassabb a 30-as es 20-as pedig 12-13%-al.
-
Raymond
titán
Szerintem valami nincs rendben vagy a HUG tesztekkel vagy az override implementacioval mert a HUB-os eredmenyeknek keves ertelme van ha az 5070 es 4080S szamokat nezem. Eleve az hogy ket csoportra osztodnak a jatekok gyanus. Vagy semmi gond vagy lassabb/ugyanaz az FPS mint nativ. Az 5070-nel a Preset K a tesztelt 1440p felbontason 1.38ms fix koltseg. Az hogy a jatek 3.686 MPix (2560x1440) felbontason ugyanannyi FPS-t hoz mint 1.639 Mpix (1707x960) felbontason amire ramegy plusz 1.38ms nem all ossze. The math ain't mathing.
-
PuMbA
titán
válasz
huskydog17
#50718
üzenetére
"DLSS 3.0 hozta a FG-t, DLSS 3.5 hozta a RR-t, a 4.0 hozta a Transformer modellt és MFG-t."
DLSS 3-hoz tartozott Super Resolution is tudtommal, nem csak FG, ahogy a 3.5-tel is frissült a Super Resolution az RR mellett. Tehát ezek egy csomagok voltak tudtommal. Nem így van?
"Nem, nem bonyolult és főleg NEM kell a usereknek átállítani az NV app-ban semmit,"
Tudtommal de, ha az eddigi működést és sebesség előnyt akarja megkapni a user egy RTX20-as vagy 30-as kártyával, de javíts ki ha tévedek. Ha beimplementálják a játékokba a DLSS 4.5-öt, akkor ott a DLSS 4.5 modellje lesz az alapértelmezett, tehát az M. A gyorsabb K modell a DLSS 4 modellje.
-
huskydog17
addikt
"Futtatni bírja, de sebességben nem bírja el, mert kisebb felbontást számol, mégis lassul, így értettem"
Ez is marhaság. Még az általad linkelt teszt is megcáfol téged, ott is jó látszik, hogy számos játékban jó a sebesség. A felbontás pedig az lesz, amit beállítasz, nincs olyan, hogy kisebb felbontásban számol, csak akkor, ha úgy állítod be. Azért lassul, mert nincs FP8 támogatás Turing és Ampere szériákban.
"Most az NVIDIA ugyanúgy eldarabozza a megjelenést, ahogy az AMD szokta, tehát először a DLSS 4.5 Super Resolution része jelenik meg, aztán majd jön a DLSS 4.5 többi része. Erre értettem."
Eddig is így volt, most valamiért úgy csinálsz, mintha eddig nem így lett volna. DLSS 3.0 hozta a FG-t, DLSS 3.5 hozta a RR-t, a 4.0 hozta a Transformer modellt és MFG-t.
A különbség annyi, hogy az NV-nek már van sok játékban RR és MFG is, míg AMD-nek nincs, így semmilyen szempontból nincs értelme annak, amit írtál."Nem, szerintem feleslegesen bonyolult és hogy ezt a usernek kell állítani az NVIDIA App-ban manuálisan. Te supportáltál már IT vonalon ügyfeleket? Képben vagy, hogy miket nem értenek meg egyszeri felhasználók? Ennél tízszer egyszerűbb dolgokkal gondban vannak."
Nem, nem bonyolult és főleg NEM kell a usereknek átállítani az NV app-ban semmit, ha nem akar, nem kötelező, ahogy az NV app-ot még csak telepíteni sem kötelező. A userek többsége azt sem tudja, mi az, hogy felbontás, csak elenyésző többségük foglalkozik felskálázással manuálisan.
Igen, 15 éve vagyok IT support-ban (szerencsére nem Helpdesk-en), de ennek most az égvilágon semmi köze az egészhez. Te most valóban az NV IT supportjáért aggódsz, hogy nekik túl sok melójuk lesz emiatt? Ez most komoly?
Tehát inkább vágjuk el sok millió felhasználótól a DLSS 4.5 lehetőséget, mert az NV IT supportnak szerinted túl sok dolga lesz emiatt, mert néhány usernek túl bonyolult a +2?
Szerintem az NV sokkal jobban tudja nálad, hogy a supportnak mi okoz gondot és mi nem és hogy mennyire okozna ez gondot nekik.#50719: Sajnos nem tudom értelmezni amt írtál. Ki milyen működést akar megkapni?
"Ha beimplementálják a játékokba a DLSS 4.5-öt, akkor ott a DLSS 4.5 modellje lesz az alapértelmezett, tehát az M. A gyorsabb K modell a DLSS 4 modellje."Ha beimplementálják a játékokba a DLSS 4.5-öt, akkor ott a DLSS 4.5 modellje lesz az alapértelmezett, tehát az M. A gyorsabb K modell a DLSS 4 modellje.
Igen, akkor mégsem olyan bonyolult, megértetted. Akkor mi itt a bonyolult?
-
PuMbA
titán
válasz
huskydog17
#50714
üzenetére
"Megint nem bírják? Egy kommentedben saját magadnak mondasz ellent. Döntsd már el!"
Futtatni bírja, de sebességben nem bírja el, mert kisebb felbontást számol, mégis lassul, így értettem

"Az meg, hogy "NVIDIA is átmegy AMD-be lassan" szintén egy nagy marhaság."
Most az NVIDIA ugyanúgy eldarabozza a megjelenést, ahogy az AMD szokta, tehát először a DLSS 4.5 Super Resolution része jelenik meg, aztán majd jön a DLSS 4.5 többi része. Erre értettem.
"DLSS 4.0 = Preset K (DLAA, Quality és Balanced módhoz ajánlott)
DLSS 4.5 = Preset M (Performance módhoz ajánlott), L (Ultra Performance módhoz ajánlott)
Szerintem ezt még egy értelmes kisiskolás is képes felfogni, főleg mert kiválóan van dokumentálva és kommunikálva, hogy melyik micsoda és mire jó."Nem, szerintem feleslegesen bonyolult és hogy ezt a usernek kell állítani az NVIDIA App-ban manuálisan. Te supportáltál már IT vonalon ügyfeleket? Képben vagy, hogy miket nem értenek meg egyszeri felhasználók? Ennél tízszer egyszerűbb dolgokkal gondban vannak.
-
huskydog17
addikt
"Nem állítottam, hogy nem bírja."
???

Pedig de, szó szerint ezt írtad, ki is másoltam. Nem értem miért tagadod a saját kommentedet na mindegy.
"Pont ezt írtam, hogy ezeket a legújabb preseteket nem ajánlja az NVIDIA a régi kártyákra a jelentős sebességdeficit miatt, mert nem bírják."
Megint nem bírják? Egy kommentedben saját magadnak mondasz ellent. Döntsd már el!
Sehol nem írt olyat az NV, hogy nem ajánlják a DLSS 4.5 használatát Turing és Ampere-hez, csak annyit írtak, hogy jóval nagyobb a sebességdeficit, mint Ada és Blackwell esetén. Az NV továbbá performance és Ultra Performance módhoz ajánlja a 4.5-öt, de ettől el lehet térni, mindenki úgy használja ahogy akarja.#506691:
"zWormZ Gaming csinált RDR2-vel tesztet tegnap és újra kellett csinálnia, mert nem működött a DLSS4.5
Ugyanígy Testing Games csatorna, MxBenchmarkGaming stb. le sincs írva, hogy milyen profillal tesztelnek."Attól, hogy néhány videós túl hülye vagy túl lusta, hogy utána nézzen a faék egyszerű dolgoknak, illetve túl lusták fontos infókat megadni, az a legkisebb mértékben sem az NV sara. Amúgy Crizzpy (WormZ) csatornáját én is rendszeresen nézem, ő nem teszteket csinál hanem inkább szubjektív élménybeszámolókat, az RDR-2nél ő nézte mbe a dolgokat, amit el is ismert a javított videóban. Érdemes nála az Oblivion Remastered videót is megnézni a témában, ha már szoktad őt nézni, ugyanis ott jóval nagyobb különbséget ad a 4.5, mert eltünteti a ghostingot a kardnál.
Az meg, hogy "NVIDIA is átmegy AMD-be lassan" szintén egy nagy marhaság. Ez akkor lenne igaz, ha a DLSS 4.5 csak és kizárólag Blackwell-en működne, mármint minden modulja, pont úgy, mint ahogy az FSR Redstone RDNA4 exkluzív lett.
Ezzel ellentétben az NV a 7 éves GPU-kat is támogatja, illetve ezekhez a régi GPU-khoz is odaadja a piac legjobb felskálázóját.
Szóval nem, az NV egyáltalán nem megy át AMD-be, épp ellenkezőleg, az NV mutatja meg hogyan kell példaértékű, hosszútávú supportot adni.#50698:
Mindössze annyi változás történt, hogy bejött két új preset, semmi több, amelyek ráadásul egyértelműen ki lettek kommunikálva, hogy mire jók és mihez ajánlottak.
Minden más úgy maradt, ahogy volt. Eddig nem volt túl bonyolult, de a +2 preset már túl bonyolult? Ne nevettess már!
Ha mondjuk bejönne egyszerre több tucat preset és egyikhez se lenne az égvilágon semmilyen infó az NV részéről, hanem csak úgy megjelennének az NV App-ban, akkor talán lehetne azt mondani, hogy esetleg túl sok és kaotikus, de jelenleg úgy néz ki, hogyDLSS 4.0 = Preset K (DLAA, Quality és Balanced módhoz ajánlott)
DLSS 4.5 = Preset M (Performance módhoz ajánlott), L (Ultra Performance módhoz ajánlott)Szerintem ezt még egy értelmes kisiskolás is képes felfogni, főleg mert kiválóan van dokumentálva és kommunikálva, hogy melyik micsoda és mire jó. Akinek ez a végtelenül egyszerű dolog gondot okoz, annál valami más egyéb súlyos gondok vannak.
Az AMD-nél egyébként ugyanez van, csak sokkal szűkebb hardveres támogatással: ott egy játék Redstone kompatibilisnek számít, ha az egész Redstone csomagból csak egy feature-t támogat, akkor is Redstone játék, ha kizárólag egy FSR 3.1 felskálázás van benne, ott is eltérnek a különböző modulok verziószámai. Náluk a Denosier és a RR az első generációnál tart. Ott nem nem kavarnak össze?#50703:
Ez a teszt tökéletesen igazolja, amit már írtam is, hogy Ampere és Turing kártyákon is gond nélkül lehet használni a 4.5-öt , a kijelentéseiddel ellentétben gond nélkül meg tudnak birkózni vele (ez nyilván játék- és beállításfüggő dolog). Még a 7,5 éves 2080Ti is hozza átlagosan a 60 fps-t 1440p Ultra-n M presettel. Nem látok problémát.#50705:
"Az lemaradt, hogy Steve a videó végén megemlítette, amit én is írtam tegnap, hogy a DLSS az egyre több opcióval kezd bonyolulttá és nehezebben következővé válni, hogy a főként régebbi kártya felhasználóknak manuálisan kell presetet állítaniuk, ha maradnának a K profilnál."HUB Steve-nek minden rossz, amit az NV csinál, ezt már rég megszokhattuk. Az, hogy neki is gondot okoz a +2 jól dokumentált preset érkezése, az legfeljebb az ő szellemi problémája, amiről az NV megint csak nem tehet. Ez sokadszorra megerősíti bennem, hogy ne nézzem az ő videóit.

#50707:
"Én csinálnék egy automatizmust vagy egy egyszerű felületet, plusz beállítást (sebesség vagy képminőség) erre az NVIDIA helyében, hogy alapértelmezetten a régi kártyák maradjanak úgy, ahogy voltak és elhúzhatják a csúszkát, aminél leírják, hogy képminőséget kapsz, de a sebesség nem nőni, hanem esni fog."Van ilyen, úgy hívják: NV App
-
PuMbA
titán
válasz
Busterftw
#50711
üzenetére
Attól, hogy megértek dolgokat még nem szeretem a bonyolultságot
Programozóként is nagy feladat, hogy úgy csináljunk / csináljak meg valamit, hogy a lehető legegyszerűbb legyen a felhasználónak és magunknak is megérteni, hogy aztán a karbantartás is minél kevesebb időbe kerüljön. Könnyen át lehet esni a túloldalra és elveszni a komplexitásban."A sebesseg hitet pedig el kell engedni, ahogy HUB is mondta ez kepminoseg nelkul sokat nem jelent."
Jaja, csak azért említettem meg, mert ugye a felskálázókat mindig is úgy reklámozták és az volt a cél, hogy növelje a sebességet és például ellensúlyozza a teljesítményigényes RT-t. Most igazából fordult a kocka, mert itt már nem csak erről van szó, hanem jóval szerteágazóbb dolgokról. Nekem úgy tűnik mintha az NVIDIA a DLSS Super Resolution helyett a Frame Generation-ra rakja át a sebesség javulás "ígéretét".
-
Busterftw
nagyúr
Nekunk? 3 napja arrol beszelsz neked ez milyen bonyolult, pedig nem az, meg a fejlesztoknek is egyszeru az ajanlas.
A sebesseg hitet pedig el kell engedni, ahogy HUB is mondta ez kepminoseg nelkul sokat nem jelent. A jobb kepminoseget ado modell miatt mehet a balanced/performance mode, igy nem kell lemondani semmirol sem.
-
PuMbA
titán
válasz
Busterftw
#50706
üzenetére
"A valasztas adott, hatalmas + pont."
Nekünk hozzáértőknek igen, a felhasználók nagy részének nem biztos, mert nekik plusz melót és utánajárást igényel. Ő csak ül otthon az RTX3060-ával és azt látja, hogy csökkent az fps-e az eddig fps növelő DLSS-sel. Én csinálnék egy automatizmust vagy egy egyszerű felületet, plusz beállítást (sebesség vagy képminőség) erre az NVIDIA helyében, hogy alapértelmezetten a régi kártyák maradjanak úgy, ahogy voltak és elhúzhatják a csúszkát, aminél leírják, hogy képminőséget kapsz, de a sebesség nem nőni, hanem esni fog.
-
PuMbA
titán
Az lemaradt, hogy Steve a videó végén megemlítette, amit én is írtam tegnap, hogy a DLSS az egyre több opcióval kezd bonyolulttá és nehezebben következővé válni, hogy a főként régebbi kártya felhasználóknak manuálisan kell presetet állítaniuk, ha maradnának a K profilnál. Sokan azt se tudják, hogy létezik ilyen, akik nem PC-s szakik.
Talán ezért van az, hogy az AMD vonakodik kiadni az FSR4-et régebbi kártyákra, mert megszűnne az egyszerűség. Tök jó lenne ott lenni egy megbeszélésen, hogy náluk mi a helyzet, hiszen a modell készen van, kiszivárgott.
-
DudeHUN
őstag
válasz
Callisto
#50702
üzenetére
Lehet csak én vagyok, viszont DLSS4 óta 1440p renderrel nyomnék mindent Nvidia kártya esetén 4K kijelzőn. 4K output, Quality DLSS. A 4K+TAA-nál kategóriákkal jobb az esetek 90+ százalékában. A DLAA natívhoz ekkora felbontásban meg nem éri meg imho, szinte csak 5090 mellett.
TAA lejebb meg főleg mosottas. Szvsz még 1440p kijelző esetén is szebb a Quality DLSS, sőt 1080p estén is annyire hulladék tud lenni a TAA. Ha meg van kakó a DLAA-ra akkor ofc az. De Nvidia kártyával (tiertől függően) szvsz 4K és 1440p kijelzőn a Quality DLSS a legjobb választás túlnyomórészt a 4.0 óta. -
PuMbA
titán
DLSS 4.5 vs DLSS 4 Performance, There's Good News & Bad News
Teljesítmény igényes lett a DLSS 4.5 Super Resolution. Még RTX5070-en is több esetben alig ad sebesség növekedést a Quality mód, szóval az NVIDIA a sebességet jobb képminőségre cserélte ebben a verzióban.

Nagyon kíváncsi leszek, hogy mi lesz a sebességgel, ha még erre rákapcsolják a Ray Reconstruction-t vagy a Frame Generation-t, de lehet, hogy az NVIDIA arra megy, hogy most már inkább használjanak az emberek Balanced vagy Performance DLSS módot.
-
9070XT-t van most a gépben megint. Azóta eldöntöttem, hogy az 5070 Ti nem kell. PT/RT és dinamikus FG miatt váltanék maximum. Ha váltanék, akkor erősebb kéne a 4K miatt.
Egy 5080 azért 4K-n már 20-25%-ot is tud hozni sok esetben és OC is jobb kicsit ami későbbre adhat erőtartalékot. (Csendes működést előnyben részesítem amíg csak lehet.)
Tisztában vagyok vele, hogy talán még így sem éri meg főleg, de az a rohadt 5080 nagyon úgy van belőve, hogy pont az a plusz hiányzik 4K-n a natív 60 FPS-hez (natív vagy DLAA-val). Tudom DLSS, de hagyjuk. FSR/DLSS maximum végső esetben.
Ha mégis kell felskálázás egyes játkoknál (PT/RT), akkor is több a tartalék benne és jóval több játék lépi át 5080-al a számomra bűvös 60FPS-t 4K-n.
Nem tudom véletlen-e vagy szándékos, de az 5080 éppen azokat célozza meg szerintem akik hajlandóak kifizetni az irrelális árkülönbözetet a 4K miatt.
5090-eket is nézegetem, de arról azt gondlom pénzkidobás lenne. Egyrészt következő gen nem tudni mit fog okozni árakban, mennyivel lesz jobb. Másrészt amikor lejár a gari ember nem fog eladni annyi pénzért gari nélkül egy cseszett PC alkatrészt. Maximum óriási veszteséggel.
Nehéz döntés, hogy használjam a 9070XT-t az új gen megjelenéséig (2027H2 jelenlegi pletykák szerint) vagy inkább 5080 a több erőtartalék miatt mielőtt valóban felmennek nagyon az árak.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Kerékpárosok, bringások ide!
- Alaposan helyretette az AI ellenzőit az NVIDIA vezetője
- PlayStation 5
- Milyen billentyűzetet vegyek?
- GTA V
- TCL LCD és LED TV-k
- gban: Ingyen kellene, de tegnapra
- Luck Dragon: Asszociációs játék. :)
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Milyen autót vegyek?
- További aktív témák...
- BESZÁMÍTÁS! Sapphire B650M R7 8700F 32GB DDR5 1TB SSD RX 6800 16GB Zalman Z1 PLUS Seasonic 750W
- Motorola Moto G72 128GB,Újszerű,Dobozaval,12 hónap garanciával
- BESZÁMÍTÁS! HP Elitebook 745 G6 14 üzleti notebook - R5 3500U 16GB DDR4 256GB SSD Vega 8 IGP WIN11
- Honor 200 Lite 256GB, Kártyafüggetlen, 1 Év Garanciával
- Xiaomi Redmi 14C / 4/128GB / Kártyafüggetlen / 12Hó Garancia
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest








3070 megutotte a 2080Ti ugy ahogy az elod 70-es az elozo csucsot, most az 5080 sem tudja megszagolni az elozo csucsot.
De kb álom 




