Hirdetés
-
Termékoldal buktatta le a Huawei Watch Fit 3-at
ma Az új aktivitáskövető rendkívül hasonlít egy Apple Watch-ra, de a funkcionalitás és az ár nyilván nem.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
-
Az átlagnál vaskosabb ventilátorok kandikáltak ki a Corsair vitorlája mögül
ph Az amerikai cég legfrissebb szériája kétféle méretben választható, és fél évtizedes jótállással kecsegteti leendő gazdáit.
Új hozzászólás Aktív témák
-
Csokifalo
aktív tag
ha viszont az lesz amit írtál, tehát ezen a képen, akkor viszont először lesz drágább egy radeon mint egy nvidia ugyanazon a szinten noha kevesebbet fog tudni
3070 > 6800 XT
Mert az tény, hogy a mostani tesztek a jelen, nem az érkező játékokat nézik, és úgy veri el a radeon az nvidiát, vagy legalább is fej-fej -
edward2
addikt
Drágább a 6800 mint a 3070 erre rasterben picit jobb RTben meg sokkal rosszabb. A 6800nak a bejelentés óta mondom, hogy $499ről kellett volna indulnia. És még akkor se azt kéne venni.
az XT meg olyan, hogy picit olcsóbb picit gyengébb mint a 3080 (RTben sokkal gyengébb de jó valakit nem érdekel) akkor most AMD fanként van egy jó kártyád ami hoz végre nvidia felső kategóriás sebességet. (ennek ellenére ezt se venném meg)
Az jó, hogy az AMD felkapaszkodott.
-
Alogonomus
őstag
"abszolut ertelemben szinte total ugyanazt tudja az nv es amd hasonlo fogyasztas mellett - csak az nv kartyak hatekonysagat vhol bealdoztak a par szazalek pluszert. szvsz inkabb ott utkozik ki a skalazodasi (gyartasi?) problema."
Palit RTX 3070 5%-kal kedvezőbb fogyasztás mellett 10%-kal gyengébben teljesít, míg az Asus RTX 3070 5%-kal magasabb fogyasztás esetén is elmarad még 8%-kal az RX 6800 mögött. Ez hol "totál ugyanazt tudja"?
-
2xar
tag
Ha lesz konzolon RT és azt áthozzák PC-re, az egész biztosan nem 30-50% teljesítmény-visszaesést fog okozni, jobb, hatékonyabb megvalósítás lesz már. De a jelenleg elérhetőnek (abban az egy kézen megszámolható játékban) semmi értelme kb.
#181 torma1981: Már hogyne lenne?
#183 Nagynozi: Sztem is jó. De le fogja váltani egy legalább olyan jó, szabványos megoldás a DirectX-be építve. És amíg ez a váltás meg nem történik, addig nem is fog széles körben elterjedni ez a megoldás.
[ Szerkesztve ]
-
Alogonomus
őstag
Az a terelés, hogy egyik kártya sem 270 watton üzemel alapból. RX 6800 XT nagyjából 300 wattot eszik, míg az RTX 3080 nagyjából 330 wattot. Mármint az alapkártyák mindenféle tuning nélkül.
Mesterségesen le lehet korlátozni a kártyákat 270 wattra, és akkor esetleg valóban közel hozhatóak egymáshoz az eredmények, de az akkor már nem a boltban "kapható" kártyák teljesítményét mutatja, hanem egy mesterségesen létrehozott állapotot szimulál. Autót sem úgy tesztelnek, hogy azonos fogyasztásra bekorlátozzák mindkettőt.
Out-of-the-box az RX 6800 XT 10%-kal alacsonyabb fogyasztás mellett 1080p esetén átlagosan 5%-kal az RTX 3080 előtt van, 1440p esetén éppen csak megelőzi, míg 4k esetén 5%-kal elmarad az RTX 3080-tól. Vagyis az igaz, hogy teljesítményben egálban vannak, de fogyasztásban határozottan nem. Ezért ütötte meg a szememet a "szinte total ugyanazt tudja az nv es amd hasonlo fogyasztas mellett" Hasonló fogyasztás az 1-2% különbség, nem 10%. -
Anaren91
senior tag
Ha nem jött volna le az írásomból, próbáltam a kollégának a saját stílusában rámutatni pont arra amit te is írsz. Minden terméknél lehet kiragadni negatív pédát, de az összképet kell nézni, nem egy egy tesztet kiragadni.
MSI B450 Tomahawk Max, Ryzen 7 5800x3d, PowerColor 6700XT Hellhound,64 Gb 3600Mhz CL18
-
addikt
Így van, az Nvidiánál a DLSS egy killer feature jelenleg. Bár ami nekem nem tetszik benne, hogy csak előre meghatározott felbontásokon működik, amire tréningelt az AI. Például ha én az én monitoromhoz 3440x1440-es opciót akarnék kiválasztani, olyan nincs a listában.
Kíváncsi leszek hogy az AMD Fidelity FX megoldása mennyire lesz flexibilisebb.
Közben redditen rátaláltam erre az Nvidia bejegyzésre és azt írják, hogy a DLSS 1.0-nál még nem volt támogatott, viszont a DLSS 2.0-nál már figyelmet fordítottak az ultrawide támogatásra is, amiért nagy GG jár az Nvidiának! Hmmm lehet mégis Nvidiám lesz, meglátjuk.
[ Szerkesztve ]
Nexus 5x > Pixel 4a 5G \\ AMD Ryzen 5800X3D - Gainward RTX 3070 Phoenix \\ Asus Zenbook 14 Oled UM3402YA \\ Playstation 5 \\ DJI Mavic Mini \\ Nintendo Switch Neon v2 \\ Steelseries Arctis Nova 7 \\ Steam/Origin/Epic Games Store/GoG/Ubi Connect: Hopkins955
-
Kansas
addikt
De, ugyanaz. Nem működésében, hanem az általa elért hatásban.
Legalább is nem látok tesztet ami ezt cáfolná...A DLSS az egy "okosított" részleges SuperSampling. Nem kell túlmisztifikálni.
Az, hogy csak a natív felbontás ellen tesztelik az esetek 99,9%-ában, nem segít a megértésében, igenis tesztelni kellene a mezítlábas megoldás ellen is.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Az "AI" ahhoz kell, hogy előre föl tudjanak állítani egy profilt, hogy melyik jelenetben melyik részre milyen és mekkora AA illetve élesítés kell a minimális fps-veszteséghez maximális minőség mellett.
A fő különbség az, hogy egy statikus skálázás+AA+élesítés a képernyő minden pixelén ugyanazt csinálja, a DLSS meg ahol tud, spórol, ahol meg kell, erősebben "fog".Ezért kellene némi teszt, mert addig, míg direktben össze nincsenek hasonlítva, ez egy elméleti vita, csak épp semmi garancia nincs rá, hogy egy ilyen teszt nem rántaná ki a DLSS alól a misztikumot...
Ez már majdnem jó, csak nem igazán van kiértékelve... DF ezzel is foglalkozhatna, a konzolok mellett... ja, foglalkozik is...[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Igazából nem annyira a látvány a lényeg, legalább is a DF videónál, sokkal inkább a mellékelt magyarázat. Pl abból lehet megtudni, hogy az ott látott DLSS megoldás nem is használja a Tensor-magokat...
A YT videókat én nem szoktam komolyan venni mint forrásokat, a YT saját tömörítése és egyéb utófeldolgozásai miatt - tehát nem biztos, hogy az látszik rajta úgy ami ahogy az eredeti monitoron.
Valóban voltak különbségek a DLSS javára, de a másik oldal nem a VGA driver/monitor skálázását használta, hanem a játékét pl. a Control esetében. Erre írtam, hogy ez már majdnem az amire gondoltam.Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Mármint a DLSS nem tetszik, vagy az "internal scaling"-et próbáltad?
Én sajnos nem tudom pillanatnyilag kipróbálni, mert egyrészt AMD VGA-m van(tehát DLSS nem játszik), másrészt 1080p-s monitorom, és annál nem akarnék, de nem is volna értelme lejjebb menni felbontásban(plusz 27"-on nagyon rusnya lenne).
Holnap elvileg meghozzák az új 4K monitorom, azon majd alighanem szükségem is lesz pár játékot "okosított" beállításokkal tolni, mert azért az 5700XT nem kompromisszummentes az új játékokban 4K felbontás mellett(és 2 monitorral) - azért remélem, hogy pár régebbi játék(pl. Skyrim, X-Com, régebbi AC-k, Witcher, Transport Fever) elfogadhatóan megy majd natív 4K-ban is.[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Hát, nem tudom, én nem azért veszek 4K kijelzőt, hogy 1440p-s tartalmat nézegessek rajta...
Ízlések és pofonok...Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Nem csak ez a kérdés... hanem mondjuk hogy akkor miért ne vegyek pl. egy 28"-os 60Hz-s 4K monitor helyett egy 27"-os 144Hz-s 1440p-t kb azonos árban? A sebességet úgy is megkapnám...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Nyilván én sem, meg ugye a Radeonommal nekem a DLSS nem húsba vágó kérdés.
Ezzel együtt engem nem győztek meg eddig ezek az erőltetett "AI"-s technológiák, se a natív felbontáson hajtáshoz, se a lejjebb vett felbontáshoz képest.
Tegyük fel, hogy a 4K monitor adott, tehát játékokon kívül nincs különbség... még mindig várok egy olyan összehasonlító teszt elkészültére, ami megmutatja nekem, hogy a DLSS láthatóan jobb eredményt ad annál(kinézetre és/vagy fps-re), mintha egyszerűen levenném a felbontást 1440p-re(vagy 1800p-re, vagy 1080p-re, stb., ízlés szerint) és ráeresztenék némi könnyed AA-t meg élesítő filtert. Utóbbinak megvan az az előnye, hogy bármely játék esetén megtehetem, mivel semmiféle extra támogatást nem igényel a VGA-gyártó, a játékfejlesztő vagy az AI-betanító részéről(utóbbi nincs is a képletben), maximum az élesítő filter esetében.Egyelőre csak a marketing-értéket látom mögöttük, a buzzwork-ökkel(pl. machine-learning, AI)...
[ Szerkesztve ]
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Bizonyíték kell, nem ígéret
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Darmol
senior tag
Én is tudom, de válaszként ment. Ha már trollkodunk, akkor trollkodjunk.
Bár nem vagyok benne biztos, hogy érti a lényeget miszerint az AMD legkisebb kártyája közelít az nV tophoz. Függetlenül attól, hogy szerintem nem így van, de ha már trollkodunk akkor trollkodjunk.Aki azt mondja "nem tudom elhinni az igazságot" az naiv. Aki azt mondja "nem akarom tudni az igazságot" az ostoba. Aki azt mondja "az igazság tilos" az gonosz. Aki azt mondja "én határozom meg az igazságot" az beteg.
Új hozzászólás Aktív témák
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Gumi és felni topik
- Android alkalmazások - szoftver kibeszélő topik
- Episodes from Liberty city
- Azonnali notebookos kérdések órája
- PlayStation 1 / 2
- Nyaralás topik
- Víz- gáz- és fűtésszerelés
- Xbox tulajok OFF topicja
- További aktív témák...