Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Kansas

    addikt

    válasz Abu85 #24 üzenetére

    Mindegy, GamersNexus és HardwareUnboxed tesztelte a 6800XT-t is, és 4K-ban elmarad a 3080-tól, míg a kisebb felbontásokokn magabiztosan veri - gondolom, ennyit számít, hogy az Ampere szarul skálázódik lefele, az RDNA2 meg az eddig megszokott mértékben.

    Szerintem már az sem rossz, hogy azért van olyan játék amiben a 6800XT a 3090-et is elkapja, és a többiben meg nem marad le vészesen a 3080-tól, az alacsonyabb árával pedig teljesen versenyképes ár/teljesítmény alapon.

    Viszont a végső összehasonlító táblázatokban jobb lenne a 3070-t megadni 100%-nak, ha már az ellen jött a 6800, hogy jobban lehessen látni, jobb-e annyival, amennyivel drágább... papíron, persze...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Gyuri27 #29 üzenetére

    TP-t hagyni kell a francba... nálam már régen leszerepeltek(még a CPU-teszt fiaskó előtt).

    GamersNexus tesztelt SAM-ot is és pár napon belül lesz 5950x tgesztekkel updatelt HardwareUnboxed tesztcsokor is.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz torma1981 #185 üzenetére

    Gyártói oldalon nézd, ott kevesebb marhaságot írnak...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz laposonly11 #420 üzenetére

    A probléma épp az, hogy Quake-színvonalra kellene visszabutítani a grafikát, hogy használható teljesítmény mellett fusson a full RT, épp ezért nem használják az AAA játékok.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Yutani #428 üzenetére

    Ez jelenleg is elérhető, csak állíts be alacsonyabb felbontást a monitoron vagy direktben a játékban, az AMD még azt is engedi beállítani, hogy a VGA vagy a monitor csinálja a felskálázást(ha a monitoron állítod, VGA driverből). Aztán lehet kompenzálni FXAA/TXAA-val vagy MLAA-val kedved szerint, egy kis RIS-sel nyakonöntve... kétlem, hogy látványosan eltérő eredményt kapnál így, és nem kell játék oldali támogatás, csak tán API(DX) oldali a RIS-nek.
    De igen, az AMD is csinál valami DLSS-szerű felbontás-csaló eljárást hamarosan a FidelityFX keretén belül.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Yutani #430 üzenetére

    Amit fentebb leírtam, ahhoz nem kell alkalmazás-oldali támogatás, és már most rendelkezésre áll. Se a DLSS, se az AMD új eljárása nem ad annyival többet szvsz, hogy észrevehető legyen nagyító nélkül, és azokhoz kell gyártói(MS/NV/AMD) és fejlesztői támogatás.
    Őszintén szólva ez az egész Tensor flow meg machine(deep) learning egyelőre nem sokkal több marketing buzzword-nél, kicsit hasonlóan az AMD új "Rage mode"-jához, ami funkcionálisan eddig is elérhető volt, csak most lett új neve és egy saját gombja a driver menüben, az IT analfabétáknak, 2-3% teljesítményért.

    "anélkül az NV a DLSS támogató játékokban behozhatatlanul elhúz"
    Láttál tesztet róla? Én még sehol nem láttam, hogy megnézték volna, mi van akkor, ha a fentieket(felbontás-visszavétel+AA+élesítés) valaki meglépi, mennyivel lesz másabb a sebesség és grafikai minőség a DLSS-hez képest, nem csak abszolút értékben, de a befektetett extra munkát(DLSS tanítás, szerverfarm-fenntartás, fejlesztői támogatás) számításba véve is...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Kansas #432 üzenetére

    A legközelebb ez jutott a fent említett teszt-felálláshoz, és hát nem a DLSS nyer(NV vs. NV):
    It's Over, DLSS is Dead: New Nvidia Sharpening Filter Tested

    OK, ez még a DLSS v1-ről szól, és a DLSS2 ennél azért jobb, kérdés, elegendő mértékben-e? Valamiért senkinek nem akaródzik igazából összehasonlítani a kettőt direktben.

    p.s. ha valaki tud jó tesztet, megköszönöm a linket hozzá...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #434 üzenetére

    De, ugyanaz. Nem működésében, hanem az általa elért hatásban.
    Legalább is nem látok tesztet ami ezt cáfolná...

    A DLSS az egy "okosított" részleges SuperSampling. Nem kell túlmisztifikálni.
    Az, hogy csak a natív felbontás ellen tesztelik az esetek 99,9%-ában, nem segít a megértésében, igenis tesztelni kellene a mezítlábas megoldás ellen is.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #436 üzenetére

    Az "AI" ahhoz kell, hogy előre föl tudjanak állítani egy profilt, hogy melyik jelenetben melyik részre milyen és mekkora AA illetve élesítés kell a minimális fps-veszteséghez maximális minőség mellett.
    A fő különbség az, hogy egy statikus skálázás+AA+élesítés a képernyő minden pixelén ugyanazt csinálja, a DLSS meg ahol tud, spórol, ahol meg kell, erősebben "fog".

    Ezért kellene némi teszt, mert addig, míg direktben össze nincsenek hasonlítva, ez egy elméleti vita, csak épp semmi garancia nincs rá, hogy egy ilyen teszt nem rántaná ki a DLSS alól a misztikumot...
    Ez már majdnem jó, csak nem igazán van kiértékelve... DF ezzel is foglalkozhatna, a konzolok mellett... ja, foglalkozik is...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #439 üzenetére

    Igazából nem annyira a látvány a lényeg, legalább is a DF videónál, sokkal inkább a mellékelt magyarázat. Pl abból lehet megtudni, hogy az ott látott DLSS megoldás nem is használja a Tensor-magokat...
    A YT videókat én nem szoktam komolyan venni mint forrásokat, a YT saját tömörítése és egyéb utófeldolgozásai miatt - tehát nem biztos, hogy az látszik rajta úgy ami ahogy az eredeti monitoron.
    Valóban voltak különbségek a DLSS javára, de a másik oldal nem a VGA driver/monitor skálázását használta, hanem a játékét pl. a Control esetében. Erre írtam, hogy ez már majdnem az amire gondoltam.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #441 üzenetére

    Mármint a DLSS nem tetszik, vagy az "internal scaling"-et próbáltad?

    Én sajnos nem tudom pillanatnyilag kipróbálni, mert egyrészt AMD VGA-m van(tehát DLSS nem játszik), másrészt 1080p-s monitorom, és annál nem akarnék, de nem is volna értelme lejjebb menni felbontásban(plusz 27"-on nagyon rusnya lenne).
    Holnap elvileg meghozzák az új 4K monitorom, azon majd alighanem szükségem is lesz pár játékot "okosított" beállításokkal tolni, mert azért az 5700XT nem kompromisszummentes az új játékokban 4K felbontás mellett(és 2 monitorral) - azért remélem, hogy pár régebbi játék(pl. Skyrim, X-Com, régebbi AC-k, Witcher, Transport Fever) elfogadhatóan megy majd natív 4K-ban is.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #444 üzenetére

    Nézőpont kérdése... mindkét esetben túlnyomó részt abból származik a teljesítmény-növekmény, hogy a natívnál alacsonyabb felbontáson renderel, az összes többi hókuszpókusz csak arra van, hogy ezt a tényt minél inkább elfedje a játékos elől.
    Extrém esetben, ha a monitorba/TV-be beépített felskálázó algoritmus kellően jó eredményt ad, semmi szükség bármi szoftveres/driveres trükközésre a PC oldalán a felbontás visszavételén kívül.

    Milyen Metro teszt? Ki hozta szóba? :F Control-ról volt szó leginkább, nem kis részben azért, mert a többi játékban nem igazán paraméterezhező a DLSS.

    Abban egyetértünk ezek szerint, hogy nem különösebben vagyunk oda ezekért a megoldásokért. :)

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz b. #446 üzenetére

    Azért arra remélem figyeltél, hogy a DLSS-t csak élesítéssel nem lehet kiváltani elméletben sem, kell mellé egy kis terhelésű, tipikusan post-process AA is, sőt, az élesítés igazából csak azért kell, hogy korrigálja az AA által okozott elmosódást...

    "Én a natívban hiszek továbbra is az biztos, maximum a raytracing miatt áldozom fel magam a DLSS / Direct ML oltárán mert a 2070 már - remélem- kevés lesz." - pontosan. Annyi különbséggel, hogy én a RT miatt sem(bár az RX5700XT-n azért ez nem valós probléma ;) ), igaz, nekem nem fontos hogy az fps 60-70 fölött legyen... sőt, mivel a monitor 40-60Hz FreeSync kélpességgel bír, igazából már 45-50 is elég.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz devast #449 üzenetére

    Az nem nagy szám, ha a TAA-nál jobb, a TAA és az FXAA is egy rakás szerencsétlenség.
    A kérdés, hogy az MLAA-nál is jobb-e? Az nem kérdéses, hogy az SSAA-nál gyengébb, viszont az meg annyi erőforrást zabál, hogy nem igazán látni használva manapság...

    Ezzel együtt nem vagyok róla meggyőződve, hogy ez az AI-s vonal a jövő, túl sok ponton szorul támogatásra(GPU HW/driver, játékfejlesztők, MS/NV), gyakorlatilag csak az RT gyalázatos erőforrás-igénye miatt van létjogosultsága, nekem eszembe nem jutna önmagában(RT nélkül) használni...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #451 üzenetére

    Hát, nem tudom, én nem azért veszek 4K kijelzőt, hogy 1440p-s tartalmat nézegessek rajta...
    Ízlések és pofonok...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #453 üzenetére

    Nem csak ez a kérdés... hanem mondjuk hogy akkor miért ne vegyek pl. egy 28"-os 60Hz-s 4K monitor helyett egy 27"-os 144Hz-s 1440p-t kb azonos árban? A sebességet úgy is megkapnám...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #455 üzenetére

    Nyilván én sem, meg ugye a Radeonommal nekem a DLSS nem húsba vágó kérdés.

    Ezzel együtt engem nem győztek meg eddig ezek az erőltetett "AI"-s technológiák, se a natív felbontáson hajtáshoz, se a lejjebb vett felbontáshoz képest.
    Tegyük fel, hogy a 4K monitor adott, tehát játékokon kívül nincs különbség... még mindig várok egy olyan összehasonlító teszt elkészültére, ami megmutatja nekem, hogy a DLSS láthatóan jobb eredményt ad annál(kinézetre és/vagy fps-re), mintha egyszerűen levenném a felbontást 1440p-re(vagy 1800p-re, vagy 1080p-re, stb., ízlés szerint) és ráeresztenék némi könnyed AA-t meg élesítő filtert. Utóbbinak megvan az az előnye, hogy bármely játék esetén megtehetem, mivel semmiféle extra támogatást nem igényel a VGA-gyártó, a játékfejlesztő vagy az AI-betanító részéről(utóbbi nincs is a képletben), maximum az élesítő filter esetében.

    Egyelőre csak a marketing-értéket látom mögöttük, a buzzwork-ökkel(pl. machine-learning, AI)...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz arn #457 üzenetére

    Bizonyíték kell, nem ígéret :D

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz edward2 #547 üzenetére

    Nem igazán... vicces, hogy egyesek azt hiszik, a konzolokban PC-s GPU van, az meg még viccesebb, mikor kategóriákba is akarják sorolni... ezt el kell felejteni.
    Azt kell felfogni, hogy az AAA játékok nagyobb része ma konzolra készül elsődlegesen, PC-re csak portolják. Ebből kifolyólag konzolon is a teljes élményt adja, amit a fejlesztő szeretett volna kihozni belőle.
    Igen, tudom, van modding meg egér/bill. meg magasabb frissítés meg trükközésmentes 4K/8K(pontosabban már nem nagyon van, mert hát DLSS kell), de a lényeg az, hogy a teljes játékélmény megvan konzolon is, a PC-s extrák nem adnak annyival többet, amennyivel erősebb/drágább gép kell hozzájuk, kivéve persze azoknak akik valamelyik ilyen extra hiányára annyira allergiásak, hogy az tönkreteszi nekik a játékélményt(legtöbben pl. 60+ Hz-re).

    Lényeg a lényeg, PS-s kártyát PC-s kártyával van egyáltalán értelme összevetni, a konzolok nagyon máshogy működnek.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz R3laX #552 üzenetére

    Ezt biztos nekem szántad?
    De akkor már válaszolok: mivel a 6800 is a 2080Ti szintje fölött van, az 5700XT pedig kb a 2070Super szintjét kapirgálja, van a kettő közt bőven terep, ahova a 6700XT jöhet, ráadásul a R9-390 va RX480 analógia annyira nagyon nem él, mert ott nem jött be új feature, míg a 6xxx szériában azért ott a DX12Ultimate support RT-stül...

    Ezzel együtt akinek az RT annyira nem számít, annak aligha éri meg bármelyik új VGA a mostani árakon(de akár MSRP-n sem).
    Én is inkább PS5-be ruházok, kár hogy nem tudni, mikorra tudják teljesíteni a szeptember közepén leadott előrendelésem... talán márciusra megkapom... és kétlem, hogy annál előbb lesz elfogadható áron VGA.
    Egyelőre az idei új PC alkatrészeket skippelem, a R5-3600/RX5700XT kombó elég lesz nekem a következő generáció megjelenéséig PC-vonalon. A legtöbb játékomat 4K-ban is egész jól viszi, meglepő módon a CoD MW1-2-3 szériát hatotta meg a leginkább a 4K-ra való váltás, a Witcher3/AC Odyssey/WoWs/ETS2/ATS vígan megy használható sebességgel...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz Yutani #562 üzenetére

    Van akkora különbség a 3070 és a 6800 közt, hogy a 6700XT ne kannibalizálja a nagyobb kártya eladásait, ha a 3070 szintjére jön?

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz tkiceg #582 üzenetére

    Az még nem olyan rossz, én Szeptember 17-én rendeltem PS5-öt Alzánál, egy hónapra rá írtak, hogy alighanem csak februárban... aztán a november végi megjelenéssel egyidőben már csak 2021Q2 elejét mertek ígérni, most meg már ígérni se mernek, csak azt, hogy a megrendelések a beérkezés sorrendjében lesznek teljesítve...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz bayarena #583 üzenetére

    Teslára most is van/volt aki éveket várt... és az csöppet drágább is egy Trabinál...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz FLATRONW #600 üzenetére

    Nem nyers teljesítményről volt szó, hanem a feature-ök beéréséről. És bizony ebben a tekintetben az NV most ugyanazt mondja, mint anno az AMD.
    És nem, nem lesz időt álló - ebben a tekintetben Linus-ékkal értek egyet: mire az RT mint feature kiforrja magát(és játékonként nem csak a feature-einek a fele-harmada lesz használva), gyártótól függetlenül a mostani kártyák teljesítménye nem lesz elég a futtatására, DLSS/SuperRes ide vagy oda...

    Azt a brutális csúsztatást meg rögvest felejtsd el, hogy a Pascal az a 1080Ti, a Turing meg a 2080Ti...van azokban a sorozatokban bőven másik kártya, és amelyikek ellen az akkori AMD kártyák jöttek, azokkal vagy tartották a lépést(RX480 vs 1060/6GB illetve Vega56/1070 vagy Vega64/1080 ) vagy lelépték(2070 vs 5700XT). Soha senki olyat nem ígért, hogy a felső-középkategóriás kártyák majd felnőnek a csúcskategória mellé... ez csak a te szalmabábod, még a legvérmesebb AMD-konzumidióták se gondolták soha komolyan.

    #601Alogonomus: ni csak, egyre gondoltunk, csak én túl sokáig klimpíroztam(és nem sokkal előbb kezdhettem, mint te befejezted)... :D A Radeon VII sajnos nem hogy a 2080-nál nem jobb, de még az 5700XT is többször veri, mint nem.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz FLATRONW #603 üzenetére

    "Az pedig eléggé önkényes, hogy az 5700XT-t a 2070 párjának tekinted"
    Nem, nem önkényes, azok voltak egy árban. Már a 2070S is 30-40e Ft-tal többet kóstált alsó hangon, de a jobb fajta 2070-ek is az azonos kivitelű(pl ROG Strix) 5700XT-k fölött voltak árban.
    Ehhez képest ma több játékban is(pl AC Valhalla, F1-2020) utolérte a 2080-at az 5700XT, átlagosan pedig a 2070Super-rel van egy szinten.

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz FLATRONW #606 üzenetére

    Annyival nem áraztak jobban, hogy az 5700XT-t a 2080Ti-vel akard hasonlítgatni.
    A 2070 ellen küldték, annál picit jobb, aztán az NV kihozta a 2070Supert ami akkor kicsivel jobb volt nála. Mára egyértelműen a 2070Superrel van egy szinten.
    A 2080/2080Ti ellen az AMD abban a lineup-ban(RDNA1) nem küldött semmit, a Radeon VII az még GCN, és kétségtelenül eléggé leszerepelt...

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz FLATRONW #608 üzenetére

    "adott generáción belül ezek voltak a legerősebb GPU-k" ez nem összehasonlítási alap, ezt úgy hívják, hogy szalmabáb érvelés. 160-170e-be kerülő VGA-t hasonlítasz egy 400e-be kerülőhöz(vagy Strix esetén 220ezrest egy 490ezreshez), gratulálok!
    Mármint ahhoz, hogy láthatólag vagy képtelen vagy felfogni, hogy az R9 Fury X(2015) és a 6900XT(2020) között az AMD-nek nem volt "halo" kártyája, vagy szándékosan kívánsz csúsztatni az érvelésedben, mintha bármit nyerhetnél vele pár lesajnáló pillantáson kívül...

    A Vega64 meg a 1080-nak volt az ellenfele, de legfeljebb is a 1080Ti-nek. Előbbi szintjét simán hozza is, utóbbit bizonyos(főleg AMD által támogatott) játékokban szorongatja.

    Az, hogy az AMD abban az 5 évben nem hozott az NV csúcskártyája ellen ellenfelet, nem annak köszönhető, hogy nem tudott volna, hanem alighanem annak, hogy akkoriban egy ilyen kártya vagy fogysztással bírt volna, és/vagy irreális gyártási költséggel, és nem érte meg nekik. Hogy ez némi technológiai lemaradásra utal? Lehet, de nézd meg a csúcs Ampere-eket, bőven 10-20%-kal többet fogyasztanak, mint az ellenük indított RDNA2-k.
    Az NV bevállalta, az AMD nem, ennyi... az AMD-nek a dual-GPU-t és a limitált szériás vizezett kártyákat kivéve nincs 300W fölötti TDP-jű VGA-ja a történelme során - az Ampere előtt az NVidiának se volt.

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz FLATRONW #610 üzenetére

    Remek, épp kérni akartam, hogy fejezd be ezt a kutyakomédiát, ha már normálisan érvelni láthatólag nem tudsz a zöld szemüveged mögül. További szép estét! :C

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

  • Kansas

    addikt

    válasz BullKoxa #613 üzenetére

    Én 3070-ről 6800-ra nem cserélnék, ha csak nem megoldható ráfizetés nélkül... inkább a 6800XT-re, az már érezhetően gyorsabb - kivéve az NV-re optimalizált RT-címekben, szóval ha RT fontos neked a mostani címekben, akkor érdemesebb NV oldalon maradni - és ez a következő egy évben esélyesen így is marad.
    A G-Sync monitor Freesync-kel hajtása kapcsán nem tudok érdemben nyilatkozni, csak annyit tudok, hogy a fordított irány működik. Ha valakinek van tapasztalata ebben az irányban, az engem is érdekelne...

    [ Szerkesztve ]

    Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.

Új hozzászólás Aktív témák