Keresés

Új hozzászólás Aktív témák

  • #65755648

    törölt tag

    válasz TTomax #28942 üzenetére

    Fél évbe telt megtalálnod ezt a videót? ;]

  • #65755648

    törölt tag

    válasz VTom #28929 üzenetére

    Ne legyetek már naívak... Ez egy sima lehúzás. A kártyák hibásak/sérültek/lopottak/hamisak. Doboz és papírok nélkül akarja elsózni őket új/garis áron. Ugyanaz mint amikor a tesó odajön hozzád a parkolóban és elmondja hogy most vett karkötőt/órát/fazékkészletet, de rájött hogy valójában másra kell neki a pénz és "vedd már át tőle, kedvezményt is kapsz."

  • #65755648

    törölt tag

    válasz #25237004 #28718 üzenetére

    Ne is foglalkozz a kollégával. Szerintem kényszeres önigazolási lázban szenved. Én RX 470 4GB után most GTX 1060 6GB-ot használok és teljesen jól el lehet lenni ezekkel a kártyákkal 4K felbontásban is. Legalábbis ami játékokat én mostanában próbáltam (Dirt széria, Prey stb.). High és Ultra közt szinte nincs is látványbeli különbség és High-on már tök jól futnak, max még AA-t kikapcsolom (4K-n minek kéne...).
    Mellesleg érezhető különbség nincs igazán a két kártya között (főleg OC-vel!), ugyanolyan beállításokat használok most is mint RX470-el.

    Amit pedig a kolléga nyomat, hogy "Ultra beállítások és fix 60 FPS alatt nincs élet", azon csak mosolygok. Emlékszem még mikor FX5200-on 20-25 FPS átlaggal játszottam ki a GTA3-at 1024*768-ban Low-Mediumon asszem. 30-40 FPS átlagra már azt mondtuk tökéletes. Most meg 4k/Ultrán fix 60FPS a minimum elvárás. :W

    Még öt év és annyit javul az emberek szeme/érzékelése/reakcióideje hogy 8K-n fix 144 FPS alatt nem is tudnak majd játszani!

  • #65755648

    törölt tag

    válasz Petykemano #28216 üzenetére

    Na ezek már hihetőbb adatok. Az arányok tehát:
    7700(K) - 2:1 - 1700(X)
    7600(K) - 1:2 - 1600(X)

    Vagyis a 300-350 eurós katgóriában 2x annyi procit ad el az Intel, mint az AMD de a 200-250 eurós katgeróiában már fordított a helyzet. Fog ez még az AMD javára is fordulni! :K

    Pl. nálunk a cég professzionális felhasználásra Fujitsu desktop-okat vásárol már évek óta, és náluk még nem jelent meg a Ryzen, csak I5/I7 van. De ilyen ár/érték arányú procik mellett, csak idő kérdése mikor hozzák ki a Ryzen-es szériát is. Ha csak az Intel le nem fizeti őket persze...

  • #65755648

    törölt tag

    válasz Egon #27470 üzenetére

    Nem is tudom a naivitásnak milyen szintjén kell lenni, hogy azt feltételezd hogy a konkurencia hiánya esetén az Nv és az Intel ugyanannyit költene R&D-re mint ha van ellenfelük. Nem is kell megszűnnie a konkurenciának, elég ha gyengélkedik és azonnal beszünteti a fejlesztést a piacvezető. Lásd Intel az elmúlt pár évben.

    Amikor még volt verseny és fejlődés Cpu fronton, bizony a fejlesztések jelentős részét az Amd hozta (x64, dual core stb.) A másik részét pedig az Intel azért volt kénytelen hozni, hogy lépést tartson és ha tud elhúzzon az Amd-től. Ugyanez a vga fronton. És ugynezért hajt az Amd is. Ha ők húznak el, ugyanúgy elülnek a babérjaikon, erre is volt példa. Nem hiszem hogy ezt ne tudnád felfogni ha akarnád... :W

  • #65755648

    törölt tag

    válasz Puma K #27453 üzenetére

    "Az AMD gyakorlatilag halott"

    Ha mindig kaptam volna 1Ft-ot valahányszor leírtátok ezt az elmúlt 10 évben... :DDD
    És ha csak egyszer is igazatok lett volna, akkor ma is Geforce 2-el és Pentium II-vel nyomulnánk...

  • #65755648

    törölt tag

    válasz Hachiko95 #27144 üzenetére

    Nem volt változás a végrehajtóegységek számaban egyszer sem. Csak órajelemelés volt, kb 10-15%. Ennyi fejlődés a 7850-370-nél is volt. Meg nem is cuda core-nak hanem stream processor-nak hívták őket asszem amúgy.

    (#27145) atok666: linkeld! Sztem keversz vkivel. Vagy a mostani vita 3 hozzászólására gondolsz? Mert akkor bocs hogy megvédem a véleményem. :U

  • #65755648

    törölt tag

    válasz FLATRONW #27133 üzenetére

    Ez csak három. Az Nv 4 bőrt húzott le ugyanarról a kártyáról. Nv nyert.

  • #65755648

    törölt tag

    válasz TTomax #27129 üzenetére

    Ha az Rx500-as szériára gondolsz akkor csak szólok hogy még nem adtak ki semmit. Ha majd kiadják és lesznek tesztek akkor meglátjuk hogy pontosan mi mennyit változott és ha pár hét/hónap múlva az árak is beállnak, akkor megtudjuk az új széria mennyivel lett jobb és mennyiben csak átnevezés.
    Az átnevezés bajnok amúgyis az Nv marad: 8800GTS 512 = 9800GTX = 9800GTX+ = GTS250.

  • #65755648

    törölt tag

    válasz #45185024 #27126 üzenetére

    Psszt! Ezt itt tilos! Még vihart okozol a zöld homokozóban! ;]

    Amúgy meg kb így áll a helyzet: amikor nagyon el kell adni valamit, akkor megy az Nv marketing-úthenger és a csapból is ők folynak. Amikor meg kitolnak a saját ügyfeleikkel is (mint az említett Titan xp ügy, gtx970 memória stb), akkor megy a lapítás. Persze lehet ezeket pozitívumként is értékelni, mint láthatjuk, csak kell hozzá a zöld szemüveg. :P

  • #65755648

    törölt tag

    válasz Yutani #27120 üzenetére

    Ehhez ért az Nv. Marketing és hype...

  • #65755648

    törölt tag

    válasz TTomax #26861 üzenetére

    Attól függ mikor és mennyiért vette az illető. Aki '14 végén-'15-ben vette 100-120k környékén az tényleg jól járt vele. Aki 2016-ban, netán annak is a második felében vett 970-et még mindig 100k környékén, az már kevésbé.

    Ahogy a tesztelő is mondja a videóban, a GTX970 fej-fej mellett van a 4GB-os RX470-el (amit ma 60k körül kapsz), csak többet fogyaszt és tuningban sem jobb (náluk mindkettő 10-15% tuningot bírt).

    Ehhez jön hozzá, hogy az új játékokban egyre jobban lemarad az új gen. kártyákról a 970, amit az is bizonyít, hogy míg nyáron 5% körül volt az RX480 8GB előnye hozzá képest, addig az általad is linkelt videón már 18% (mindkét esetben az 1440p-t néztem).

  • #65755648

    törölt tag

    válasz huskydog17 #24721 üzenetére

    Nem. Véletlenül se találtad el: gyártófolyamat-fejlesztési mérnök vagyok egy multinacionális ipari cégnél. A legnagyobb hibám az legyen hogy precíz vagyok - akár a szavak szintjén is.

    Amit írtál ahhoz viszont nem kell nagy precízség, kb azt írtad "XY fekete" és linkeltél egy cikket ami azt írta "XY NEM fekete". Valóban, a különbség a kettő között csak egy szó...

    Én nem szándékozlak a továbbiakban sem "elkerülni", sem direkt "megtalálni" Téged. Ha olyasmit írsz, aminek az igazságtartalmát/ logikáját tévesnek/ megkérdőjelezhetőnek tartom, azt továbbra is szóvá fogom tenni.

    Még OFF-abb:

    Nem akarok nagyon belemélyedni a filozofálásba, de azt hiszem a világnak jelenleg épp az egyik legnagyobb baja, hogy túl sok fals infót, bullshitet, demagógiát, aljas hazugságot terjeszt az internet és a (bér)trollok. Akik pedig látjuk és átlátunk ezeken kötelességünk cáfolni ezeket, fellépni ellenük és megakadályozni a téveszmék és hazugságok terjedését. Nem szabad hagyni elsiklani őket, mert 2016-ban láttuk hogy ezeknek a terjedő kamu híreknek, hazugságoknak, összeesküvés-elméleteknek komoly következményei lehetnek a világra nézve.

    Ezt egyáltalán ne vedd egyébként magadra, csak ezek miatt tettem magamnak fogadalmat, hogy mostantól ha olyat látok fórumokon amivel nagyon nem értek egyet, akkor gyakrabban fogom felemelni ellene a hangom és kevesebbet leszek read-only-ban. És ezt a meglátásomat, döntésemet ahol tudom terjesztem. :R

  • #65755648

    törölt tag

    válasz huskydog17 #24716 üzenetére

    Látom súlyosabb a probléma nálad mint gondoltam...

    Ezt írtad és semmi többet: "Tökéletesen összefoglalták a lényeget: a játékosok számára a DX12 abszolút semmi előnyt nem ad, sőt azzal inkább csak rosszabb élményt kap a játékos, mint DX11 alatt."

    Hol írtad Te le, hogy ez nem a Dx12, hanem a fejlesztők miatt van? Hol írtad le, hogy ez csak a jelen és a jövőben biztosan meg fog változni? Te csak azt írtad, hogy "a Dx12 a játékosoknak rosszabb mint a Dx11". Ez egy blődség! Ha igazat akartál volna írni akkor azt írod, hogy "a Dx12 JELENLEGI IMPLEMENTÁCIÓJA rosszabb a dx11-nél, maga a dx12 jobb mint a dx11."

  • #65755648

    törölt tag

    válasz huskydog17 #24699 üzenetére

    A szövegértelmezésed vagy az angol tudásod nem valami fényes. Segítek, a cikk konklúziója:
    "A DX12 egy nagyon érdekes alacsony-hozzáférésű API, ez nem kérdés. De a játékokban levő mai alkalmazása nagyon-nagyon rossz. (...) Ahhoz, hogy kijöjjenek a Dx12 előnyei a fejlesztőknek nulláról kell újraírniuk a motorjaikat. Hogy ezt már 2017-ben megteszik-e az még a jövő titka."

    Értsd: a Dx12 nem rossz, csak még nem lett kellőképpen implementálva a motorokba.
    Azért vagytok viccesek egyébként a károgásotokkal, mert ezt kivétel nélkül minden API-váltáskor sikerül eljátszani. Jön az új API, azt kellőképpen beharangozzák, megvan a Hype, hogy az új játékokat és kártyákat el lehessen adni vele. Aztán kiderül, hogy csak lassan és nehézkesen érkeznek az új játékok rá és az elsők elég gyengén sikerülnek, fércmunkák, mert nem 5 perc meg/újra-írni egy grafikus motort.
    Ekkor jön a hurrogás, a "megmondtamhogyszarazegész".
    Majd eltelik 1-2-3 év, megtanulják a fejlesztők használni az új API-t és jönnek az álleejtős grafikájú játékok.
    Eddigre pedig már szállingóznak a hírek a következő API-ról és minden kezdődik elölről.

  • #65755648

    törölt tag

    válasz Egon #24700 üzenetére

    Igen? És tudnál mondani egyet is a felsorolt példákból ami nem igaz? :U Ezek TÉNYEK, azok pedig makacs dolgok...
    Nem sok száz játék fejlesztőjét kell megvegye az Nv. Elég annak a 10 játéknak a 3-5 fejlesztőjét megvenniük, amivel mindenki tesztel.

    Ki az a Jonah Anderson és mit tett játékosok ellen amit az Nv ne tett volna meg korábban?

  • #65755648

    törölt tag

    válasz ->Raizen<- #24695 üzenetére

    Az a gond, hogy az NV-nél a "jó marketing" abból áll hogy odamennek a fejlesztőhöz x millió dollárral és azt mondják: "Építsd bele ezt a szükségtelenül bonyolult és erőforrás-zabáló, alig látható (vagy láthatatlan), zárt rendszerű (hogy az AMD vagy bárki más nehogy támogatni/ optimalizálni tudjon rá) effektet a játékodba (mint a Hairworks, Physx, tesszelált földalatti víz stb), így ha kijönnek a tesztek az fog látszani, hogy a mi kártyáink gyorsabbak. Ja hogy ezek szükségtelen (mivel van náluk jobb, hatékonyabb nyíltan használható megoldás) effektek a mi kártyáinkat is feleslegesen lassítják? Nem baj! Csak az AMD-t jobban lassítsa!"

  • #65755648

    törölt tag

    válasz ->Raizen<- #24685 üzenetére

    "Volt valamikor 50-50 a piaci részesedése amdnek és nvidiának, ez a szám okkal tolódott el az nv irányába."

    Így van, két ok volt: az egyik a marketing, a másik fejlesztők lefizetése, hogy olyan játékmotorokat írjanak, ami jobban fekszik az NV-nek/ visszafogják a fejlődést.

    Fogyasztás/teljesítményben (is) az AMD jobb volt akkor amikor az arány eltolódott az NV irányába.
    A "jobb támogatottság" a fejlesztők lefizetéséből következik, a "fluidabb játékélmény" pedig marketing b***shit.

  • #65755648

    törölt tag

    válasz schawo #22248 üzenetére

    Ha a steam survey reprezentatív lenne, akkor az AMD már rég csődbe ment volna, ugyanis aszerint évek óta nem adtak el szinte 1 db VGA-t se...

  • #65755648

    törölt tag

    válasz vader108 #22241 üzenetére

    Teljesen jól írta. Itt az eredeti cikk.
    Illetve nem csak hogy dvga-kra van szűkítve amit írt, hanem asztali dvga-ra:

    "Nvidia's desktop discrete GPU shipments were down -28.15% from last quarter"

    "AMD's shipments of (...) Desktop discrete GPUs increased 4.03% from last quarter"

    Szerk: Hopp, közben szerkesztettél...

    Szerk2: Ja, közben másfele is olvasgattam és nem frissítettem az oldalt. :R

  • #65755648

    törölt tag

    válasz gbors #21914 üzenetére

    "Nohát, megvádolsz mindenfélével, utána pedig elképeszt a válasz?"
    A "szakmai" tudásodat kérdőjeleztem meg, szarkasztikus hangnemben, amit semmi nem tilt. Mire Te szánalmas személyeskedésbe és jelzőhasználatba kezdtél - ami itt a fórumon tiltott - és olyan szintre süllyedtél ahová nem akartalak követni - hogy egy klasszikust idézzek. És engem vádolsz miatta? Erre emlékeztetsz: "Nem tehetek róla! Idegállapotba vótam Maóónika!" :DDD

    "Face-to-face sokkal kevésbé lettem volna türelmes, a 21853-hoz hasonlók után elküldtelek volna valami erősen deklaratív helyre"
    Aha, és még én vagyok az őrült... na pont az ilyen mondatok miatt nem hiszek el vakon mindent amit leírsz. Ha úgy lenne ahogy írod akkor egy közveszélyes őrült kellene hogy legyél, márpedig én nem feltételezek rólad ilyesmit.

    Még 1x leírom, mert úgy látszik nem voltam elég világos: SENKIT NEM ÉRDEKEL, hogy maga a skálázás önmagában mennyivel gyorsabb vagy lassabb egyik vagy másik kártyán. Ezt csak Te keverted ide, mikor elkezdted levonni a magasabb felbontással mért FPS-t és erre írtam hogy félremagyarázol. Ugyanis senki nem tudja önmagában csak a skálázást használni. A magasabb felbontásban való számolás az ALAPJA a VSR-nek és a DSR-nek, így ha őket akarod vizsgálni, akkor nem vonhatod ki belőlük a magasabb felbontás teljesítményigényét (illetve kivonhatod, csak akkor már nem a VSR Vs DSR teszted végzed, hanem a skálázók tesztjét...).

    És pontosan ezt mérte ez a teszt: megmutatta mi fog történni a felhasználó gépén ha bekapcsolják VSR-t illetve a DSR-t különböző kártyákon és játékokban. Jah, hogy talán CPU-limites volt? Lehet. Vagy hibáztak? Lehet. De az is lehet hogy jó és nem volt limit. Vagy hogy reális összeállítású konfignál ezek a játékok még FHD-ben is CPU-limitesek a felhasználók gépeiben is, vagyis a teszt az olvasók és a mi szempontunkból helyes és informatív. De az is lehet hogy nem. Ha meg akarod cáfolni, mérd ki és bizonyítsd be. Mindaddig én elfogadom helyesnek.

    A skálázó meg egyedül a képminőség szempontjából érdekes, amiben jobb az AMD. Hogy mennyivel, maradjunk annyiban hogy nem értünk egyet.

    Ennyi, részemről lezártam a témát. Így is túl sokáig osztottuk a semmit. :R

  • #65755648

    törölt tag

    válasz gbors #21907 üzenetére

    2. Csupán arra hoztam példát, miért lehet az eredetileg linkelt teszt hiba és csalásmentes, amit Te megkérdőjeleztél.
    3. Ebben az esetben megkövetlek a minőséget illetően. Az ide vonatkozó részeket hagyd figyelmen kívül. De ez nem bizonyítja hogy a dsr-es mérésed helyes volt, abban továbbra is kételkedem, és várom a képet.
    B1. Nem szorosan idetartozik, de ezek szerint az Rx460-at sokkal időtállóbb megoldásnak tartod, mint a jelenleg (dx11-ben) hasonló teljesítményű 950-et, ha - felteszem némi ráfizetés árán - váltottál. Hasonló a véleményed az rx480 - 970 összevetésben, netán 480-1060 esetén is?

    A hsz-ed többi része személyeskedés, legközelebb nyugodj le és moderáld magad, különben én hívok rád moderátort. Elképesztő ez a stílus amit itt megengedtek magatoknak... Nem egy jöttment senkiházi vagyok. Csak ellentétes a véleményünk, és még ha az enyém lenne téves, akkor is kikérem ezt a hangnemet! Megnézném, hogy személyes találkozásnál meg mernéd-e engedni magadnak...

    Más: TPU-n lehet szavazni, hogy melyik kártyát vennéd inább. ~22k szavazat után az állás:
    Rx480 - 40%
    1060 - 28%

    Már csak készlet kellene Rx480-ból...

  • #65755648

    törölt tag

    válasz gbors #21873 üzenetére

    1. "az AMD kártyák jellemzően kevesebb FPS-t vesztenek a felbontás növelésével,"
    Igen, ezt én kevertem bele. Bocs, nem tudtam, hogy nem szabad. De ez önmagában egy olyan mondatod, amit ha én, vagy egy AMD-párti, vagy akár egy független kommentelő (ezen a fórumon olyan nincs!) mondott volna, akkor máris óriási ribillió lenne, égbekiáltó perpatvar! Aljas hazugság, az NV kártyák minden felbontáson jobban mennek! A FX különben is csak 4GB-os! :(((

    2. "Elárulom: azt, hogy melyik kártya mennyi sebességet veszít, ha felkapcsolunk 1080p-ről 1440p-re vagy 1800p-re. Ráadásul azt is rosszul, mert no way, hogy a Far Cry 4-ben vagy a BF4-ben 10-15% FPS-t vesztünk a +78% pixellel." - De, ezt Te írtad, és bizony "way". Te is írtad, hogy nem kell más hozzá, csak CPU limit (vagy bármilyen más rendszerlimit). BTW korábban ez is vesszőparipa volt az NV oldalon, hogy az AMD karik sokkal CPU-limitesebbek. Most, amikor egy teszteredményre akár ez is lehet a magyarázat, akkor ez már el van felejtve, sőt ki van zárva, ugye? Biztos rossz a teszt :U

    3. Kitartok amellett, hogy nem jó a mérésed. Csinálj már egy képet amin a monitor menüje FHD-t, a játék pedig WQHD-t mutat. Sajnos nincs rá lehetőségem, hogy teszteljem, mint már írtam is. De neked van már AMD karid is úgyhogy hajrá! :U Még az is lehet hogy meggyőzöl. Csak arra figyelj, hogy csinálj nem átméretezett képeket is a minőség ellenőrzése végett!

    4.Taníts, mester! :DDD

    5. "Én is a saját szememnek hiszek" - De nem vagy hajlandó letölteni a videót a tesztből, hogy megnézd magadnak, mert véletlenül nem támasztaná alá igazadat és el kéne ismerned hogy tévedtél. Vagy hamisították a tesztet. ;]

    Bonus1: Nem véletlenül egy GTX950-et cseréltél (vagy melléje "vettél") egy hasonló teljesítményű RX460-at? Miért gyanús nekem, hogy ezt nem márkaszeretetből/ funkcionális okból/ felhasználási célzattal tetted, hanem pl hogy teszteket végezz? Most hogy pénzt is keresel ezzel, vagy csak annyit érsz el vele, hogy itt a fórumon te lehetsz az ügyeletes guru, az mindegy is. A lényeg hogy invalidálja az érvedet, miszerint Te objektíven szemléled a dolgokat, hisz mindkét oldal kártyáit használod. Tesztelni vetted, így akár k**vára gyűlölheted is, akkor se volt más választásod mint megvenni, ha AMD-vel is tesztelgetni akarsz. :)

    Bonus2: Azon gondolkodtál már, hogy ha WQHD monitorod van, és FHD-ra állítod a felbontását, de WQHD-ban renderelteted a játékot, akkor a VGA legyártja a WQHD képet majd leméretezi FHD-ra, ezután a moncsid felskálázza WQHD-ra. Ez az utolsó felskálázás, amit a moncsi végez teljesen elmos bármilyen különbséget, ami AMD és NV kártyák között lehet, hisz az eredeti, VGA által előállított képet a skálázás által rontja. Ráadásul a monitorok közt is nagy különbség van ilyen szempontból, egyesek szépen, mások csúnyábban skáláznak. Ha tényleg élőben meg akarsz győződni arról, hogy pontosan mennyire életleníti a képet akár a VSR, akár a DSR, azt csak natív FHD vagy 1200P monitorral tudod megtenni. :U
    Nem is tudom hogy képzelted, hogy Te majd jól megállapítod, hogy mennyire éles a kép DSR-el, miközben egy, a monitorod által átméretezett képet bámultál...

  • #65755648

    törölt tag

    válasz daveoff #21859 üzenetére

    Értem. tehát mivel (szerintetek) Abu elfogult az egyik irányba, ezért kell egy olyan ember aki legalább a harmadát érti annak, amit Abu ír, de elfogult a másik oldal irányba. És így egyensúlyt hoz az erőbe. Anakin Sklywalker Darth Wader gbors. :DDD

  • #65755648

    törölt tag

    válasz gbors #21841 üzenetére

    Először is, az egész dolgot félremagyarázod. A DSR-t és VSR-t nem tudod úgy futtatni, hogy a kártya ne számolna nagyobb felbontásban. Így az, hogy a GN-os tesztben azt is beleszámolták a különbségbe hogy mennyire bírják a kártyák a nagyobb felbontást (illetve, nem vonták ki különbségből mint ahogy Te tetted), nem hiba. Az eredményt azzal együtt kell elfogadni.

    Másodsorba, ki vagy Te és mit csináltál azzal a gbors-sal aki értelmes teszteket csinált és tudott gondolkodni?
    Mert hogy Te nem ő vagy az biztos. Az igazi gbors pontosan pontosan tudta, hogy a pixelek számának növelésével a FPS nem lineárisan kezdenek csökkenni, messze nem!
    Az igazi gbors tudta, hogy a legkülönfélébb VGA-n belüli (ROOP-ok, ALU-k, memória stb) és kívüli (CPU, RAM stb.) rendszerelemek limitáló tényezői, szűk keresztmetszetei miatt, valamint a futtatott szoftver terheléseinek függvényében, a skálázódás a felbontás függvényében nem lineáris.
    Bárki, aki látott valaha VGA tesztet az pontosan tudja ezt.

    Emiatt természetesen óriási butaság, és sztem Te is érzed, hogy egy aljas csúsztatás azt sugallni, hogy +78% pixelszám emeléstől hasonló mértékű FPS lassulást kell várni.
    WQHD-ben nem tudok tesztelni, de lemértem GRID:AS-ban 1280*1024 és 1200P közti különbséget, ami pixelben +76%.
    Na és FPS-ben?
    -22%

    Ennek fényében a BF4-es mérés a tesztben nagyon is lehet reális.

    Ami pedig a mérésedet illeti, két lehetőség van:
    1. Elb@**tad a mérést és ha valóban WQHD monitorod van, lehet hogy mindkét mérés valójában natív WQHD-ban futott. Meggyőződtél róla a monitor menüjében, hogy az elméletileg DSR-es tesztnél mennyi a képernyő aktuális felbontása? Ha fut a DSR akkor FHD-t kell jeleznie, miközben a játék WQHD-ra van állítva.
    2. Nem a GPU, illetve azon belül nem a DSR-t számoló rész a szűk keresztmetszet, hanem pl. a ROP-ok, vagy a memória stb. Egy mérés nem mérés. Ezt neked is tudnod kéne. Az hogy 1 játékban, 1 felbontásnál, 1 (elavult) VGA-val, 1 driverrel nem lassított sokat a DSR, nem jelent semmit. Majd ha veszel 5-6 különböző, új szériás VGA-t, a GN-es játékokkal és beállításokkal végigméred az egészet és velük ellentétes következtetésre jutsz, akkor hiszek Neked.

    "As for how VSR and DSR differ, it appears that VSR has a more immediate performance advantage when strictly looking at deltas (the % FPS difference between 1080p and the virtual resolution render, i.e. the FPS drop from 1080 to 1440 or 3200x1800)"

    Ami pedig a képminőséget illeti, ha nem haragszol, inkább hiszek a saját szememnek, mint egy egyre inkább elvakult NV-fanatikus megnyilvánulásokat mutató fórumozónak, aki nem akarja látni azt amit jól lehet látni...

    Ja és csak a vicc kedvéért tegyük fel, hogy igazad van és bár az elmélet és a gyakorlat szerint is szebb és gyorsabb a VSR, de a különbség inszignifikáns. Akkor mi van? Megmondom mi van: egyesek még ezt az inszignifikáns győzelmet is el kell vitassák az AMD-től, csak mert az "NV a csúcs mindig mindenben". :W

  • #65755648

    törölt tag

    válasz gbors #21796 üzenetére

    Az Abu által linkelt tesztben, ha letöltöd a videókat és teljes képernyőn nézed, pl. az AC-nél nagyon jól látszik hogy sokkal élesebb a VSR. És akkor ez még mindig csak egy 1440P-ről illetve 4K-ról (amiben a játékot futtatták) FHD-ra leméretezett videó. Nyilvánvaló, hogy eredeti méretben a különbség még látványosabb lenne.

    Ehhez add még hozzá, hogy a VSR, gondolom a hardveres gyorsítás miatt, amit Abu írt, gyorsabb mint a DSR, nem is kicsit

    A VSR győz a DSR-rel szemben sebességben és minőségben is.
    Case closed.

  • #65755648

    törölt tag

    válasz Habugi #21543 üzenetére

    "mert marha régóta nyíltan vállalom hogy piros/Radeon párti vagyok"

    Akkor keverlek valakivel :DDD

    De ha nem érdekelne hogy másoknak és nekem mi a véleményem arról, mennyire vagy objektív, akkor nem védenéd és bizonygatnád itt az elfogul-tságodat/-atlanságodat.

    De persze szíved (és elidegeníthetetlen) jogod azt gondolni magadról, amit akarsz. :)

    A többivel viszont egyetértek.

  • #65755648

    törölt tag

    válasz Habugi #21540 üzenetére

    "Mert magadból indulsz ki"

    Na jó, ez magas labda volt, de jár a pont :D
    A helyes válasz egyébként nem ez. Hanem, hogy a korábbi hsz-eidből indultam ki.
    Ne próbáld magad sem előttem, sem magad előtt objektívnek beállítani. Bár az utóbbi sikerülhet. :P

  • #65755648

    törölt tag

    válasz Habugi #21538 üzenetére

    "A topic címétől teljesen elvonatkoztatva írtam amit írtam, kvázi semmi "vs" töltete nem volt a mondandómnak, még gondolati szinten sem jutott eszembe közben az NV."

    Miért nem hiszek neked? :DDD

    Mellesleg, ahogy NetTom kolléga is írta, a Dx11-ben mért eredmények teljesen reálisnak tűnnek a grafikához mérten, ott nem várható sem nagy gyorsulás, sem változás (persze ki nem zárható, jöhet egy csoda-driver az Nv-től még).
    És az AMD karik ott is "körbehugyozzák" az NV ellenlábasaikat (290X és RX480 a GTX980 előtt, Fury X az 1070 és 1080 közt stb.).

  • #65755648

    törölt tag

    válasz Habugi #21535 üzenetére

    Akkor is ezt mondanád, ha fordítva lenne és az NV húzna el nagyon a konkurens AMD kariktól? :U

  • #65755648

    törölt tag

    válasz gV #21487 üzenetére

    My bad! :R
    Ez így viszont már tényleg nem rossz.

  • #65755648

    törölt tag

    válasz Egon #21483 üzenetére

    Nézted amit linkeltem? Az NV oldaláról származik: [link]
    "Net income Q2 FY 16: $26M"

    Hogy a hwsw honnan szedte az infóit, azt mivel sehol nem utalnak rá, ellenőrizd le Te... :U

  • #65755648

    törölt tag

    válasz vader108 #21437 üzenetére

    Csak a tényszerűség kedvéért: közvetlenül a Pascal kijövetele előtt már 40 dollár felett volt az NV részvényára, és előtte is hónapokig 30-35 USD környékén. 20 USD közelében utoljára 1 évvel ezelőtt volt, nem a Pascal megjelenése előtt. Ma valóban 62.
    Ugyanezen 1 év alatt az AMD 2 USD-ről 7-re jött fel, vagyis arányosan még kicsit többet is erősödött (3,5x).
    Persze volt honnan feljönniük.

    Ahogy én látom egyébként ez az egész tőzsdeérték egy hatalmas lufi. A két cégnek teljesen hasonló 1Mrd USD körüli negyedéves bevételei vannak (az AMD-é persze procikkal együtt értendő), 4-5Mrd körül évente. Ehhez képest az Nv értéke 32Mrd, míg az AMD-é csupán 5,5Mrd, és nemrég még 1,3Mrd volt. Ez nevetségesen alacsony a forgalomhoz képest.
    Ráadásul a profit se valami nagy most az NV-nál sem, 16Q2-ben 26M USD - ami ezen a szinten már nullszaldónak számít - miközben tavaly még 128M volt és a Q1-ben is visszaesésük volt az előző évhez képest.
    Az AMD pedig Q2-ben 69M profittal zárt, többel mint az Nv. Mindezt úgy, hogy ha jól tudom még mindig fizetik a kölcsönöket, amiket az ATI felvásárlásakor vettek fel. Még hátravan nekik vagy 1Mrd amit 2018-ig kell visszafizessenek.

    Persze ha az elmúlt 12 hónapot nézzük akkor azért látszik, hogy van különbség:
    Nv +676M USD
    AMD -339M USD

    És a poén az egészben, hogy ennek az egésznek egyáltalán semmi köze ahhoz, hogy a termékeik mennyire jók vagy rosszak, olcsóak vagy drágák.

    (#21479) proci985: 16 szó/s-el olvasol?! Akkor ezt a hsz-emet a szerkesztésig 13s alatt olvastad végig? :Y

  • #65755648

    törölt tag

    válasz kő pí #21142 üzenetére

    Tudod: Northern Ireland, Észeak-Írország, ami része a UK-nek. Nézd meg egy térképen...

    (#21143) Tertius: Nincs igazad, nem így van. De én kezdtem el itt a Brexitezést. Belátom hiba volt. További vita helyett inkább befejezem. :R
    Modi ha gondolja akár törölhetné is a vonatkozó hsz-eket.

  • #65755648

    törölt tag

    válasz kő pí #21134 üzenetére

    Fúú, ez nagyon messzire vezet, ebbe nem itt kéne belemenni. Sztem olvasgass még a témában: [link]
    Csak 2 dolog:
    - nem csak London szavazott a maradás mellet, hanem pl. egész Skócia és Írország nagyrésze is.
    - a Brexittel nem csak London, hanem egész Anglia jár rosszul

    (#21139) Erdei88: Egy ember sem született "csőcselék". Csak amikor amúgy akár intelligens emberek összeverődnek hőzöngeni és egymás alá adják a lovat, akkor alakul át a csoport vasvillákat lóbáló csőcselékké. Ha angolul mondom "angry mob"-al talán jobban érthető. Ha vki ezt sértésnek veszi attól elnézést kérek. :R

  • #65755648

    törölt tag

    válasz Erdei88 #21130 üzenetére

    Nem sorolom magam a "tájékozatlan többség" közé, nem olyan könnyű engem átverni. Viszont tőlem szoktak PC-vásárlási tanácsot kérni a kevésbé tájékozottak az ismerősi körömben. Tudod, az a többség, aki leragadt annál, hogy "hány gigás videókártyát vegyek?" Ilyenkor pedig ha nem válogatok össze nekik konkrét terméket/ rendelem meg nekik, akkor a Ph fórumait/tesztjeit szoktam ajánlani nekik. De ha még jobban elharapódzik az a már-már vallási szintű fanatizmus és gyűlölet ami itt megy és az itteni csőcselék eléri amit akar, akkor le fogok szokni erről. :W

  • #65755648

    törölt tag

    válasz Erdei88 #21092 üzenetére

    A példa teljesen helytálló.
    A média a legerősebb véleményformáló eszköz. A közösségi média pedig (facebook, twitter, youtube, fórum) ma már erősebb mint a hagyományos média. A km-ban nem a többség véleménye válik uralkodóvá, hanem a leghangosabb kisebbségé (ha az egyik oldal fejenként 3x annyi kommentet ír, mint a csendes többséget alkotó, amúgy 2x annyian lévő mások oldal, akkor 1,5x annyi komment lesz a hangos kisebbség oldalán).
    A bizonytalan és főleg tájékozatlan többség, pedig mindig mindenhol megy az uralkodó vélemény után.
    Pontosan ez az egyetlen magyarázata annak, hogy a Brexit megtörténhetett (a hangos kisebbség kiterjesztette a gyűlöletét és alaptalan félelmeit a többségre a közösségi média erejével), illetve annak, hogy Trump hogyan lett elnökjelölt.

    (#21117) Erdei88: Nem, nem áll mögötted. Hanem a fejedben van, hisz kimosta az agyadat a félinformációival és hazugságaival. Ugyanúgy ahogy a szavazófülkében is.

  • #65755648

    törölt tag

    válasz huskydog17 #21098 üzenetére

    Te valamit tényleg félreértesz, de szerintem nem a cikket, hanem 04ahgy hozzászólását. Vagy csak nem olvastad el alaposan a tesztet - hisz abban több helyen le van írva hogy a 4GB-os 1650Mhz-en, a 8GB-os 8Ghz-en ment. Mint ahogy 1 kivételével - MSI - az összes 8GB-os RX470 8Ghz-en megy, így tehát ez tekinthető a referencia megoldásnak.

  • #65755648

    törölt tag

    válasz huskydog17 #21087 üzenetére

    Kifejthetnéd, hogy pontosan mibe és hogyan szeretnél belekötni...

  • #65755648

    törölt tag

    válasz Petykemano #21077 üzenetére

    Lehet ezért csinálja és írja 04ahgy a teszteket... Ha nem tűnt volna fel. Olvassátok végig pl a legutóbbi RX 470 tesztet és mondjátok meg őszintén: bele tudtok kötni akár egyetlen mondatában is?
    Nekik nem az fáj, hogy Abu-nak tetszik az Amd jövőbe mutató technológiája. Még csak nem is az fáj, hogy a tesztek teljesen objektívek, sőt az utóbbi időben láthatóan szinte nem mernek pozitívat írni a tesztekben az Amd kártyákról - lásd a Tpu jobb értékelést adott az RX470-nek, mint a Ph.
    Nekik az fáj, hogy a Ph nem elfogult az Nv irányába és addig nem tudnak nyugodni míg el nem kezdi a Ph is a zöldek fenekét nyalni, mint egynéhány másik oldal.
    És engem aggaszt a gondolat hogy ezt el is érhetik. Az utóbbi időben hagyománya van annak hogy az idióta, de annál hangosabb kisebbség megtévessze a középső, bizonytalan többséget, ráerőltesse az akaratát és ezzel kárt okozzon nekik: Brexit, Trump stb.

  • #65755648

    törölt tag

    válasz Loha #21046 üzenetére

    Amit csinálsz azt szőrszálhasogatásnak hívják. Még 1x leírom: a sorrend sehol nem változott! Az egyetlen konzekvenciabeli különbség, hogy az idei játékokban az RX470 beéri a 970-et, az 1-2-3 évesekben pedig 10-20%-al lemarad. Óriási különbség tényleg! És nem tudom melyik relevánsabb. :U

  • #65755648

    törölt tag

    Amúgy tökre igazatok van ezzel az elfogultság dologgal. Nem is értem, hogy művelheti ezt Abu meg a Ph!
    Elég ha csak megnézzük pl a legutóbbi RX 470 tesztjüket és összehasonlítjuk a TPU tesztjével - akik egyébként olyannyira objektívek, hogy az AMD meg is haragudott rájuk, amiért nem hajlandó nekik kedvezni, ahogy erre gbors az imént rá is mutatott.
    Ph-n minden felbontás átlaga van, így TPU-n nézzük mondjuk a közepes, 1440p-s felbontást.
    Rögtön látszik, hogy a két tesztben a kártyák sorrendje, köszönhetően annak, hogy Abu-ék olyan játékokat és beállításokat választottak, amik az AMD-nek kedveznek, teljesen más...JA NEM!

    A két tesztben az összes kártya sorrendje, hajszálpontosan UGYANAZ mindkét oldalon! :Y (kivéve, hogy a Ph 290x-el, a TPU meg 390-el és 390X-el tesztelt, de ezek helyettesítik egymást).

    Na jó ez nem jött be, de azért sokat számít a körítés, a szöveg és az ajánlás is, ott biztos van különbség. Nézzük csak: a Ph! "Ajánlott" plecsnit adott a kártyának, ami nyilván túlzás azért. A TPU ennél biztos rosszabbat adott.
    B@zmeg! Ezt nem hiszem el, ez se jött be! TPU-n "Highly recommended" ("Különösen ajánlott") lett a STRIX! :W

    Úgy néz ki a valóság nem támasztja alá a fantazmagóriámat a Ph elfogultságával kapcsolatban :(((
    Pedig én annyira imádok sopánkodni :O És olyan jó a haverokkal közösen csinálni. :O

  • #65755648

    törölt tag

    válasz gbors #21037 üzenetére

    Nem, szerintem az lenne igazságos, ha örökre maradnának a Dx11-es játékoknál. Sőt, figyelembe kéne venni, hogy sokan vannak akiknek még Dx10-es vagy 9-es VGA van a gépükben! Ők talán nem szeretnének játszani?! Az a sok millió felhasználó mind smafu a Ph-nek?! :((
    Igenis követelem, hogy térjünk vissza a Dx9-es játékok teszteléséhez! Vissza a Doom3-at!
    Kit érdekel a jövő, hiszen úgyis mindenki maximum fél évre vesz VGA-t! :W

    Csak én vagyok olyan hülye még mindig jól elvagyok egy 3+ éves VGA-val...

  • #65755648

    törölt tag

    válasz cyberkind #21012 üzenetére

    Ha Fury X-ed lenne nem panaszkodnál rá, hogy szarul fut a QB :D

    Azzal egyetértek, hogy ronda amúgy. De a szememnek nem úgy tűnik, mintha spórolásból, vagy kidolgozatlanságból fakadna a csúnyasága. Inkább pont fordítva, túltolták az effektezést. Az egész játék homályos meg életlen, mert szanaszét van post-processelve.
    Anno a NFS:MW-ben volt egy hasonló effekt, nem jut eszembe a neve (talán a motion blur?), amitől minden durván sárgás, elmosott és homályos lett, ráadásul a teljesítményt is hazavágta. Mindig úgy játszottam, hogy mindent maxra vettem, csak ezt az effektet kapcsoltam ki.
    Később a Crysis-t pl pont ezért találtam gyönyörűnek, és sztem még ma is az: tűéles textúrák, részletes modellek, éles, kontrasztos, színteli kép és tűrhető fény-árnyék effekt. Nem volt túleffektelve, csak amennyi kellett.
    Persze azóta sokkal erősebbek lettek a hardverek is meg a szoftverek is fejlődtek, már lehetne tovább közelíteni a valósághoz az effektekkel (visszavert fény hatása, fénytörés, szűrt és polarizált fények stb.), de nem kéne úgy túltolni őket hogy egy rajzfilm és egy vízfestmény közti állapotra jussunk. :W

  • #65755648

    törölt tag

    válasz Egon #20630 üzenetére

    LOL! Ha az ignoráltak listádon van, akkor hogy láttad a hsz-ét és tudtál rá válaszolni? :DDD

  • #65755648

    törölt tag

    válasz Laja333 #20629 üzenetére

    Hát nem látod, hogy ez simán 770 szint?! :(((

    Na jó, persze minimálisan gyorsabb... úgy 44-60%-al, kiviteltől fűggően :DDD

    De akkor is! Csak az idióta AMD fanatikusok nem látják, hogy az Nv majdnem ugyanezt tudta a 770 formájában már 3 évvel ezelőtt!!!négy

    Igaz persze hogy 40-50W-al többet is fogyaszt, mint az RX470, de kit francot érdekel a fogyasztás amúgyis egy vidókártyánál?!

    ;]

    (#20631) wjbhbdux: Szerintem Neked kellene valami új állás után nézned. Pl. fantasy-regény írónak jó lehetnél... :DD
    De péknek pl. semmiképpen se menj... aki ennyi sületlenséget összehord az annak nem való...

  • #65755648

    törölt tag

    válasz sutyi^ #19196 üzenetére

    Jogos! :R

    Ráadásul ez az SSAA elég durván visszaüt teljesítményben, még bekapcsolt FXAA-hoz képest is. De még így is túl nagy a különbség ahhoz hogy ne legyen fake a fenti kép.

  • #65755648

    törölt tag

    válasz sutyi^ #19188 üzenetére

    Write only-ban vagy? :F
    Leírtam, hogy a G3D-n FXAA+HBAO+-val mértek, ami erőforrásigényesebb a 2xSSAO-nál... még linkeltem is videót róla...

  • #65755648

    törölt tag

    válasz wjbhbdux #19157 üzenetére

    FAKE!

    Pl. RX480 RoTR-ben a FAKE képed szerint 41/27FPS, és a tesztben csak SSAO-val mértek.
    Ugyanilyen beállításokkal, a valóságban 63/44 FPS-t tud ráadásul HBAO+-al, ami lassabb az SSAO-hoz képest).
    Ha kijavítod a FAKE táblázatodban az RX480 hamis értékeit a valódiakra akkor kiderül, hogy sokkal gyorsabb mint a GTX1060. Remélem nem igaziak az 1060 értékei sem, mert ha tényleg ilyen lassú, akkor nem lesz itt árverseny. :(((

  • #65755648

    törölt tag

    válasz keIdor #18062 üzenetére

    És ha évente kártyát cserélsz akkor nem is fogod ennek előnyét látni soha, ahogy a másik oldalon sem hátrányát. De nem mindenkinek van pénze/preferenciája évente gépet felújítani.

  • #65755648

    törölt tag

    válasz Loha #18003 üzenetére

    Maradjunk annyiban, hogy a Kepler és más Nv kártyák szándékos lassítása (nem kell driverből történnie, akár az újabb gameworks-ös játékok manipulálásával is mehet, amivel ugye már megbukott az Nv korábban), ugyanannyira létező jelenség, mint az AMD-nél a sosem konkretizált és misztikus "driver gondok".
    Mindkettőt sok felhasználó tapasztalja, de a tesztekben valahogy sosem lehet kimutatni. :U

    Akárhogy is, a tények:
    Megjelenésekor a 780TI $700 volt, a 290X pedig $550.
    Megjelenésekor 10% volt az Nv javára, most fordítva.
    Persze lehet mindez csak azért van, mert az AMD mindig kicsit a jövőnek fejleszt, amiért egyébként a legtöbben szidják őket.

  • #65755648

    törölt tag

    válasz Milka 78 #17962 üzenetére

    Kicsivel jobb AMD-t veszünk azonos áron vagy olcsóbban, de ez ne zavarjon Téged :DDD
    A gyengébbek kedvéért belinkelem megint, úgy látszik szelektív a figyelmetek:

    Ugyanezen oldal eredményeiből böngészve (csak a következetesség/összevethetőség érdekében):

    780Ti ~10%-al a 290X felett megjelenéskor

    780Ti ~10%-al a 290X alatt a legfrisebb tesztben

    A többi hablatyodra lásd az előző hsz-emet. :U

  • #65755648

    törölt tag

    válasz keIdor #17967 üzenetére

    Amiket leírtál az csak szokásos marketing kamu, ami nagyon messze van attól amit az NV csinál. Direkt ezért használtam a két dolog közti vonal jelölésére a "hazugság" és a "csalás" szavakat.

    A Keplernél VAN szándékos avultatás. Olvass bele abba amit linkeltem.
    Pl. "After reading this post and I decided to give it a try. My machine is as it is, I was playing GTA5 with 352.86 driver and notice that driving around the city is avg 40 FPS with my 144P Asus PG278Q. After this post, I grab 347.09 the last WHQL driver in 2014. Force install as new and remove all other 3D services, ran GTA5 with same graphic setting and higher... Now I am getting stable FPS at 60-65. I am not using SLI or 350.12 which was suppose to optimized for GTA5, which I doubt it's for GTX 780 Ti now... 20+ FPS increase with half year old driver? NVIDIA please explain!!!"

    A driveres gondokról nem tudok nyilatkozni. Nekem voltak mindkét oldalról kártyáim, soha nem voltak velük gondjaim. Igaz nem vagyok early adopter, nem volt CF/SLI-em, mindig a legfrissebb win-t és drivert használom, nem telepítek fel minden szart a gépre és van jó vírusirtóm.

    Monitorokon DP van, amin tudtommal már rég tudnak 4K60FPS-t az AMD kártyák is. Úgysincs olyan 4k TV, aminek elég alacsony lenne az input lagja ahhoz hogy monitornak jó legyen. Tudom, mert egy ideje már azt vadászom. :DDD De nem ez volt a téma, senki nem vitatja, hogy sok szempontból jobbak (jelen pillanatban is) az Nv kártyák (pl a HDMI, fogyasztás stb.)

    Nem a vállalat érdekében kell "feláldoznod" magad, hanem a saját és jól felfogott hosszútávú érdekedben dönthetsz jobban vagy rosszabbul. Az hogy 1-1 vállalat ennyire dominálni kezd a (vad)kapitalista rendszer gyengeségeire, a globalizmus és a marketing és a szabályozatlan piac káros hatásaira utal.
    Ha ez nem így lenne, akkor nem az Apple lenne a világ 2. legértékesebb cége, nem a Facebook az ötödik, nem a brókerek irányítanák a világot és nem lenne ennyire domináns az Nv sem.
    Tény, hogy valami nagyon rossz itt, de nem feltétlen az AMD-nél. De legalábbis biztosan nem a termékeikkel van a fő gond.

    PS: Örülök hogy valakivel itt értelmes vitát is lehet folytatni! :R

  • #65755648

    törölt tag

    válasz keIdor #17922 üzenetére

    "Tegyük tisztába a dolgokat... a vásárló azt nézi, hol kap többet a pénzéért"

    Korrekció: a konzumidióta vásárló (a többség) azt nézi hogy a környezete és a marketing szerint hol kap többet a pénzéért.
    A tudatos vásárló nézi azt, hogy valójában, biztos és alapos infók alapján ténylegesen hol kap többet a pénzéért. Ő a vga piacon már AMD-t vesz, hisz ár/érték arányban szinte mindig azok a jobbak: kép

    A hosszú távon gondolkodó, jövő-tudatos vásárló pedig egy kétszereplős piacon már tudja, ha a két szereplő egyike kiesik, akkor kamatostul fogja megfizetni amit eddig megspórolt volna ha beáll a nyájba. Az ilyen vásárló is AMD-t fog venni jelen helyzetben, sőt akkor is azt venne, ha netán az AMD lenne kicsivel rosszabb ár-érték arányú.

    Persze mindennek van határa, így ha az ár-érték arányban óriási különbség alakulna ki (a domináns termék 1,5x-2x-5x jobban megéri mint a másik), akkor még ez a vásárló is belátná, hogy ezt a céget nem érdemes megpróbálni megmenteni és elpártolna tőle. Szerencsére ettől jelenleg messze állunk, sőt épp fordítva van, a kisebbik piaci szereplő termékével jár jobban már rövid távon is a vevő, így most könnyű a döntés. Elmúlt pár évben volt ez azért másképp is.

    Korábbi témához: Az AMD hazudik. Az Nvidia hazudik és csal is!
    Csaltak a specifikációkkal: Dx9 és az FX széria esete (CPU-n számoltatom a DX9 effekteket). De azóta is rendszeresen túl "optimisták" a kártyáik Dx-verzió támogatását illetően. Vagy pl. GTX 970 - 3,5GB.
    Csaltak benchmarkokban: 3DMark "optimalizációk" ([link])
    Csaltak játékokban: "letesszelálom a láthatatlan vizet a föld alatt".
    Csaltak beállításokkal: megvan még mikor azzal indultak a játéktesztek hogy megnézték driverben azonos beállítás mellet az NV valójában mennyivel alacsonyabb szűrőket, effekteket futtat és mennyivel csúnyább rajta a kép? Csinálják ezt most is: [link]
    Csaltak a korábbi vásárlóikkal szemben is: szándékos avultatás.
    Amikor kijött a 780TI 10%-al gyorsabb volt, mint a 290X. Most ugyanennyivel lassabb!
    A sor bármeddig folytatható lenne.

    És akkor itt jön a 4. típusú vásárló, aki többek közt az ilyen húzások (vagy azok hiánya) miatt elkezd egyik vagy másik irányba húzni: a fanboy. Itt a fórumon ez a csoport képezi a többséget. Mondhatjátok: én sem vagyok kivétel, de úgy érzem joggal és okkal teszem.

    Az Nvidiához képest az AMD Teréz anya és Jézus Krisztus közös gyereke (természetesen szeplőtelen fogantatással ;] ).

  • #65755648

    törölt tag

    válasz mlinus #17717 üzenetére

    Nem. Szimplán csak a hasára ütött. "Popsiból kirántott" infó pl. az amikor vki azt írja:
    "Nem bírja a core az XT órajelet ezért nem jön 480x" :U

  • #65755648

    törölt tag

    válasz HSM #17204 üzenetére

    Pedig igazán vehetted volna a fáradtságot hogy bizonyítsd az igazad.
    Íme: [link]
    2 percembe telt.
    Szépen kattintsátok végig a különböző játékoknál a frame-time analíziseket.
    Tökéletesen látszik hogy teljesen játékfüggő, hogy mikor az NV, mikor az AMD viselkedik jobban, és nagyon szoros az összefüggés azzal, hogy az adott játékot melyik vga-gyártó "támogatta" jobban.
    PL. AoS, Hitman, stb. a Geforceok dobálják nagyon frameket,Tomb Raider-nél az AMD-k.
    Olyan is van ahol kisebb felbontásban egyik, nagyobban a másik gyártó a stabilabb (pl. Witcher3).
    Fentebb is hozott két, vagy több kolléga is személyes tapasztalatokat, hogy mikor volt az AMD-n kevesebb a mikrolag.
    Úgyhogy nagy marhaság azt állítani hogy általánosságban egyik vagy másik gyártó rosszabb ilyen szempontból. Ez egyszerűen NEM IGAZ.
    Az pedig pláne hülyeség hogy: "Érdekes, tök mindegy milyen játékról van szó, ha készül frametime mérés, akkor a grafikonok mindig ezt mutatják, mint ebben a tesztben."
    Hát nem. Nagyon nem.

    (#17201) joysefke: "Az pedig hogy valaki Radeonról Geforce-ra vált és simább lesz a játékélmény elég gyakori, a miértje is elég jól ismert"

    Hát persze hogy ismert: a marketing, a nyájszellem és a placebo ereje. :DDD

Új hozzászólás Aktív témák

Hirdetés