- Milyen okostelefont vegyek?
- Google Pixel 9 Pro XL - hét szűk esztendő
- One mobilszolgáltatások
- Samsung Galaxy S25 - végre van kicsi!
- 45 wattos vezeték nélküli töltés jön az új iPhone-ba
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Fotók, videók mobillal
- iPhone topik
- Motorola Edge 50 Neo - az egyensúly gyengesége
- Elkészült és telepíthető az Android 16
Új hozzászólás Aktív témák
-
Busterftw
nagyúr
válasz
Raggie #48803 üzenetére
Nekem vilagos, en is errol beszeltem eddig.
Ettol fuggetlenul ha hirtelen 80% vesz AMD-t hirtelen, az megjelenik azert eleg hamar, lasd a 9070XT vagy az 5000 szeria.
Ha jol emlekszem az elozo AMD-k sokkal lassabban jelentek meg.
Ettol fuggetlenul az aranyok szamitanak.Azert itt havonta (neha korrekcioval) van frissites, tehat par negyedevev utan egesz jo kepet kapni.
Ha megnezed peldaul a 5080 0.38%-on all, az elso helyen most a 4060 Laptop GPU 4.99%-on, aranyaiban az hatalmas mennyiseg am, par honap alatt. -
gainwardgs
veterán
válasz
Raggie #48699 üzenetére
"Azaz felújított next-gen grafikát kapott.
Természetes, hogy több erőforrást is igényel, mint az eredeti." Pont így próbálják bemagyarázni a magasabb gépigényt
"Nem tudom ugyan, hogy a látványban ez ki is jön-e, de a gépigény növekedés azért várható volt."
Generációs ugrás van látványban, jah mégsem[link]
Én minimum ezt [link] nevezném felújított next-gen grafikának az eredetihez képest -
válasz
Raggie #47516 üzenetére
Pedig nem kell ebben kételkedni, "fű-fa", rengeteg cég (a kicsitől az egészen nagyokig) vett most AI cuccot... azért ekkora az ugrás.
Azért van most ekkora ugrás a korábbiakhoz képest, mert a ChatGPT és hasonlók előtte nem voltak képben.
Most viszont mindenki meglátta benne a "fantáziát". -
-
-
Raggie
őstag
válasz
Raggie #47177 üzenetére
És ez nem önmaga tényéért probléma. Nem az a gond, hogy itt kiváló lesz a képminőség. Hanem az, hogy ez egy benchmark, azaz ezt nagyon sokan azért futtatják, hogy ne kelljen sok tucat más játékon tesztelni, hanem inkább csak ezt és ebből az általános, a többi játékokban tapasztalható teljesítmény és minőségre vonjanak le előre következtetéseket.
És ez együttesen az előzőekben leírtakkal, na AZ a problémám.
#47176b. : bele szerkesztetted a "lenne" kifejezést. Igen ez így korrekt volna, ha a teszt címe az volna, hogy "What if DLSS implementation would be perfect in games feature test"
De nem az.
A címe simán "DLSS feature test"...
EDIT:Ja és ha jól emlékszem van már FSR feature teszt is, és arról is pontosan ez a véleményem. -
válasz
Raggie #47175 üzenetére
Értem és igaz amit írsz. Referencia célt szolgál szerintem .
Tehát a teszt azt mutatja meg milyen lenne tökéletes megvalósításban ehhez képest a játékokban a beépítés minősége szerintem inkább jó, mint rossz.
Gyakorlati tapasztalat, mindennapi használat, nem teszt alapján írom amit írok. -
keIdor
titán
válasz
Raggie #47109 üzenetére
Szerintem nincs baj a felskálázással, ha az olykor szebb képet ad, mint a natív, +10 fps-t még.
A baj akkor van, ami a Remnant 2-nél is, hogy felskálázással számoltak csak a 60 fps-re, csak annyira optimalizálták, ami nonszensz.
Tartok tőle, hogy ez egy új trend kezdete lesz. Natívval kéne számolniuk és ha kell valakinek a plusz, akkor bekapcsolja. -
FLATRONW
őstag
válasz
Raggie #47109 üzenetére
A látottak és leírtak alapján nagyon úgy tűnik, hogy ezzel nem lehet annyi időt nyerni, hogy azt bármi hasznosabbra lehessen elkölteni.
A megjelenés után hónapokat kell várni, hogy rendbe rakják a játékokat. Moderek pedig egy hét alatt képesek beletenni, a fejlesztők valószínűleg még könnyebb helyzetben vannak.
Én azt mondom, hogy megjelenés napján legyen benne felskálázás, hogy legalább csökkenteni lehessen az teljesítmény gondokat. Ezzel is időt nyerve maguknak a további javításra.
Felskálázás nélkül pl. ezt a "csoda" Immortalt sem adhatták volna ki.
XSX és PS5-ön 4k FSR2 Ultra Performance (720p) módban fut a játék.
Series S-en pedig 436p az alap felbontás. -
válasz
Raggie #47105 üzenetére
Azt írta hogy a Starfieldben, ebben a játékban nem blokkolja a készítőket, nem azt hogy eddig nem tették.
Ez így 4 héttel a balhé után a sajtó/ közösségek nyomására érdemi lépés volt.Pug :
Nem hiszek senkinek csak véleményem van.
Ugyan ez lenne ha Nvidia blokkolná az FSR-t és az XeSS-t és vitatkoznék erről bárkivel mert az XeSS csak Intelen futó verziója is baromi jól sikerült a tesztek alapján.
DLSS közeli minőség és amúgy is szorítok Intelnek.
Nvidiát is rühellem azért, hogy a framegent nem teszi elérhetővé Amperen, én meg dönthessem el jó e nekem az a minőség.
Nem én találtam ki a dolgot ami media hírré tett és megfogalmazódott.
Nem tőlem származik a felvetés, ezek a táblázatok sem, az hogy a HU és GN erről videókat csinált és utána járt megkereste mindkét gyártót. AMD vel semmi gondom amúgy.
A témát én is unom és én is sokallom magam, nem akartam ezzel ennyit foglalkozni, szóval elhiszem, hogy te is. Tényleg elengedem. -
válasz
Raggie #46841 üzenetére
Inkább egy vélemény elég óvatos és jó nagy körítéssel és megfogalmazással. Nagyjából ők sem tudnak egyértelműen kijelenteni semmit, egy elképzelésük van róla. AZ hogy ez pénz vagy technikai segítség mindegy.
Nvidia szponzorált címeknél valahogy eljutnak oda a fejlesztők, hogy beépítik a konkurens megoldást .
hát izé...bírom a srácokat de hogy gyakorlatilag ott mi történik és miért nem merül fel ez egy AAA kategóriás támogatásnál bekerüljön XeSS és DLSS az továbbra is szerintem egyértelmű és ők is mondják, hogy igazából ők sem tudják ott mi hangzik el mi nem.. -
-
Petykemano
veterán
válasz
Raggie #45973 üzenetére
Döbbenetes, hogy...
... mi is lehet itt a jelenség tulajdonképpen?Ilyen mennyiségben kerül felhelyezésre hibás CCD? Azt gondolnám a CCD-ket még rögzítés előtt tesztelik és válogatják működőképesség és képességek alapján. Máskülönben nem tudnák előre eldönteni, hogy mely CCD-k mennek desktopra és melyek EPYC vagy Threadripper felhasználásra.
Háááát.... ez nem valószínű...Ilyen mennyiségben helyeznének fel tudottan hibás CCD-t a kupak stabilizása érdekében?
De akkor az összesnek ilyennek kéne lennie, nem?
Háááát.... ez sem valószínű...Ilyen mennyiségben hibásodna meg rögzítés közben egy-egy CCD?
Ez ugye azt jelentené, hogy elég magas a meghibásodás aránya. És egy epyc esetén, ahol 13 chipletet helyeznek fel ez még hatványozottan érvényes.
vagy
Létezhet, hogy az AMD egyébként 2 működőképes CCD-vel szerelt példányok esetén tiltja le az egyik CCD-t? -
Petykemano
veterán
válasz
Raggie #45955 üzenetére
Nos, ez nekem is eszembe jutott, hogy az ár rugalmasabb, mint az évekre előre lefoglalt volumen.
De egyrészt az AMD most fog kijönni az olcsó zen4-gyel. Meg az apuval. Nem tűnik úgy, hogy annyira szűkös lenne a kapacitás.
De ami ennél is fontosabb: ha ez igaz volna, akkor azt kéne látnunk majd, hogy navi33-at mocskos olcsón adják, hiszen N6-ből már kéne lennie dögivel.De valószínűleg az lesz, hogy Legjobb esetben is $3-400-t megy majd. Vagyis egy 6800 lesz 6700 áron.
-
Petykemano
veterán
válasz
Raggie #44892 üzenetére
Így fogalmaztam: "a bitcoin kivételével "
Épp azért, amit Te mondtál, mert jelenleg ez a gerince a spekulatív kriptovaluta befektetéseknek. Az indok a kivétel képzésére pedig megítélésem szerint az lenne, hogy azért, mert azt a GPU-knál jóval energiahatékonyabb ASIC-kal bányásszák. (Ami persze nyilvánvalóan bullshit, hiszen pénzügyi szempontból a tr/s, valamint a $/tr költség érdekes, környezeti szempontból pedig a kWh/tr) -
FLATRONW
őstag
válasz
Raggie #44859 üzenetére
Az a baj, hogy ez nem veszi figyelembe, hogy milyen a teljesítménye a PCI 3-as alaplapokban, a nulla RT teljesítményt, és a kivágott szolgáltatásokat. Semmivel sem jobb az ár/értéke, mint a 3050-nek.
Mindkét kártya gyászos ár/értéke csak a 6600-as sorozatot helyezi jobb fénybe. -
válasz
Raggie #44815 üzenetére
kb így van de egy nap sőt egy-két hét alatt nem szabad levonni következtetéseket még. Sokan vártak erre, 250 -350 euroért elég népszerű lehet és Neweggen volt 6 típus is ennyiért de 3 pillanat alatt elvitték. jelenleg neweggen is a 649$ es ár már 480 ra " mérséklődött" ( nagyon idézőjel) egy Asus strix személyben, már ez is haladás, el is fogyott, zero készlet van mindenből. reméljük 1 hónap múlva jobb lesz a helyzet.
-
FLATRONW
őstag
válasz
Raggie #44810 üzenetére
Ezek a kártyák nagyon nem érik meg az árukat, ez nem kérdés.
Viszont az a 15-25 százalék megvan 30-50 is, felbontástól függően, ha pedig régebbi alaplapba tesszük őket, akkor nagyon közelít a duplázáshoz. Ha úgy nézzük, hogy elkérnek 290 eurót egy agyonbutított, szolgáltatás szegény 6500 XT-ért, akkor simán elkérhetnek 650 eurót a 3050-ért, és ehhez még a bányászatot sem kell beleszámítani. -
Devid_81
félisten
válasz
Raggie #44810 üzenetére
UK-ban mar van "akcios" 6500XT is, epp tegnap lattam OCUK-nal volt £199-ert.
Oszinten megmondom ha nagyon nagy bajban van az ember inkabb ezt vegye, mint egy hasznalt nem garis 580-at, had ne mondjam az meg dragabb is...
Olyan ez a 6500 amilyen, de NV arakhoz kepest nyero. -
hokuszpk
nagyúr
válasz
Raggie #44693 üzenetére
MO jobban teljesit !
hosszutavon nemvaltozott semmi, regen is ez volt; nyugatra olcso ( csak most idezojelesen ), itt draga, ebet nem erdekelte, hogy errefele a nyugati fizuk toredekeert galyazunk.
es most, hogy az huf/euro megutotte a 370 -et, egy darabig biztos nem fog javulni. -
HSM
félisten
válasz
Raggie #44683 üzenetére
"meg ami az első nagy hullám alatti tényleges áruhiány alatt volt"
Az első áruhiányi hullám alatt kb. márciusban 350K körül lehetett venni aprón RX 6800XT-t. Most 500 alatt nem találsz sima RX 6800-ast sem. De szinte ugyanezt írhattam volna az RTX3070-re is, nagyságrendileg hasonló számokkal."Most is magasak a HA-s árak, de még mindig alacsonyabbak, mint amit a hazai boltok írnak ki."
Persze, hogy olcsóbbak, egy kupac pénzt már azon 'megspórolnak', hogy tipikusan a forrás ország lényegesen alacsonyabb áfájával értékesítik tovább, amit egy hivatalos bolt nem tehet meg.... Több tízezer forintnyi a difi már csak ebből kifolyólag. -
HSM
félisten
válasz
Raggie #44668 üzenetére
"már nem ilyen scalper árak vannak. Legalábbis pl HA-n."
Melyik HA-n?Én az itteni HA-n továbbra is fél millióért látom a legolcsóbb 6800-ast, de 6600XT-t kapok már 240-ért is. 240-ért, fele ennyiért is sok lenne...
#44669 Gyuri27 : "De a piac egésszére nézve átok."
Pont ez a baj a kapitalizmussal. A történelem azt mutatja, hogy ez prímán a tőke központosodásához, ami pedig a társadalmi különbségek elmélyüléséhez vezet. Látjuk, tapasztaljuk. Arra kíváncsi leszek, most ez hova fog vezetni, de nem vagyok optimista. -
Petykemano
veterán
válasz
Raggie #44668 üzenetére
"Itt a probléma inkább az itthoni kiskerek bődületes haszonkulcsával van."
Nos, én nem tudom, mi a helyzet. Abu júliusban, amikor az kriptó árcsökkenése miatt csökkentek a gpu árak is, azt mondta, hogy még hírtelen keresletzuhanás esetén sem hiszi, hogy az árak is zuhannának, mert a kiskerek nem szívesen vállalnák be a többszázres bukót a kártyákon, ami épp rajtuk fut keresztül, vagy amit épp sikerült készletre venniük - a nagykertől is drágán.Tehát te azt állítod, hogy a nagyker árak már normálisak, csak a magyarországi kiskerek tulajdonképpen kartelleznek? Hát nem tudom. Akkor egyre többen kéne hogy külföldről vásároljanak. Mekkora az árkülönbözet, amiért magyar kiskerből tudsz hozzájutni, vagy máshonnan?
"Én továbbra sem értem, hogy miért nincs egy bolt sem, aki elkezdene normális áron feliratkozó sorbanállós listával értékesíteni."
Erre szerintem lehet magyarázatot találni.
Pl ha a boltok sem jutnak hozzá az áruhoz "normális" áron. Tehát nem arról van szó, hogy ők normális áron szerzik be a nagykertől de aztán hatalmas árréssel hatalmasat kaszálnak. Ebben az esetben valóban lenne értelme azzal kitűnni, hogy lemondasz a hatalmas árrésről, de nagyjából mindenki inkább nálad akar vásárolni, ezért az összes eladott.terméken a hasznot te realizálod. De annak nagyjából semmi értelme nem lenne, hogy egy msrp alapján 150eFt-os kártyát ne 300eFt-ért vegyél meg, hanem 280e-ért, miközben a nagyker ára 250eFt volt.Ilyen kereslet/kínálat viszony (túlkereslet) esetén még az se kizárt, hogy valójában valahol olyan licit rendszer működik, hogy az kapja az arut, aki többet ajánl érte.
A lényeg, h ha akarná ae tudna msrp áron kínálni neked.
-
Petykemano
veterán
válasz
Raggie #44548 üzenetére
Épp azt mondtam, hogy a hírekben szereplő Jeff Bezos 2020-as gazdagodása nem közvetlenül annak következménye, hogy az amazon bevételei milyen mértékben nőttek meg, amiből ő aztán osztalék formájában részesült. Bármilyen sikeres is volt a cég, a vagyonnövekedése az amazon részvényárfolyam növekedésének köszönhető.
Az eredeti mondandom megkérdőjelezett része az volt, hogy a FED és EKB által 2020-ban a gazdaságba nyomott 3000-3000 milliárd euró/dollár eljutott-e tényleg a bajba jutott emberekhezés cégekhez és arra fordítódott-e, amire a jegybankok szánták. Az állításom pedig az volt, hogy döntően nem, hanem ez a pénz nagyobb részt a tőzsdén és a kriptovaluták piacán landolt - ami buborékot képzett (ha úgy tetszik, inflációt) okozott ezen piacok árfolyamaiban. Én azt állítotttam, hogy ez okozta Jeff Bezos vagyonnövekedését ez okozta, illetve, hogy Jeff Bezos járvány idején történt gazdagodása és az, hogy hová talált utat az 6000 milliárd dollár/euró új jegybankpénz, összefügg. Ezt kérdőjelezte meg zsid azzal, hogy az amazon sikeres cég. Én meg erre azt mondtam, hogy kétségtelen, hogy az amazon sikeressége (és a terület, amivel foglalkozik) nagy mértékben összefügg azzal, hogy miért pont az amazon részvények árfolyama, de a bevételnövekedés, a 2020-as magasabb fokú sikeresség nem magyarázza Bezos vagyonnövekedését.
Természetesen a részvényben lévő vagyon virtuális. Dollárban számoljuk az értékét, de nem dollárban van, de dollárrá tehető. Vagy kriptovalutává.. De ha így nézzük akkor a dollár értéke is virtuális. Ma még 1kg valamit kapsz 1 dollárért, holnap már csak 0.9-et.
Az eredeti posztom lényege az volt, hogy ezeknek az eszközöknek az ára azért nőtt meg, mert az új 6000 mrd dollár/euró az eszközök piacára talált utat. Az ingatlanárak az építőipart hozzák és az építőuipari alapanyagok árait. a kripto pedig a chippiacot. Ezek a piacok nem fognak beomlani. Ahhoz, hogy a jelenlegi buboréknak tekinthető árnövekedést le lehessen törni a gazdaságba belenyomott pénzt vissza kellene szívni a gazdaságból - és lehetőleg azoktól, akik a buborékot fújt vagyon fölött rendelkeznek, nem pedig azoktól a szegényebb rétegektől, akiknek az adóját könnyű pár százalékkal megemelni.
-
Petykemano
veterán
válasz
Raggie #44546 üzenetére
"Az, hogy egy cég részvényének az árfolyama felmegy és ezáltal a részvények tulajdonosainak megnő a vagyona nem azt jelenti, hogy hirtelen valaki sok pénzt utal nekik. Mert akkor amikor lemenne az árfolyam akkor vissza kellene utalni tőlük azt a pénzt. És ilyen pénzmozgások niylván nincsenek."
Tényleg ennyire sötétnek nézel? -
huskydog17
addikt
válasz
Raggie #44451 üzenetére
Bioshock 3 esetén egyszerűen az AMD DX11 drivere a ludas (driver overhead), arról a PCGH nem tehet, hogy a vörös oldal ilyen sok teljesítményt hagyott a driver-ben. Ironikus módon ezt a játékot ráadásul az AMD szponzorálta. Lehet látni, hogy a zöld oldal szépen skálázódik, az pedig tény, hogy az AMD nem nagyon foglalkozott a DX11-es driver optimalizálásával, ebben a játékban ez azt eredményezi, hogy a jelenlegi csúcs VGA, a Radeon 6900XT a GTX 1080Ti-al tudja felvenni a versenyt. A játék fejlesztését az AMD is felügyelte, hiszen a Gaming Evolved partnerprogramba is bekerült. Valószínűleg akkor úgy voltak vele, hogy 200 fps-nél több úgyse kell senkinek, csakhogy mára elég látványos lett a driveres teljesítmény-különbség.
A 2016-os Doom még rosszabb lett volna, mert a régi DX11-es VGA-k nem kaptak Vulkan támogatást, így csak OGL alatt lehetne őket összevetni, de ott a Radeonok még hátrébb lennének a pocsék (értsd: borzalmasan lassú) OGL driverük miatt, ami még rosszabb, mint a DX11-es driverük. -
-
huskydog17
addikt
válasz
Raggie #42808 üzenetére
"Az arány ugyanaz maradt volna, mert a számítási kapacitása naggyjából ugyan az lett volna."
Na látod itt a gond. Sok a feltételezés. Egy dolog az elmélet és egy másik a gyakorlat. Nagyon sokszor előfordult már a játékiparban ,hogy egy hardver nem úgy viselkedett néhány játékban, ahogy az elmélet elvárta, nagyon nem. Honnan tudod milyen számok lennének ott 6 magos Intel CPU esetén? Sehonnan. Lehet, hogy az arányok nem változtak volna, lehet, hogy változtak volna, épp ezért kellett volna 6 magos Intel CPU-t is tesztelni, hogy ne találgatás legyen belőle.
"A lényegen, hogy megmutassa a VGA driver overhead-et procilimet szituációkban ez nem változtat."
Olvasd át Abu írását erről, nem tudok jobbat ajánlani. Ha még az után is úgy gondolod, hogy ez egy korrekt, driver-overhead problémát korrektül reprezentáló teszt, akkor nincs miről beszélnünk.Szerk.: Abu megelőzött, amíg írtam a hsz-t.
-
Abu85
HÁZIGAZDA
válasz
Raggie #42808 üzenetére
Igazából ez nem driver overhead. Ezek DirectX 12-es címek. Van a meghajtónak némi többletterhelése, de megközelítőleg sem annyi, mint DirectX 11-ben. Az alkalmazás gondoskodik egy rakás olyan feladatról, amit korábbi API-knál a driver csinált. Ergo a többletterhelés igazából az alkalmazáson belül keletkezik, nem a driverből. Ezt is meg lehet magyarázni, főleg amiatt fordulhat elő ilyen, hogy egy játékot Radeonokon fejlesztenek le, és nem ellenőrzik a Radeonnal detektált problémákra adott válaszokat, hogy azok mennyire működnek optimálisan GeForce-on. Ez is gond, de nem a driver az oka. Ezt leginkább per alkalmazás szinten kell leprofilozni és javítani. Az más kérdés, hogy egy fejlesztő a problémát tényleg akkora jelentőségűnek tartja-e, hogy foglalkozzon vele. Elvégre maga az alkalmazás hibátlanul fut, csak nem olyan gyorsan, mint elvileg futhatna.
-
huskydog17
addikt
válasz
Raggie #42805 üzenetére
Én meg téged nem értelek.
"Egyáltalán nem a procikat hasonlította össze."
Dehogynem. Azt nézte hogy mely CPU alatt milyen a tempó, ez alapján tett egy teljesen téves következtetést, CPU-k vannak a grafikonban és nem VGA-k."Az nVidia és az AMD grafikus drivereinek a CPU overhead mértékét akarta demonstrálni."
Akarta, csak nem sikerült."Csak azért került bele a tesztbe az i3-as, hogy megnézze intellel is jelentkezik-e ez a probléma."
Ha az Inteltől 4 magost választott, akkor AMD-től miért nem? Vannak 4 magos Ryzenek is. Low-end CPU-kat vetette össze de mégis bekerült egy 300 dolcsis feletti 5600X. Az 5600X a legkevésbé sem low-end CPU.
Ha fontos volt egy 300+ dolcsis 6 magos AMD CPU alatt megnézni a driver "overheadet" akkor a 150 dolcsis 6 magos Intel CPU alatt miért nem lehetett? Főleg úgy hogy a 4 magos Intel CPU hozza a régi 6 magos AMD CPU-k tempóját"Egyáltlán nem arról szólt a teszt, hogy melyik 6 magos Rzyen hogyan teljesít a4 magos i3-as ellen."
Nem arról szólt, de ettől még unfair és torz a teszt."Azért ez a proci került bele a kékektől, hogy biztosan proci limit legyen."
Ke? Kizárólag Core i3-10100 alatt létezik CPU limit a kékeknél? No. HA az 5600X-nél is van CPU limit, akkor a 10400F alatt is és pont ettől lett volna érdekes és korrekt. Könnyen lehet, hogy a két tesztelt játék (már ez totál nonszensz és fail, hogy két játékból von le általános következtetést) kisebb CPU limitet mutat Intel esetében, nem ez lenne az első ilyen eset, sok ilyet láttunk már az elmúlt években.Mindegy is, az egész videót felesleges volt megcsinálniuk és kirakniuk ilyen formában, mert teljesen hamis következtetést vontak le az egészből és néhány embert talán még félre is vezetnek ezzel. Csodával határos módon még Abu is megmagyarázta hogy miért nem volt ez okos húzás.
# 42808: Egy értelmetlen tesztet nehéz jól értelmezni.
Többen is elmagyaráztuk részletesen, hogy mi a gond a videóval, olvasd el a linkelt írást és talán jobban megérted.
-
Mumee
őstag
válasz
Raggie #41714 üzenetére
Mivel sok különböző oldal tesztjeinek átlaga van feltüntetve a grafikonon, így kellőképp helytálló a nagy számok törvénye szerintem.
Ezt írtam is, hogy sokféleképpen torzítható, azonban a grafikon több oldal tesztjei alapján készültek, az adott generációváltás idején. Ennél nem nagyon tudsz kevésbé torz képet kapni.
Amúgy HUB (hardware unboxed) is ezt a 3080 vs 2080-at hozta fel és ott is írták, hogy két különböző tier-ben készült SKU összehasonlítása igencsak problémás és a generációs ugrás-ra értelmezhetetlen adatot ad, ha nem azonos SKU-kat hasonlítunk.
Belinkelem csak, hogy legyen nyoma miről írok (igaz elírta a saját tesztjeik alapján is a számot, ha jól írták akkor 69%-nak kellene lennie)
Tehát így beillene a a jó generációváltások közé, ha a fent említett gond nem lenne az összehasonlítással.
-
válasz
Raggie #40592 üzenetére
Mondjuk azt nem értem miért is jár jobban. Kb a két kártya között van 20 dollár eltérés és 2 % teljesítménykülönbség játéktesztektől függően. cserébe az Nvida driveresen kiforrottabb, van RT, fejlettebb stream támogatás.
Plusz hozzátenném hogy az RTx 2060 nem véletlenül maradt meg egyedüli sku nak a régi szériából. hónapokkal ezelőtt, biztos vagyok benne hogy tudatos döntés volt és az 5600 XT nek szánták.
A harmadik hogy másfél éve a 2060 kijövetelkor a 350 dolláros 2060 miatt kellett AMD nek lecsökkentenie a 439 dolláros Vega 64 és a 379 dolláros Vega 56 árát. Ez az örök körfogás jelenti a fejlődést.
reméljük ősszel vagy télen az Nvidia miatt 200 dolláros lesz az 5600 XT -
válasz
Raggie #40592 üzenetére
Egészen addig az is marad amíg az nVidia ki nem ad valami újat, vagy jelentősen le nem csökkenti a 2060S árát(nem fogja).
Ebben egyetértünk, de az RX5600XT ellenfele a sima RTX2060, nem az RTX2060Super.
Arra nem számítok, hogy 2020Q2-ben ebben az árrégióban kijöhet az nVidia új kártyája, de tippre őszre már így lesz.Addig az RTX2060 és az RX5600XT fog versengeni...
A nanométerek semelyik vevőt nem érdeklik! Még minket("enthousiast") vevőket sem! A teljesítmény igen.
Áttételesen pedig érdekelhet. A 12nm-es GPU-t olcsóbb gyártani, mint a 7nm-est. Szvsz az nVidia még így is bőven nyereségesebb az RTX2060-ba kerülő selejtes TU104 és TU106 GPU-k eladása terén, mint az AMD az RX5600XT-be kerülő selejtes Navi10-esk terén...Szvsz az nVidia csak azért nem 279$-re vitte le az RTX2060 árát, mert az "old bios"-os RX5600XT teljesítményt várta. Ilyen téren ezt az kört az AMD nyerte.
A másik oldalról viszont elég kínos, hogy az AMD csak azt a teljesítmény/fogyasztás szintet tudja kihozni a 7nm-ből, amit az nVidia a 12nm-ből hoz ki. Az nVidia a 7nm-re váltásnál várhatóan kényelmesen tudni fogja adott fogyasztási szinten a 30%-os fogyasztáscsökkentést. Vagyis az nVidia kártyák kevesebbet fognak fogyasztani, kisebb és olcsó hűtő elegendő lesz a lehűtésükre és olcsóbb VRM-el is beérik. Ezek mind olyan tényezők, amik az árakat befolyásolják.
Mert az nVidia sem csökkentette volna le a 2060 árát akkor ha nem jön az 5600XT!
Ezt nem is vitatom. A baj csak annyi, hogy ennek az árversenynek 4-5 hónapja nagyobb hatása lehetett volna az AMD-re. Az nVidia ebből a helyzetből összességében jobban jött ki, a karácsonyi vásárlásoknál feltehetően hülyére kereste magát, most meg már csak követi az eseményeket, és előkészíti a piacot az Arcturus számára...Nyilván jobb volna ha erre fél/egy éve lett volna képes az AMD, de azért így is jó és nem pedig rossz.
Ahhoz, hogy az nVidia szintjére eljusson az AMD, ahhoz bevétel és nyereség kell, az nVidia most már két éve folyamatosan több nyereséget termel a dVGA üzletágon, mint az AMD forgalmat ugyanitt.
Akármi miatt is csúszott az RX5500 és RX5600 széria, a vége az lett, hogy az AMD meglehetősen sok pénztől esett el, így legalábbis egyenlőre, kevesebb pénz jut a fejlesztésekre és arra, hogy beérjék és egyenrangú felek legyenek az nVidiával. -
Raymond
titán
válasz
Raggie #40313 üzenetére
"The GPU ranking table above shows the performance differentials across 18 graphics cards at 4K resolution, using just the final St Denis test of the in-game benchmark (hence results are different than the results in the video - even if the overall trend remains the same)"
A beallitasokat es a videokat nem aszerint csinaltak mint ami a lenti eredmenyeknel latszik, ki tudja mi van meg ott mashogy. Az a 27FPS egy logikus/ertelme eredmeny es mas oldalak/csatornak eredmenyeinek is megfelel (pl. TPU/PCGH/HUB) ahol 15-17FPS Ultra-n es eleve High-ra leveve 38%+ vagy optimalisabb beallitasok mellett (de meg mindig a konzolos es a DF-es Console+ felett) mar 50%+ a teljesitmeny. Igy mar ott a 25FPS es ha meg lejebb viszed hogy a konzoloknak feleljen meg akkor siman ott vagy a 27-nel amit a videoban latsz."tehát azért egy jó 50%-al többet ki tudnak hozni szerintem az azonos konzolos hardverből."
Ne haragudj de ez badarsag. Magikus erok egyelore nincsenek a konzolokba beepitve. -
Raymond
titán
válasz
Raggie #40311 üzenetére
Az XB1X-ben egy kb. RX580-nak megfelelo GPU van +27% mem savszellel megalldva. A tesztelt beallitasok pedig ezek voltak:
"We've stuck to the console equivalent settings but added 8x anisotropic filtering and where Xbox One X used hybrid settings, we've opted for PC's higher equivalent - think of this as 'consoles plus' if you like."
Tehat meg mindig jobb/terhelobb beallitasok mint az XB1X es ez lett az eredmeny:
Igy van az RX580 olyan 10-15%-ra elmaradva. A konzolok egyebkent ezekben a felbontasokban szamolnak:
XB1(S) = 1536 x 864 = 1.33 Mpix
PS4 = 1920 x 1080 = 2.07 Mpix
PS4Pro = 1920 x 2160 = 4.15 Mpix
XB1X = 3840 x 2160 = 8.30 MpixAz XB1X teljesitmenyehez ott az RX580, a savszel kiegyenlitesehez kell egy kis OC neki. A tobbi konzol teljesitmenyen nemhogy elerni de le is hagyni boven eleg egy RX570 is.
Csodak egyszeruen nincsenek, ez a jatek nagyon shader intenziv, kell neki a kakao az meg nem terem a semmibol csak azert mert a GPU egy konzolba van beepitve es nem egy grafikus kartyan ucsorog.
-
Abu85
HÁZIGAZDA
válasz
Raggie #40089 üzenetére
Nem az API a hibás. A Borderlands 3 esetében a memóriamenedzsment a gond. Ezt úgy fogják orvosolni, hogy az egészet úgy ahogy van kicserélik az AMD által írt D3D12 Memory Allocatorra. Viszont ezt nem tudják csak úgy kiadni, mert utolsó pillanatban hozott döntés, és nincs elég teszt erre vonatkozóan.
A probléma onnan származik, hogy az Unreal Engine 4 DirectX 12-re írt memóriamenedzsmentje nem thread-safe. Tehát nincs garantálva, hogy többszálú feldolgozásnál hibátlanul működik. Ellenben a Borderlands 3 többszálú parancsgenerálást használ, amivel az erőforrások létrehozása is többszálú. Na most a thread safety probléma kezelésére van beépítve a motorba egy olyan rutin, amely ellenőrzi folyamatosan, hogy az adott erőforrás használatban van-e, és ez okozza a rendkívül rossz működést. Ennek a megoldása az Unreal Engine 4 esetében az, hogy a rendszer csak erősen korlátozottan használjon többszálú parancsgenerálást, úgy, hogy ne kelljen alkalmazni ezt a rossz hatásfokú rendszert. A másik lehetőség a Vulkan, ugyanis a Vulkan API tekintetében az Unreal Engine 4 már thread-safe memóriamenedzsmentet használ, csak az erre vonatkozó fejlesztések, még nem kerültek visszaportolásra a motor DirectX 12 leképezőjébe.
A harmadik lehetőség írni egy egyedi DirectX 12-es memóriamenedzsmentet az Unreal Engine 4-be, vagy beépíthető az AMD D3D12 Memory Allocator, ami eleve thread-safe megoldás. Viszont az Unreal Engine 4 miatt ebbe is lehet, hogy módosítás kell, mert ezt a memóriamenedzsmentet az AMD az erőforráshalmazra vonatkozó specifikációknak a tier_2-es szintjére írta, és ugyan kezeli a tier_1-et is automatikusan, csak szimplán olyan egyszerű megoldást alkalmaz rá, hogy elszeparálja az erőforrásokat és kész. Szóval valószínűleg lesznek itt is módosítások még, bár kiindulásnak jó.
-
huskydog17
addikt
válasz
Raggie #40086 üzenetére
Van minden: extrém hosszú töltési idők, random összeomlások, képarány problémák, sokaknak el sem indul DX12-ben a játék stb.
Teljesen mindegy, mert használhatatlan, a felhasználókat a legkisebb mértékben sem érdekli, hogy miért, azt látják és tapasztalják, hogy egy fos, míg DX11-ben a játék jól működik. Ez olyannyira tény, hogy maguk a fejlesztők és kiadó is a DX11-et javasolja mindenkinek.
Ah, hogy később jobb lesz-e, nem tudni, de igazából annyira nem is fontos, mert mire rendbe rakják, addigra nem az a játék lesz a trendi, vagyis szinte senkit nem fog érdekelni, a launch-ra kell jól összerakni, hogy nagyon szóljon. Utólag hiába kalapálják helyre, senkit nem fog érdekelni, elékezz csak vissza az AC Unity-ra, ott is a launch technikai szempontból katasztrófa volt, utólag ugyan rendbe rakták, de a legtöbb ember ugye a launch-ra emlékszik és elkönyvelték, hogy az a rész egy sz*r, miközben ma semmi baja nincs (saját tapasztalatból is mondom).
Control-nál ugyanez volt, a DX12-es mód súlyos problémákkal küzdött (lehet még ma is), emiatt sokan DX11-ben tolták/tolják.#40087 do3om: Szerencsére akad 1-2 üdítő kivétel, ahol a DX12 lényegesen jobb lett a 10 éves DX11-nél, az egyik legszebb példa ugye a Shadow of the Tomb Raider, ahol a kiadó nyomás ellenére a Nixxes példa értékű DX12 leképzőt készített. Az is tény sajnos, hogy nagyítóval kell keresni azokat a címeket, amelyek DX12-ben lényegesen jobban működnek, mint DX11 alatt.
-
válasz
Raggie #39975 üzenetére
Én úgy tudom a GPU hátulján, a forrasztásoknál van a legnagyobb hőterhelés.
Abu85: leírtam a cikknél is: ezzel egyetlen egy gond van, hogy a Costum hűtős modellek 73-74 fokosak azt jelentené, hoyg azok a régebbi mérés módszerrel 60 fokosak lennének? nem fogom ezt elhinni, már bocs.
A másik hogy a te állításod pont azt eredményezné, hogy a régebbi modellek könnyebben futnak nagyobb órajelen...
-
-
-
-
Raymond
titán
válasz
Raggie #38858 üzenetére
Mar kerdeztem a kollegat is - mi koze van ennek az RTX-hez? Azt eleve azert araztak ugy ahogy mert 6 honapnyi old gen cucc votl a nyakukon tavaly osszel, valahogy el kell azokat is adni igy azok maradtak az aktualis aron az uj cuccok meg a +1 kategoriaba lettek arazva - 70-es a 80-as aran a 80-as a 80Ti aran a 80Ti meg a csillagokba. El is fogyott meg karacsony elott az osszes 1080Ti ami raktaron volt.
-
Raymond
titán
válasz
Raggie #38851 üzenetére
Nem csak a banyara termelt, hanem egyszeruen oda mentek a kartyak es termelesnoveles alig volt. Ellenben az NV-vel ahol noveltek a termelest. Valahogy igy:
Osszesen 100 kartya kerul eladasra, ebbol 30 AMD es 70 NV. A banyaszlaz alatt az AMD-nel meg mindig 30 kartya volt vagy csak kicsivel tobb (az AMD nyilatkozata szerint) es az gyakorlatilag mint ment a banyaba, az NV-nel meg az lett hogy a 70-bol lett 140 kartya igy meg ha a zome ment is a banyaba maradt a retail piacra is azokon az arakon amiket lattal.
-
válasz
Raggie #38663 üzenetére
Civ VI egy teljesen új alapoktól épített grafikus motort használ ami rendkívül jól skálázódik a Nintendo Switchtől - a legújabb CPU és GPU ig több OS en át ( Linux, MAC, Android) szinte mindenre portolható.
Több értelme van mint az Ashes of the Singularity nek mert az egy demo semmi több, minimális játékosbázissal, CIV meg egy nagy játékosbázissal bíró neves cím.
Szerintem kell egy tesztben egy használható stratégiai játék, régen elképzelhetetlen volt enélkül egy valamire való teszt.
Az más tészta, hogy nem igen dolgoztatja meg a GPU-t ez a szintű grafika, amit CIV tud. -
Puma K
nagyúr
válasz
Raggie #38237 üzenetére
Nem az árazással kapcsolatban írtam és nem is az általad fantáziált-vélt "jövőbelátási" képességemet firtattam, hanem erre reagáltam első sorban:
"... a 2060 hamarabb fog kukába kerülni, és már ma is kompromisszumos itt ott..." - [link]
Ezért volt az összehasonlítás, hogy hiába az RTX 2060 6 GB VRAM-os, mert sebesség szempontjából nincs vele baj.
Mert ugyanúgy fog "kukázódni" mint egy régebbi-mostani 8 GB VRAM-os kártya (Vega 56/64, GTX 1070 Ti/1080), mivel a GPU ereje kapásból limitáló tényező lesz így előbb lesz a grafika visszavéve mint sem a VRAM lenne a probléma forrása.
Persze lehetnek VRAM igényesebb játékok, de nagy átlagnál megállja a helyét.
Egy alsó-közép / közép kategóriás kártyán ennyi azaz 6 GB VRAM elég... több nem is kellhet rá jelenleg.
Egy 1080 Ti-re is elég lett volna 8 GB VRAM (lásd RTX 2080 8GB), de ez nem lett volna kivitelezhető, mivel az egy Titan X kevesebb részegységekkel és magasabb órajelekkel:
GTX 1080 Ti vs TITAN X
2.75 MiB / 2,816 KiB L2 Cache 3 MiB / 3,072KiB
3584 Shader Units 3584
88 ROPs 96
1480 MHz Core Clock 1417 MHz
1582 MHz Boost Clock 1531 MHz
11000 MHz Memory Clock 10000 MHz
352 Bit Bus width 384 Bit
11264 MB VRAM 12288 MB
12000M Transistors 12000M
250W TDP 250WNem lehet hogy volt 3 GB-os 1060 hanem még most is van.
Hiába vágott, jó választás volt anno és most is, annak akinek arra volt-van pénze.[ Módosította: Intruder2k5 ]
-
válasz
Raggie #38103 üzenetére
Az AMD tesztje, amiben a vega64-hez hasonlították - utóbbiról meg tudjuk, hogy átlag 40%-al lassabb a 2080nál.
Ebből persze még akármi lehet, de nem tűnik óccó blockbusternek.
-
Devid_81
félisten
válasz
Raggie #38103 üzenetére
Abbol a tablazatbol amit az AMD kozolt ott volt egy ket cim amiben a Vega VII lassabb volt, de ugyan akkor volt gyorsabb is par cimnel.
Gondolom ezt a -10% ot most kiragadtak sokan abbol a nehany jatek cimbol...de meg kezzel foghato teszt nincs addig szerintem kar nagy kovetkeztetest leszurni ebbol -
-
Raymond
titán
válasz
Raggie #38079 üzenetére
A darabszam kerdeses de az hogy nem lesznek custom kartyak az mar az egesz bruhaha kitorese elott is vilagos volt:
"The reference card we showed on stage at CES with three axial fans will be the finished design users can purchase on AMD.com, and from leading e-tailers, our AIB partners and inside the Dell Alienware 51 system."
AMD Radeon VII Interview with Scott Herkelman
Tehat vehetsz Asus vagy MSI vagy Sapphire Radeon VII-et, de ugyanaz a kartya lesz ugyanugy mint peldaul eredetileg az RX kartyak vagy a Vega megjelesekor, csak ebbol kesobb se lesz mas kivitel.
-
Puma K
nagyúr
válasz
Raggie #38079 üzenetére
Olvass te is, mert maga AMD-ék nyilatkozták azt a kínaiaknak, hogy szerintük lesz annyi kártya ami az igényeket ki fogja tudni szolgálni.
Tehát aki majd ki tud adni érte minimum 700 USD / 200k Ft-ot és hajlandóak a váltásra a meglévő VGA kártyájukról, azoknak lesz kártyájuk. Avagy azt a pár ezer embert ki fogják tudni szolgálni referencia kártyával.
Más szóval maga az AMD sem számít nagy rohamra ennél a kártyánál.
A személyeskedést nem lehet elhagyni amúgy?
-
Puma K
nagyúr
válasz
Raggie #38077 üzenetére
Írás megjelenése: 2019.01.17. 11:00
"A kínai média szerint mindössze 5000 kártya lesz kész a februári indításra, de az AMD ezt tagadja."
"... az információik szerint csak a CES-en bemutatott referenciakártya lesz kapható átmatricázva mindegyik partner kínálatában, és a helyzet hosszútávon sem változhat ... kevés GPU készül, hiszen a TSMC 7 nm-es gyártókapacitása is véges ... az AMD az új Ryzeneket is azon gyártatja."
"Az AMD a MyDriversnek azt nyilatkozta, hogy konkrét számokat nem fog mondani, de szerintük lesz annyi kártya az induláskor, ami lefedi az igényeket."
Mindez majd úgy is kiderül a gyakorlatban.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- HiFi műszaki szemmel - sztereó hangrendszerek
- Milyen okostelefont vegyek?
- Genshin Impact (PC, PS4, Android, iOS)
- NVIDIA GeForce RTX 3080 / 3090 / Ti (GA102)
- Milyen légkondit a lakásba?
- Xbox Series X|S
- Google Pixel 9 Pro XL - hét szűk esztendő
- Radeon RX 9060 XT: Ezt aztán jól meghúzták
- Teljes verziós játékok letöltése ingyen
- További aktív témák...
- Bomba ár! Dell Latitude 5400 - i5-8GEN I 16GB I 512SSD I 14" HD I HDMI I Cam I W11 I Gari!
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
- BESZÁMÍTÁS! MSI X470 R7 5800X 32GB DDR4 512GB SSD ROG STRIX RTX 2080 Super 8GB Rampage SHIVA 650W
- Országosan a legjobb BANKMENTES részletfizetési konstrukció! Vásárolj okosan, fizess kényelmesen!
- Eladó Apple iPhone Xr 64GB fekete / ÚJ KIJELZŐ / 100% AKKU / 12 hónap jótállással!
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged