- Samsung Galaxy S25 - végre van kicsi!
- Apple iPhone 16 Pro - rutinvizsga
- Honor Magic6 Pro - kör közepén számok
- Mobil flották
- Samsung Galaxy A54 - türelemjáték
- Garmin Forerunner 970 - fogd a pénzt, és fuss!
- Hammer 6 LTE - ne butáskodj!
- Xiaomi 11 Lite 5G NE (lisa)
- Milyen okostelefont vegyek?
- Huawei Watch Fit 3 - zöldalma
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
Szerintem zen2-ből 8/16 3GHz megvan 35-45W-ból. Ha jól emlékszem az utolsó jaguár magokhoz képest 4x nagyobb erőt jelent.
A pc felhasználók zömének sztem azért 4 magos a gépe, mert ennek zöme gamer noti, amiből elég általános volt a.4 mag Intel, nvidia gpuval. (Nem ok nélkül)
Idén megjelent a 6 magos Intel noti proci, jövőre a 8 magos Renoir.
Lassú lesz, de elindul az átmenet. -
Jó, hát itthon minden drága, ami új, nem mondanám reprezentatívnak.
1660S helyett meg nincs semmi. Valószínűleg az a gond, hogy a Polarisokat az AMD ki akarja szórni, s addig belőtte az árat az 1650S mellé. Habár én azt is el tudom képzelni, hogy az AMD-t nem igazán érdekli ez a piac, lásd a teljes lapkák az almás gépekbe mennek, meg úgy általánosságban is az OEM-et részesítik előnyben.
-
Z_A_P
addikt
de a többi elég meh...
Ne viccelj, az Integer Display Scaling must have.
4K munka, FHD jatek.Szerk, na, jo, lassuk
New UI - letojom, kepek alapjan nekem jobban tetszik a mostani "monokrom" gui
AMD Link enhancements - letojom, azt sem tudom mi ez
Radeon Boost - ez erdekes
Tuning Tab - wattman mukodik, ne piszkaljak
Streaming Tab - letojom, marhasag
DirectML media filters - letojom, mediat kulon dedikalt lejatszoval
Image Sharpening - eddig is volt
Radeon Anti-lag - erdekes, de volt sok minden eddig is
Integer Display Scaling - HURRA VEGRE!!!
Web Browser - pff..hagyjuk mar
System status - volt, ott az aida/hwinfo/stb
Game Center - marhasag, ott a totalcmd, az a game centerem
User profiles - volt (wattmanhoz legalabbis)
Installer - letojom, egy szamit minel ritkabban kelljen hasznalni -
Raymond
titán
De hogy lehetne ha nincs benne abban a szuper titkos csoportban amelyiknek a tagjait kulon kulon egy heten keresztul csempeszik be az epp fustolgo Uj Zelandi vulkan alatt talahato titkos bunkerbe ahol aztan a technikai es termek prezentaciokat megtartjak az adott kivalasztottaknak?
-
Egyetértek.
Mondjuk érdekes lesz majd olvasni azok hozzászólásait akik szerint a DLSS szar volt képminőségre ez meg ficsőr...
Én minden ilyen eljárást ignorálnék mindkét oldalon ,de szerencsére PC-n kikapcsolható opció egyenlőre..valószínűleg ezt az eljárást konzolra fejlesztették és onnan ér most ide.
Persze várjuk meg a független teszteket, lehet hogy használható lesz... -
Tyrel
őstag
Szerintem meg tök jó ötlet, csak tartok tőle hogy sok játékban nem fog jól működni, vagy nem értem hogyan oldják meg. Pl. nagyon soknak az UI méretezése és elrendezése fix egy-egy adott felbontáshoz, és ha a driver folyamatosan változtatgatja azt a felbontást (olyan értékekre is amik nem szabványosak) akkor kíváncsi leszek mi fog történni...
Sok játékban van 'resolution scale' beállítás, szerintem ez is tök ugyan azt csinálja csak épp dinamikusan tekergeti, de amelyik játék/motor nincs erre alapból felkészítve ott szerintem lesznek gondok. Értsd. szerintem nem lehet csak úgy resolution scale-t állítani egy olyan motoron ami nem tudja hogy az micsoda, így marad az a lehetőség hogy a tényleges resolution-t változtatja (nem a display outputét, hanem a vászonét amire a játék rajzol), azt viszont sztem sok játék rossz néven veszi majd.
Maga az alap ötlet egyébként szerintem tök jó, mivel (gyors) mozgás közben nem látod amúgy sem olyan tisztán a képet, ha meg megállsz akkor visszakapod a rendes képminőséget. Cserébe több lehet az fps, ill. remélhetőleg főleg a min fps.
Szerintem ez a feature elsősorban azoknak szól akik 4K monitorokon játszanak, mert sok olyan játék van amik egy 5700-tól erősebb videokártyát is letérdeltetnek ekkora felbontáson.
Cifu te azért nem látod ennek az előnyét mert (profilod szerint) még mindig meg vagy rekedve FHD-n, neked a Virtual Super Resolution szól.
Ahogy nagyfelbontású kijelzőre váltasz te is rögtön értékelni fogsz egy ilyen feature-t, ami megengedi hogy a monitor natív felbontásán maradj (!!!), de közben szükség szerint csökkenti a resolution scale-t, és a RIS segítségével annak negatív hatását is megpróbálhatja kicsit elfedni.
Papíron nincs ezzel a világon semmi baj, sőt nagyon jó ötlet, csak érteni kell mire való. Majd a gyakorlatban lesz vele baj, mikor kiderül hogy sok játékkal nem működik...
-
Tyrel
őstag
Értem én, csak azt mondom hogy AMD-től nem fognak pofont kapni mert vagy egy éves lépéshátrányban vannak... A Turing-okat lehet hogy leverik az RDNA2-vel, de az Ampere-t meg nem, és megint nVidiáé lesz a piac...
Inteltől meg megint nem fognak pofont kapni, mert Raja csak egy nagy vetítőgép...
-
Abu85
HÁZIGAZDA
Az Arcturus az nem GPU. Nincs is benne kijelzőmotor. Ez egy teljesen új AI gyorsító. Képes amúgy GPU-ként működni, de csak VDI szinten, oda ugye nem kell kijelzőmotor. De ettől még nem igazán lesz jó itt a teljesítménye, mert AI-ra van kigyúrva.
A másik a teljesítmény. Az Arcturus a mostani GPU-k tréning teljesítményének a bő négyszeresét hozza. Nagyjából 40-50 TFLOPS lesz tréning mellett, míg a többi GPU itt 15 TFLOPS körül megáll.
(#44505) hokuszpk: AI tréningre jelenleg azért kell FP32. Mert az FP16 kisebb exponenst használ. Erre jön a bfloat16 , ami 32 bites lebegőpontos adattípussal megegyező exponenst használ, tehát lényegében ebből a trükkből megduplázod az AI tréning szakaszának teljesítményét, miközben az eredmény ennek nem látja kárát.
-
hokuszpk
nagyúr
a Radeon Instict is GCN.
ha igaz a 400W, barmennyire is elvetemult tud lenni fogyasztas ugyben az AMD, azert ketlem, hogy desktop piacra hozna ennyit kajalo termeket.
Valami szerveres gyorsitoba elmehet, de oda valoszinuleg nem kellenek az RDNA jatekosoknak kedvezo ujitasai, viszont a GCN eros compute teljesitmenye tovabbfejlesztve nagyonis, ( emlekeimszerint a Vega fp64/fp32 peak joval meghaladja a Navit ) es azon a piacon talan az optimalizalas sem ismeretlen fogalom. -
Abu85
HÁZIGAZDA
Youtuber előírások például lehetnek. Mi leszarjuk ezeket, de van olyan gyártó, aki csak akkor ad hardvert tesztre, ha nem használsz explicit API-t. És itt most nem az NV-re vagy az AMD-re kell gondolni, ők ebbe manapság nem szólnak bele, hanem a konkrét gyártókra, akik készítik a VGA-t.
Az RX 5500-ak teljesítménye játéktól és modelltől függően RX 580 és Vega 56 közötti. RX580-hoz szinte mindig közel van a régebbi játékokban. Az újakban inkább RX 590, míg esetenként annyira előnyös az RDNA, hogy a Vega 56-hoz is közel kerül. A legújabb Frostbite-ot például nagyon szereti. Battlefield V-ben van, hogy a Vega 64 is megvan a PowerColor 8 GB-os modelljének (mondjuk az meg van húzva rendesen).
(#44439) Tyrel: Működik a driver, csak decemberben lesz a szokásos nagyfrissítés. Annak is van már alpha verziója. Valamikor következő hónap közepére várható publikusan.
-
sutyi^
senior tag
Az egyik egy csutfasz méretű GPU, a másik meg már a lassan féléve gyártásban lévő Navi 10 "selejtje".
A tészta szűrőt nem igazán értem, mert az összes valamire való Pascal kártyára is volt válasz kivéve 1080Ti és Titan.
NV-tol csak azért van ennyi SKU mert árcsökkentés helyett inkább még több terméket dobtak piacra olyan GPU-kal amik kevesebb működő egységet tartalmaznak nagyobb órajel mellett... Lásd 1660S.
-
stratova
veterán
És meg kell nézni éppen mit gurítanak Apple-nek. 5500XT is kb akkor érheti el az asztali piacot ha felfutott a gyártás és ott már kiszolgálták az igényeket (avagy rémlik még mennyivel később jött M295X-hez képest az R9 380X? (2014.10.16 vs 2015.10.19) azaz AMD a fix vevőt szolgálja ki elsőnek, konzolok, apple és utána a PC).
De kicsi Vegákat nem is kaptunk, túl drága lett volna nekik a versenyképes ár szvsz a HBM2 miatt. -
...Kivéve az 5700-at, ami ilyen szempontból az ideális pontra lett beállítva. Az 5700XT már túl sokat fogyaszt a teljesítményéhez képest, és az 5500 is láthatóan már túl van az ideális perf/watt ponton. És ugye még jön egy 5500XT, ami meg hát várhatóan...
Szerk: A csíkszélességet ne keverjük ide, mert az mindegy, az adott GPU fogyasztását nézzük most a teljesítményéhez képest. Az, hogy az NV porig alázza az AMD-t 7/10 nm-en, a jövő zenéje, és valószínűleg így is lesz, de most csak a jelent nézzük.
-
Tyrel
őstag
Nem hiszem hogy bejelentés lesz a CES-en, inkább csak beszélnek róla. Ha szerencsénk lesz talán kapunk egy ütemtervet (nem pontos dátumot csak azt hogy melyik negyedévben fog jönni), meg talán végre hivatalosan is megerősítik hogy milyen RT lesz benne és melyik kategóriákat célozzák vele.
Kézzelfogható termék szinte biztos hogy nem lesz belőle az Ampere előtt, inkább az a kérdés hogy mennyivel utána jön, de ha bejön a tippem akkor nem sokkal.
RTX-et a helyedben én már nem vennék (kivéve ha nagyon nagyon jó áron hozzájutsz, mint pl. a pingponglabdás 5700). Ha nVidia kártya mellett is teszed le a voksod, szerintem várd meg az Ampere-t, a Turing egy olyan félkarú óriás amiből max. 1 éven belül félkarú rabló lesz.
-
Petykemano
veterán
Bejelentés volt, meg még mutogatták is.
Csak hogy termék készült belőle, arra nem emlékeztem.Elképesztő, hogy már egy ideje milyen olcsó a HBM és ezt a kiváló mobil dGPU-t miért nem kínálta az AMD... najó, pontosabban miért nem láttuk más notikban? Vagy akár miniPC-kben, ha már esetleg asztali dGPU-ként kiadni nem érte volna meg.
-
Petykemano
veterán
"másfelől ehhez azért az kellene, hogy az Intel tényleg belépjen a dVGA piacra"
Szerintem erre nem feltétlenül van/lenne szükség. A dVGA piacra való belépés csak hab a tortán. Több szempontból is.
Azért nem lenne feltétlenül szükség a dVGA piacra való belépésnek, mert az intel úgy is ki tudja pöckölni az nvidiát és az AMD-t arról a piacról, hogy nem lép be oda. Abu egy ideje már mondogatja, hogy az intel stratégiája nem a dVGA piac átvétele, hanem az, hogy mind erősebb és erősebb IGP-t szállít a procik mellett. Ezzel a taktikával már most is fogja a teljes pc-s gpu piac 70%-át. Ezek nagy része persze ma szinte csak képadásra alkalmas, de ahogy mondani szokta, ha az intel nem kínál olyan lehetőséget az OEM-ek felé, amiben csak képadásra alkalmas IGP van, vagyis lényegében nem választhatja azt az OEM, hogy legyen olyan intel cpu, ami mellett alig van IGP és majd én beleteszek egy jó mobil dGPU-t, mert vagy nincs ilyen opció, vagy marginális árelőnyt jelentene, akkor aközül kell választania, hogy nem tesz bele dGPU-t, vagy csak valami nagyon drágát tesz bele, hogy értelme is legyen. Annak ugye kevés értelme van, ha egy közel ugyanolyan erősségűt beletesz, mint amilyen az IGP.
Itt az a nagy kérdés, hogy valóban tart-e a piac abba az irányba, hogy egyre inkább mind több játékos igényre elegendő-e az IGP-k kapacitása. Mert ugye az nyilvánvaló, hogy az IGP teljesítménye sosem fogja elérni a dGPU-két.
Ugyanezt a hatást erősítik az ilyen Stadia és egyéb streaming szolgáltatások.
Azokból az adatokból, hogy a mindfactorynál az AMD 80-20%-ra vezet az intel előtt hónapok óta és ez alig látszik meg az intel és az AMD eredményein azt sugallja, hogy az nvidia is az OEM desktop és mobil piacokról szerzi a bevételeinek nagyobb részét. Ha ezekbe a gépekbe elegendő lesz a cpu mellé tett IGP, akkor a dGPU piac vékonyodni fog.
Tehát az a kérdés, hogy vajon a grafikai számítási igényt valamilyen technika fel tudja-e tornázni annak érdekében, hogy ne csökkenjen az IGP-vel megelégedő emberek, potenciális vásárlók száma.
Az RTX nyilvánvalóan ilyen technika és szerintem a VR is.Ennek viszont ellenhat a Stadia
Illetve az is eléggé ellene hat, hogy drágulnak a dGPU-k. Kb kétszeresére drágították a teljesítményszinteket. Tehát most tényleg $150-200-ért akarnak eladni egy kártyát 1080p-re, amit a Stadia ingyen ad? (Persze nyilván esportolni nem lehet majd)Ha az intel valamiért kiad dGPU-t akkor az szerintem három okból lehet:
- vagy nem sikerül elsőre a magas telejsítményű, kisfogyasztású IGP, ezért kénytelenek kártyaként kiadni.
- vagy az a stratégia, hogy az IGP-vel együttműködő kisteljesítményű dGPU-t kínálnak. OEM-eknek árukapcsolással
- nagyteljesítményű kártyát csakis gyorsító melléktermékeként, a marketing budzsé terhére.Hasonló helyzetben az AMD van még hasonló helyzetben. Aztán lehet, hogy az nvidia is helyzetbe kerül, ha terjedni kezdenek az ARM alapú notik, minipc-k.
-
Lehet felrerthetoen fogalmaztam, de konkrétan erre gondoltam amit Abunak leírtal az utolsó bekezdésben.
"Az már veszélyesebb helyzet, hogy versenyképes lesz, és a piaci részesedés megszerzése érdekében alacsony áron fogja kidobni a piacra. Ez nekünk, vásárlóknak alapvetően jó, hiszen olcsóbban fogjuk megkapni az adott teljesítményt. A konkurenseknek nyilván nem jó, mert kénytelenek lesznek az árversenybe belemenni, ami miatt a nyereségük elúszhat. Ebből jöhet az, hogy adott esetben az Intel kiszoríthatja a piacról a pénzügyileg gyengébb konkurenseket. Persze ez a legrosszabb verzió, ne ebből induljunk ki..."
Én alapvetően örülök Intel belépésének, ez egy pozitív hir és jó a 3 vagy több szereplős piac. Aminek nem örülök az a hatalmas helyzeti előnye, amivel jelenleg bír Nvidiaval szemben(CPU és X86 licensz, arukapcsolas) és a hatalmas anyagi előnye amivel bír AMD vel szemben VGA téren. nagyjából szenved a DGPU téren a profit téren. Mindkét cégre veszélyes lehet és Intel nem az a szereplő, aki ezzel nem él vissza de reméljük nem így lesz.
Szerintem hamarosan Nvidia az AMD mellett fogja keresni a boldogulás. -
Abu85
HÁZIGAZDA
Most versenyképes processzorokat kínálnak? Na látod. Nem ezen múlik, hanem a gyártási mennyiségen. Ha egyszerűen odapakolják az OEM-eknek olcsón, okosba, csomagban a GPU-t, akkor az OEM nem fogja visszautasítani. És akkor az AMD és az NV hiába dobja oda, azt mondják, hogy már szerváltak az Inteltől hardvert... köszi-puszi.
Én se bánom, hogy belépnek, csak ezt ne úgy képzeljétek el, hogy csúnyán fogalmazva szopni jönnek. Nem, nekik a piac kell, és megvannak az eszközeik, hogy megszerezzék. Ha a hardver nem jó, akkor majd az OEM-eken keresztül megvásárolják a részesedést.
(#44294) Z10N: Az Intelnek az RT megoldása az Embree. Másról nem beszélnek.
(#44296) b. : A 7 nm még nagyon messze van az Intelnél. Egyedül a Sapphire Rapids szerepel 7 nm-es terméknek, de van olyan útiterv, amiben már 10 nm-esként van feltüntetve. Senki sem tudja, hogy miért. Más 7 nm-es termék nincs rajta az útiterven, pedig a mostaniak elmennek 2023-ig. Refresh van mindenhol. Asztalon 14 nm-en.
-
ebben azért van kockázat, mert ha Intel átveszi az Nvidia szerepét, abból mi jól nem jöhetünk ki. Nvidia elég jól fejleszt 75 % piacrész mellett is, persze áraz is ez tény. Intel meg majd elfogadhatóvá teszi azt amit nyújtani tud, még ha nem is elég nekünk, lásd 4 magos procik évekig tartó uralma.
nekik a DGPU szegmens 6x nagyobb cégkén mint Nvidia akár bukó kategóriába is belefér, ha valaki éppen az Ő CPU ját veszi a a kártyája mellé.Arról meg majd gondoskodni fog, hogy azt vegye, meg arról is, hogy az elég legyen bármit is nyújt.Ez utóbbi persze inkább üldözési mánia, de úgy gondolom van realitása ismerve a cég múltját.
Ezzel persze AMD helyzete lesz nehezebb mert kisebb VGA gyártóként kisebb bevétellel kell ezen a piacon is helytállniuk, 2021 ben megjön Intel is 7 nm CPU téren, szóval nem lesz egyszerű gazdaságos szinten tartani az AMD Radeon részlegét.
Ha lehet választani, akkor ne Intel legyen semelyik cég hóhéra. -
Abu85
HÁZIGAZDA
Valószínűleg ez hozzájárul, hogy annyira nem lett nagy selling point az RT. Az a baj, hogy durván el lehet ezt cseszni. Hiába sugárkövetés, hiába just works, nagyon sokat számít az implementáció. A Call of Duty Modern Warfare-ben sem valami nagy dolog. Az is inkább csak az fps-t zabálja, de sokkal nem lesznek szebbek tőle az árnyékok, már amelyik szebb lesz.
Itt két dolog kell, hogy ez működjön. Egyrészt a bejárásra vonatkozó kontroll roppant kicsi. Ez alapvetően lefogja a fejlesztői szabadságot, tehát mindenképpen szükség van ennek növelésére. Ez jön is a DXR 1.1-ben. Másrészt kellenek a gyorsabb hardverek, mert addig hiába RT-zel, amíg virtuálisan 3-4 méterig lősz sugarakat, optimális esetben pixelenként egyet, de sokszor csak négy pixelenként egyet, és közben az egész játék dizájnját raszterizációhoz szabod, vagyis az RT effektekkel a jelenetek egy részében jót csinálsz, egy másik részében pedig rosszat. Ez a tipikus baja a Metro Exodusnak. A játék egy részében jól néz ki, egy másik részében pedig nem érted, hogy miért lett sötét az egész, konkrétan nem látod a játékbeli NPC arcát sem, annyira nincs megvilágítva.
-
Abu85
HÁZIGAZDA
Az valószínűleg nem volt cél, hiszen volt olyan fejlesztő, aki inkább visszamondta a támogatást. Emiatt nem is lesz DXR az Assetto Corsa Competizione-ben. Bár valószínűleg ebben sokkal nagyobb szerepe van annak, hogy a DXR rendkívül kezdetleges még az UE4-ben (Early Access még ma is), így nem akarnak sokat dolgozni vele. Ők valóban ilyen just works megoldásra számíthattak, aztán kiderült, hogy durván nem így van, és a Shadow of the Tomb Raiderhez hasonlóan újra kellett volna tervezni szinte az összes modellt. Ez nekik valószínűleg nem fért bele.
A probléma valószínűleg az, hogy nagy dolognak harangozták be, aztán nagyítóval kell keresni a különbséget, miközben az fps a töredékére esik. Így ezt még nehéz eladni. Meg őszintén szólva sok program egészen rosszul használja. A Battlefield 5 például döbbenetesen rosszul. A DXR-nek az lenne a lényege, hogy realisztikussá tegye a játékot, hogy ne kelljen fake hatásokat generálni. Erre a BF5-ben aktív DXR mellett fake robbanások tükröződnek vissza a fémes felületekről. Ezzel pont megölik az egész lényegét. Mondjuk arról valóban nem tehet az NV, hogy a fejlesztők balfaszok.
A DXR 1.1. Ez működni fog a meglévő hardverekkel is, csak az új hardverek gyorsítják az új képességeit is.
-
Abu85
HÁZIGAZDA
Látod nem érted. Az NV-nek volt erre egy saját célkitűzése, és egyszerűen nem jött be. Egyelőre a piacot nem érdekli. Ettől persze valószínűleg ez a jövő, csak túl hurkák a mai hardverek hozzá, hogy tényleg látványos effekteket csináljanak vele.
Nem különösebben lényeges, hogy mindenkinél rövid időn belül RDNA legyen. Ettől még nem fognak megváltozni a fejlesztői szokások. Az aktuális konzoloknak sem tetszenek ám azok a kódok, és ez nagyon visszatartó tényező.
(#44204) Jack@l: Mindenki csinálni fog hozzá hardveres gyorsítást, csak nem mindegy, hogy melyik verzióhoz. Most már érdemes az 1.1-eshez csinálni hardvert, mert az 1.0-st tavasszal felváltja.
(#44205) Z10N: A Mantle az újabb driverek consumer módjából ki van véve. Használni kell a developer switch-et, hogy működjön.
A HSA driver itt van: [link]
(#44207) Tyrel: A TressFX-et elég sokan használják. Ez ugye open source projekt, amit egy csomó fejlesztő felkarolt. Valakinél PureHair néven fut, de a Sony is ezt használja bizonyos exkluzív játékaiban. Például Horizon Zero Dawn.
(#44208) b. : Van olyan játék, amihez kell. Például a Resident Evil 2 14,7 GB-ot eszik. Addig nem pakolja be a VRAM-ba a max részlegességű textúrákat, amíg nincs a GPU mellett 16 GB-nyi VRAM.
-
Abu85
HÁZIGAZDA
Az NV aktuális problémája pont az, hogy nem tudják eladni. Messze nem hozta az elvárt szintet az RT-zés. Az utóbbi időben vissza is szorították, és inkább a nagy fps-re mentek rá.
Idézem mit írtál fentebb:
"És majd 2-3 év múlva is ez lesz?
Mert itt most két nézet ütközik. Ha az RDNA nem éri meg a GCN-hez képest, akkor ma eladni egy olyan arch.-ot, ami hamarosan elavulttá válik, finoman szólva se szép dolog.
Ha viszont a GCN és az RDNA sebessége tényleg azonos, akkor viszont semmi értelme az RDNA arch. bevezetésének... "Erre írtam, hogy ha az RDNA-nak a képességeit kihasználják, akkor mindennek baja lesz, ami nem RDNA. Még a Turingnak is.
-
Tyrel
őstag
Tehát szerinted nem baj, hogy még mindig egy 3+ éves GCN platformot tud nyújtani csak az AMD? Ugyebár pár éve azt kommunikálták, hogy ez a legfontosabb piaci szegmens, mert itt fogy a legtöbb kártya. Így hozták ki a Polarist.
Amikor a Polaris megjelent még az a szint (és 1080p) volt a mainstream amit képviselt is, csak azóta eltelt pár év. Az hogy a Polaris/GCN hány éves az pedig irreleváns, ha az 5500/XT nem tud sem olcsóbb sem gyorsabb lenni nála. API támogatottságuk ugyan az, gyakorlatilag user-experience-t tekintve minden ugyan az lenne, kivéve hogy a Polaris drivere nem bugos. A Navi 14 egyedül az alacsonyabb fogyasztásában hozhatna előrelépést, ezért említettem a Notebook vonalat.
Persze ha lesz neki olyan variánsa ami harcba tud szállni a 1660 Super/Ti szériákkal, annak már lehet létjogosultsága, csak valószínűtlennek tűnik hogy idáig fel fog érni, ezért hiányolják mások is a nem létező 5600 szériát.
Pedig nagyon kellett volna, ahogy az 5500 is....
Nem mondom hogy az 5600 nem kéne, csak azt hogy szerintem nem lesz. Nincs miből megépíteni. A Navi 14 nem ér fel idáig, a Navi 10-nek meg túl jó a yield-je és egyébként is jobban megéri eladni egy lényegesen drágább kategóriában.
Ellenben ha a best selling listákat nézem a különféle amerikai webshopokban, akkor azért nem az RTX 2080 Ti meg az RTX Titan vezeti, hanem a 150-250$ körüli kártyák (Polaris és a GTX 1060(Ti) és a 16x0 széria), ahova néha beszuszakolódik pár 400-500$ körüli alternatíva (RX 5700(XT) és 2060 Super, 2070 Super).
Darabszámra nyilván nem a felső kategória vezeti a listákat, de egy eladott 2080 Ti-n nem is annyi haszon van csak, mint egy 1650-en. Persze jóval kevesebb megy el, egyrészt nem osztogatják ingyen, másrészt az eladott hardverek jelentős része OEM ill. boltilag összeállított gépekben végzi, azok meg szeretik ilyen módon kiszórni raktárról a régi cumókat. Pl. 1060-nak már semmi létjogosultsága nem lenne, ha tájékozottabbak lennének a vásárlók.
Az sem utolsó szempont, hogy sok embernek (beleértve a fiatalabb generációt is) a gaming jelenleg megáll a League of Legends szintjén, oda meg nem kell atomerőmű.
Ezeket az embereket viszont a Polaris még mindig tökéletesen kiszolgálja, pont ezt is mondtam: miért vezessenek be egy 5500-as szériát, ha az egyetlen érdemi előrelépést csak fogyasztásban tudja nyújtani? Pláne hogy ebben a kategóriában nem is számít, mert egy 150W-os GPU-nak nincs hangja és gigawattos platinum tápot sem kér.
Ráadásul Polaris-ból még mindig vannak készleteik, sőt ha gyártják még (?) azt is olcsóbban tudják mint a Navi 14-et, hiszen nem az amúgy is nagyon szűkös 7nm gyártókapacitásukra kell bezsúfolni.Hol van az előrelépés Navi 14 vs Polaris fronton? Miért kell jönnie, mivel fogja megváltani a világot? Az AMD-nek többe kerül, a fogyasztónak meg érdemben nem lesz jobb vele semmi, sőt jelenlegi driverekkel inkább rosszabb.
Ezzel szemben a Navi 12 még mindig egy óriási piaci űrbe érkezne, ha jönne. Az ő kategóriája az, ahol semmijük sincs, az eladások 100%-át bukják itt jelenleg.
-
Pkc83
őstag
Én nem tudom! Ha olyan 4-5Gb közé állitom be akkor tükör simán fut
akár WQHD-ba is de ha feljebb teszem akkor már be be szaggat , főleg
a rendőrségen a csarnokban venni észre! Szóval szerintem az igaz , hogy
ilyen Vga-ra mint az enyém is (rx580) teljesen felesleges 8Gb mert nem
tudja kihasználni! -
Abu85
HÁZIGAZDA
A RE2 14 GB-ot is betölt, ha van elég VRAM. A motor úgy működik, hogy mindenből elkezdi bepakolni a legjobb minőségű textúrákat. Majd ha ezeknek kevés lesz a hely, akkor lecseréli őket az egyel kisebb méretűre, és így tovább. 16GB VRAM az, ahol mindig a maximum méretű textúrák lesznek betöltve. 8 GB-nál a textúrák jó része nem maximális minőségű. Emiatt gyakorlatilag, ha 10 GB-ot raksz alá, akkor fel tudja tölteni, 12 GB-ot szintúgy. A 16 GB-ot nem, de 14,7 GB a maximum, amit elméletben elfoglalhat. Ezt a módszert azért alakították így ki, hogy a játékos ki tudja jelölni azt a maximális textúraminőséget, amit el szeretne érni, de végeredményben a VRAM kapacitásán múlik, hogy el tudja-e érni. Viszont a sebességet ez nem befolyásolja, csak a textúraminőség csökken, ha nincs elég VRAM.
-
Igen, ezt értem, de ez egy elég niche igény, két dolog miatt:
- A 8GB a többségnél nem hogy nem igény, de felesleges pénzkidobásként szerepel (én ezzel nem értek teljesen egyet, de én nem vagyok a többség)
- Most azonnal kell, holott várható jobb alternatíva (effektíve megvehetően 2-3 hónap múlva)Ebben a helyzetben lehet, hogy én is 580-at vennék, vagy esetleg 570-et - de az is lehet, hogy próbálnám a takarót nyújtani az 1660-ig.
-
Mumee
őstag
Az az egy valóban nincs messze. Én az Rx590-et direkt nem is írtam, mivel az csak egy OC-zott Rx580, bár van aki még ennyire se mer/akar hozzányúlni és itthon végülis nem annyival drágább.
Azonban jelenleg az 1660 Super-hez nem kapsz semmit, míg az AMD kártyákhoz jár játék, amit ha nem akarsz el lehet adni is akár 10e Ft körül, de legalábbis érték, ahogyan az Xbox Game Pass is (igen ezt is el lehet adni ilyen 3e-ért).
Így nézve pedig az Rx590 árában 50e, míg a sima 5700 105e körül jön ki és az 5700 egy elég nagy lépcsőfok feljebb. -
1. Én így értelmeztem a táblázatot a Radeon találgatós topikban.
2. Nem csak a csíkszélesség, hanem az uarch is legalább annyit számít, ha nem többet. A Navi továbbra sem Turing, más a felépítése, de vedd észre a komoly javulást a Radeon VII-hez képest.Persze emellett nem kérdéses az NV uarch fölénye. De nem is azt mondtam, hogy a Navi veri az NV-t minden paraméterben.
-
D013
aktív tag
Egyetértek, és szerintem egyszerűen nincs kapacitás náluk hogy elkezdjék végre teliszórni a termékpalettát. Kellene valami a 1660Ti körül, a 1660 - 1660 Super körül, kellene egy abszolút belépő, de már a 1060/580 felé. Nem ártana az 5700 Xt fölé még 1-2 lépcső, meg egy abszolút csúcs. Ezt még leírni is hosszú, ebből aligha lesz valami. Lesz egy 5500, meg egy 5800 valahol a 2080 körül azt csókolom.
-
Tyrel
őstag
Szerintem egyáltalán nincsenek abban a helyzetben hogy takaréklángra tegyenek bármit is. Az nVidiával teljesítményben is csak egy kategóriában tudnak versenyezni, feature-set-ben pedig rosszabbul állnak, le vannak maradva. Jövőre pedig beszáll az Intel is...
Nem hinném hogy lesz hely a piacon 3 szereplőnek, nem elég nagy hozzá, szóval az AMD helyében én nagyon iparkodnék hogy ne én legyek az a bizonyos garantáltan veszteséges harmadik.
-
Petykemano
veterán
Mi értelme lenne?
Hogy a részvényárfolyam mozgását már ne befolyásolják jövőbeli termékek, hanem egyértelműen és elkülöníthatően mérhető legyen a Q3 eredmények hatása.
Hogy ennek mi értelme? Azt nem tudom. (Nyilvánvalóan se árfolyammozgás, sem mai eladás a Q3 eredményekre már nem lenne hatással)De abban egyetértünk, hogy ha nincs termék, akkor felesleges belengetni.
(Ez a MEDION B550A4-EM megvolt?)
-
Mumee
őstag
Lehetséges, de ha jól tudom akkor csak DX12 alatt, amit BF5-re kb. senki sem használ.
Az eddig is evidens volt, hogy ez csak egy sima effekt, ezt nem is vitatta senki, hogy semmi köze a DXR-hez.
Viszont az RXT-ON vs RTX-OFF összehasonlításoknál minden promo DX11-re volt, ahol ez az effekt nem él, így szembetűnőbb volt a promo Nvidiának enélkül az effekt nélkül. -
Azért mert 3 dolgot nem értenek meg az Nv haterség ködében.
Az hogy a raytracing nem szebb effektet jelent, hanem valósághű, dinamikusan változó, valós időben számolt effektet amik egymásra is hatással vannak.
- Valósághű
- Dinamikusan változó,a játékos döntéseinek és cselekményeinek és a környezet elemeinek változásának a függvényében változó
- valós időben generálódó
Ilyen apróságokról ne is beszéljünk, hogy a fényforrások intenzitásának és típusának egymásra és az árnyékokra, felületekre, textúrákra való hatása vagy ehhez a tükröződések által visszaadott extra fényforrások kivetülése.
A FC ben( és inkább az újat hozom példának) említett effekt egy sima fényforrás, mint a zseblába az Alan Wakeben szép és tök jó cucc, egy editorral előre letárolt , csak a fenti 3 kritériumot nem teljesíti.
FC: [link]
RT: [link] -
TESCO-Zsömle
titán
A tiedet is és mindenkiét, mert akinek nincs RTX-e, annak nem csak az RT effektek hiányoznak, hanem azok is, amiket RT nélkül meg lehetne csinálni, de nem vsináltak, mert akkor nem oenne olyan pátványos a különbség.
És pont jó, hogy a PhysX-et hozod fel, mert például a RedFaction megmutatta milyen rombolható környezetet lehet csinálni anélkül is.
-
Abu85
HÁZIGAZDA
Lesznek bennük érdekességek. Igazából a hardver szerintem már most is meg lenne a PC-ben, de itt azért sokkal körülményesebb azt mondani, hogy akkor holnaptól a grafikai futószalag nem olyan, amilyen volt. A konzoloknál ezt tök egyszerű megcsinálni, hiszen ott a generációváltás egy reset is.
Haszna pedig van, mert ma már sok dolog gyorsabban megoldható voxelekkel. A Sony például egészen konkrétan kutatta ezt az elmúlt években, és nagyjából kidolgozták, hogy mire optimális a voxel cone tracing, illetve mire kell ray tracing. A kettőt együtt jó alkalmazni, mert úgy a teljesítmény a mostani PC-s rendszerhez képest is hatványozottan jobb. Ez az ami a PC-nek egy nehézség. Olyan rendszert kell csinálni, ami igazodik a grafikai futószalaghoz, mert azt nem lehet cserélni reset nélkül, ahogy a konzoloknál. És a PC-s megoldások itt veszítenek egy rakás teljesítményt. Viszont addig nem tudsz itt előrelépni, amíg a gyártókkal ki nem dolgoznak egy közös új alapot.
(#43943) imi123: Lehetnek az RT-től látványosan szebbek a játékok. Amiért nem azok ma az attól van, hogy a mostani rendszer hatásfoka elképesztően alacsony, így hiába beszélünk gyorsításról, olyan rendkívül visszafogott módon lehet csak alkalmazni, hogy végül nagyítóval kell keresni az előnyt. Ugyanakkor maga a rendszer képes arra, hogy pixelenként több sugárral számoljon, a sugarak sokkal tovább követve legyenek, tehát magával az alappal elérhető minden, amit az offline renderekben látsz, csak a mostani kialakítás több helyen is brutálisan pazarló. Emiatt lesz átdolgozva az RT futószalag. Valamennyit segíteni fog, de az igazi változást majd az fogja hozni, amikor már nem csak az RT, hanem a grafikai futószalag is módosul. Csak ezek a változások papírnehezékké teszik a régebbi hardvereket, amelyek nem tudják támogatni az új futószalag lépcsőket.
-
-
Tyrel
őstag
Igazából lényegtelen hányadikak lesznek a sorban, mert borítékolható hogy nVidia és Intel esetében már a megjelenést követő hétben lesz megvehető termék is, míg AMD-nél csak félinformációk és titkolózás. A 7.-én bejelentett 5500-ak hol vannak? Még a kanyarba se, és full ugyan ez volt az 5700-akkal is, előtte meg a Vegákkal is. Az 5900 és az RDNA2 se lesz különb...
Full el vannak tévedve, persze hogy nem megy jól az RTG (még így a Navi 10 viszonylagos sikere mellett sem), ha minden egyes átkozott terméküket legalább fél évvel a szükséges időpont után küldik piacra. Ezt így nem lehet... Már hajnali 2, mindenki a saját hányásában fetreng az asztal alatt, erre AMD betoppan pirospozsgás arccal és félénken megkérdezi, hogy "na akkor merre van az a buli?"...
-
Abu85
HÁZIGAZDA
Mármint mi? Hogy virtuálisan 2 mm-rel arrébb lesz az árnyék, mint kellene? Nem hinném, hogy bárki észre fogja venni. Azoknál a játékoknál sem dől senki a kardjába, ahol a víz hullámzásának szimulációját egy távoli szerveren számolják. Sokan nem is tudnak róla, hogy több frame lemaradásban vannak a hullámok, így virtuálisan 2 mm-rel arrébb kerülnek leképezésre.
-
Abu85
HÁZIGAZDA
Ezeket az architektúrákat évekre tervezik. Legalább 5-6 évre. Tehát ha most tervezel valamit, akkor az az optimális, ha a wave programozásra tervezed, hiszen ma már ott van a subgroup, illetve a wave intrinsics a Vulkan és DirectX 12 API-kban. 2010 környékén, amikor az RDNA-n kívüli architektúrák alapjai megszülettek, még nem volt meg ez a wave programozásra vonatkozó lehetőség az API-kban, így felesleges volt így tervezni a hardvereket. Viszont elég jelentős maga az előrelépés programozási szempontból. Itt a shader modell 6-ra a Microsoft leírása:
"Up until now, the HLSL programming model has exposed only a single thread of execution. As of v6.0, new wave-level operations are provided to explicitly take advantage of the fact that on current GPUs, many threads can be executing in lockstep on the same core simultaneously. For example, these intrinsics enable the elimination of barrier constructs when the scope of synchronization is within the width of the SIMD processor. These can also work in the case of some other grouping of threads that are known to be atomic relative to each other.
Potential use cases include performance improvements to: stream compaction, reductions, block transpose, bitonic sort or FFT, binning, stream de-duplication, etc."És ugye ez folyamatosan egészül ki, az SM6 például nemrég a variálható wave-hosszal, amit szintén támogat az RDNA, de csak ez a dizájn, az öregebbek nem, mivel azok alapjai 2010 környékiek, és komolyabb áttervezés a wave execution résznél egyiknél sem volt. Viszont ezek a képességek komplexebbé teszik a hardvert.
A Vulkan nem azért gyorsabb az AMD-n, mert a hardver jobb. De tényleg. Több szempontból a Vulkan hardverre vonatkozó igényei finomabbak a DirectX 12-höz képest. Persze ettől egy picit bonyolultabb a memóriamenedzsment, de alapvetően a két API ugyanúgy működik, tehát az a pár extra probléma nem túl lényeges, amire a Vulkan esetében még figyelni kell. Valószínűleg hosszabb lesz a leképező kódja Vulkánban, de a menedzsmentje rendkívül hasonló. Az ok, amiért a Vulkan játékok az első pár hónapban jobbak, hogy amíg a DirectX 12-re a Microsoftnak ott a PIX, és az tényleg egy bitang jó fejlesztőeszköz, széles hardvertámogatással, addig a Khronos a validációs rétegén kívül nem kínál sokkal többet. Az egyetlen igazán jó fejlesztőeszköz a Renderdoc+RGP, de ennek a PIX-szel szemben az a hátránya, hogy kizárólag Radeonokon működő kombináció. Tehát a fejlesztésnél a DirectX 12-re tudsz minden gyártónál ellenőrizni, de a Vulkan esetében a Renderdoc+RGP Radeonra korlátozza az egész munkát, és majd a végén érdemes az NV és az Intel hardvereihez igazítani. Na most utóbbi esetében az szokott lenni, hogy a felsőbb vezetés már sikít, hogy meg kéne jelenni, szóval valamennyire összecsapják a kódot, hogy legalább működjön, de jellemzően a sebesség az NV és az Intel hardvereken, 2-3 hónap múlva érkezik meg, amikor az NV és az Intel tud javasolni annyi változást a kódba, hogy a kiadáskori rossz hatásfokra vonatkozó hátrányt le tudják küzdeni. Viszont önmagában a hardver maga jó az NV és az Intel oldalán is, hiszen láthatod a World War Z-t, hogy kiadáskor köhögött mindkettőn, de 3 hónap múlva kapott egy patch-et, és sokkal jobban megy. A No Mans Sky esetében is ez van. Köhög nagyon NV-n és Intelen, de ugyanazért, amiért a World War Z köhögött. Nincs normális fejlesztőeszköz ezekre a hardverekre, így amikor bizonyos döntéseket kell hozni a kód szempontjából, akkor az történik, hogy a Radeonoknak optimális döntéseket hoznak, mert arra tudnak mérni. A többi hardvernél feltételezik, hogy ugyanúgy működik, de közben nem ugyanúgy megy, csak nincs semmi a fejlesztők kezében, hogy ezt meg tudják cáfolni. Szóval menni kell a hardver gyártójához, és kérdezni, hogy ezzel a kódrésszel mi legyen, jó-e, stb. A gyártó meg tudja mondani, csak jellemzően ezt már a kiadás után teszi meg, és kell 2-3 hónap, hogy az erre vonatkozó programkódbeli hátrányokat leküzdjék. Szóval ez a Vulkan esetében a probléma, és nem az AMD hardvere a jobb az API-hoz.
Nyilván egyébként a fentiek azt is eredményezték, hogy a Vulkanra portolók csak Radeont használnak, mert PIX-szintű fejlesztőeszköz nélkül a többi hardver szart sem ér a fejlesztés szempontjából. Nagyon ritka az, amikor egy stúdiónak van saját fejlesztőeszköze, például az id-nek, de ez sok stúdiónak nem éri meg, mert a Renderdoc működik, interoperabilitást ad az RGP-vel, minek ölnének egy rakás pénzt és erőforrást egy saját megoldásra? Olcsóbb Radeonra cserélni a gépparkot. Ezt csinálta az Epic is, pedig nekik lennének erőforrásaik saját eszközökre.
Ebből a szempontból egyébként a DirectX 12 sokkal jobb. A Microsoft nagyon jól felismerte, hogy a PIX egy kritikus komponens, és nagyon lényeges, hogy mindegyik gyártót maximálisan támogassák, amibe komoly erőforrást ölnek. A Renderdoc mögött viszont nincs egy mamutcég a kifogyhatatlan pénztárcájával. Sokkal limitáltabbak a lehetőségeik.
-
A Keplerrel az NVIDIA megfordította a teljesítmény / fogyasztás szituációt, és azóta minden generációval nyílik az olló a párhuzamos architektúrák között. Ez mostanra akkorára nyílt, hogy a gyártástechnológiból fakadó előny éppencsak kompenzálja.
Ráadás, hogy úgy tűnik, a nem agyonhajszolt Navi chipek kb. úgy fogyasztanak hasonló chipméret mellett, mint az agyonhajszolt Polaris... -
Z10N
veterán
Nem erted. Mondtad, hogy brutalisan arat kellene csokkenteniuk. Erre hoztam peldat, hogy mar kibontott/javitott kartyat sem tudnak olcsobban adni garanciaval boltbol. Miert az alatalad emlitett brutalis mit jelent, ha az ertekcsokkentett arat sem birjak $108 ala nyomni.
Sokadjara kerdezem ez hol also? Ezek szinte referencianak szamitanak. Debutalaskor meg lehet mediannal szamolni, de a termekciklus vege fele mar inkabb sulyozottan erdemes.
De zarjuk le, miert mindjart 16:00 ora es jonnek a hirek.
-
Envo_
aktív tag
-
Z10N
veterán
Miert mi a baj a Sapphire/PoweColor-ral mar masodjara kerdezem. Korrekt kartyat adnak korrekt aron es mindketto referencia gyarto is egyben. Ergo ezek szolgalnak alapul. Minden mas tularazott. Vagy extra, amiert kulon kell fizetni, de azt sosem kell a referenciaba bevenni.
Nem AsRock-t vagy Corn Electronics-t irtam, amik eppen csak ossze vannak rakva.
Amugy most neztem, hogy Rx 570:
-GigaByte 4G (refurbished) $108(!!)
-Asus ROG Strix OC 4G (open box) $130
Lentebb mar nem birjak nyomni az arat. -
Z10N
veterán
-
Z10N
veterán
Tehat mindket esetben meg +$30-ral dragabban?! Ennyiert a hajukra is kenhetik, mert az egy-ket fanatikuson kivul senkinek nem fog kelleni. A mindshare-nek integethetnek es jovore jon az Intel is. Ezenkivul az ALSO kategoriarol beszelunk, ami $199-ral (XT) mar igy is KETSZER annyiba kerul, mint korabban es akkor meg erre raknal ra meg egy lapattal? Raadasul hova jon akkor az 5600/XT $279/299?! Ennyiert ep eszeu ember nem fogja megvenn. Vesznek zoldet.
Egyebkent az 590 newegg-n $199-ert (Sapphire/PowerColor) kaphato, annal egy centtel sem er tobbet az 5500XT.
-
Z10N
veterán
Tul jo arnak nem mondanam, mert $139/169-t adnek ertuk. A tippem pedig mindket esetben +$30-ral felette van (ami itthon minden "finomsaggal" 11,6k) es az also kategoriarol van szo.
"Ez durva alávágás lenne a Zöld kártyáknak..."
Ez a lenyeg, ha el is akarnak adni belole. Van fejlodes, van ertelme valtani. Az 570 is hiaba gyorsabb meg is vesznek zoldet helyette. Az slideos teszteket meg tudjuk milyenek... -
hokuszpk
nagyúr
"1650x1200 "
mostazonnal beperelem a Samut, a 214T monitoromrol hianyzik 50 sor.
"Az a felbontas pedig inkabb 1650x1050 lesz. "
@Zion : 1600x1200 ( 4:3 ) moncsi van elottem, maradhat ?* az aranyokra figyeljunk kollegak.
16:9 eseten 1600x900 16:10 eseten ugye 1600x1000 lenne, na ezt meg a 214T se tudja, 1400x1050 ( 4:3 ) oke, sajnos kivetelnek volt valami 1440x900 is.
-
Z10N
veterán
"Igen, konzolról beszélt, és arról, hogy láthatóan leskálázta a rendererlési felbontást."
Most ismetelgetsz masokat? Tudom, hogy mirol beszeltunk par oraja.Masodjara kerdezem, hogy mi kozom ehhez? Valaszoltam valakinek es ebbe belekotottel.
Amugy meg errol beszeltel:
1 "Adott esetben a PC témához a konzol. Két külön téma, külön tényezők." ergo pc vs. konzol
2 "Igen, konzolról beszélt, és arról, hogy láthatóan leskálázta a rendererlési felbontást." itt meg mar felbontasrolMar magad sem tudod mirol beszelsz...
"Attól, hogy nem nézted, a maga idejében PC-n már bevett volt az 1650x1200 pixeles felbontás is teszteknél és felhasználóknál..."
Hogyan jon ide a pc felbontasa?! Az a felbontas pedig inkabb 1650x1050 lesz. A konzol pedig sima HD-nek volt titulalva, szoval nem csak en neztem annak, hanem a fejlesztok is. Az 1080p extra volt akkoriban.
"a történet onnan indult, hogy PC-n milyen támogatás van / nincs a korábbi hardverekre."
Megint irrevelans. Egyebkent meg fps dropprol volt szo, most meg mar tamogatasrol beszelsz..."Robi Balboa pedig azt írta le, hogy konzolon a BF5 milyen rémesen alacsony felbontásra skáláz le..."
Ez most megint mi? Vagy most mar evidens dolgokat puffogtatsz? Hogyan jon ez ide megint?!
Igen es erre mondtam neki a 16 ROP miatt. Valaszoltam valakinek es beleszoltal...Ui: Szerintem hagyd a temat, mert mar kezd nagyon off lenni tenyleg.
-
Z10N
veterán
Ehhez nekem mi kozom? A kollega konzolrol beszelt es erre valaszoltam. A gpu, pedig gpu legyen az barmibe is, szoval helyen valo. Amugy sokszor szoktunk itt konzol gpu-rol is beszelni, azaz nincs itt semmifele "csizma".
A ps3/360-t sose neztem 1080p konzolnak, hanem HD generaciosnak, azaz 720p-nek (az elotte levo pedig 480p). A mostani generacio elso fele 1080p, a masodik fele 1440p, a kovetkezo pedig 4K. Szoval semmi fajta csalodas nem ert. 360-n az arcade cimeknek kell szamomra 1080p-ben mennie. Tavaly peldaul a Child of Light-t toltam vegig rajta es meg voltam vele elegedve.
Milyen allitasod?
GTA5 (2013)
Crysis3 (2013)
COD:AW (2014)
DA: INQ (2014)
RotTR (2015)
BF: H (2015)Namarmost egy 2005 novembreben megjelent konzolrol beszelunk, amiben egy X1800XL/X1900 @ 500 hibrid van, melle 512MB GDDR3 @ 700 + 10MB eDRAM, mindezt DX9-cel megtamogatva.
Ezeknel a cimeknel nyilvan, ha komoly akciodus jelenet van robbanassal (foleg multiplayerben), akkor mar nyilvan nem birja a tempot. Es ezen semmi szegyelni valo nincs, hogy 7-9 (!!) evvel kesobb ezek igy futnak.
Csak erdekesseg keppen probalj mar meg elinditani az elobbi cimek kozul egy erosebb X1950 XTX-n (@650, 512MB GDDR4 @ 1000) 720p-ben low-on. Szerintem orulni fogsz ha elindul, nemhogy jatszhato legyen.
Szoval semmit sem erositettem meg...
-
DudeHUN
senior tag
Nyilván ahogy öregszik a platform annál több trükk kell, hogy az optimalizáció mellett látványban folyamatos fejlődés legyen. Egy konzol sosem fog a PC-vel évekig szinten lenni. Nem tudsz beletuszkolni új GPU-t vagy több RAM-ot.
Azért anno a 360 1-2 évig eléggé odavert hardverben az akkori vasaknak. -
Abu85
HÁZIGAZDA
Kb. mindegyik? Itt tényleg egy funkcióról van szó. A program ettől még futni fog, csak egy-két effekt nem. De pokoli szerencse, hogy pont lesz pár új hardver, amin az az egy-két effekt is megy.
Ez nem cserbenhagyás. Ott a DLSS. Azt csak a Turing tudja. Úgy éreznéd, hogy cserben hagyott az NVIDIA egy Pascallal? Szerintem nem. Egyszerűen csak arról van szó, hogy az új funkciók új hardvert igényelnek. Ennyi erővel ne fejlesszünk semmit.
Rosszul emlékszel. A legtöbb játékban volt ugyan SM2 támogatás, de a minőség elmaradt az SM3-tól.
Gondolj erre úgy, mint a shader modell 1.x bevezetésére. Ott is fixfunkciós volt előtte a hardver, majd jöttek a programozható lépcsők. Az új technológiák mindig fixfunkciósan kezdenek, majd jön a programozhatóság, és utóbbi bizony új hardvert igényel. Ettől még nem hagyták cserben a T&L hardvereket anno, csak a vertex és pixel shader programokat nem tudták lefuttatni. De a játékot megjelenítették a shader programok kihagyásával. Én emlékszem még az első Splinter Cell harmadik pályájára, ahol egy marha nagy sárgaság volt a tenger, de amint vettem egy Radeon 8500-at, rögtön tengernek nézett ki.
Viszont nem éreztem magam becsapva a korábbi GeForce 2-vel, ami ezt nem tudta megjeleníteni. Egyszerűen elfogadtam, hogy a programozhatósággal jobb az eredmény, és tök jót játszottam azzal a játékkal a GeForce 2-n.
Na most a ray tracing esetében ennél sokkal kisebb különbségekről van szó. Ha pedig a fejlesztő nagyon akarja, akkor megcsinálja ray tracing nélkül is például a visszatükröződést. Ajánlom az INSIDE játékot. Nuku DXR, és olyan effektek vannak benne, amivel most a DXR-t reklámozzák.
-
Tyrel
őstag
Simán rájöhet a Microsoft hogy nem azt az utat akarja járni amivel indult egy új tech, egy fecske nem csinál nyarat. Anno volt egy rakás Radeon a piacon xenos tesszelátorral ami végül az ég világon semmire nem lett jó, mert máshogy implementálták végül... és zavart valakit?
Egyébként nem kell félteni a mostani RTX-et, az nVidiának mindig nagyon jól ment a fejlesztők befolyásolása. Már persze addig a pillanatig amíg nem akarnak rásózni a népre egy új videokártya generációt, de ott már nem is a támogatott DXR verzió lesz a döntő, a jelenlegi RTX 20x0 így is úgy is elavul... nem lesz elég a teljesítménye hogy RT-vel futtassa amit kell, még akkor se ha amúgy futna rajta, szóval ez a probléma megoldja önmagát.
Sztem kb. a Cyberpunk 2077 lesz a jelenlegi RTX generáció csúcsa, utána vagy kuka vagy DXR OFF.
-
Abu85
HÁZIGAZDA
De lesz, csak ahhoz a régi DXR verzió kell. Az új DXR verziónál új hardver szükséges. Az már más kérdés, hogy ha beépíted az új verziót, akkor nem feltétlenül van kedved támogatást írni a régire, és az NV-nek sem túl nagy érdeke ez, ha itt vannak az új hardverek, mivel azok eladása a fontos.
Persze lehet azt mondani, hogy szemét mindenki, de sosem működött ez másképp. Attól, hogy egy effektet megírtak SM3-ra, még nem biztos, hogy csináltak neki SM2+ portot. Pedig lehetett volna valamit alkotni, ha nem is megegyező minőségűt. A PC mindig ilyen volt, ne lepődjünk meg ezen. A konzol a kiszámítható csak a fix hardver miatt.
-
Abu85
HÁZIGAZDA
De a nem támogatott funkciókat minden esetben bukod. Ettől persze a játék futni fog, csak nem tudod majd bekapcsolni a nem támogatott funkcióhoz tartozó effekteket és eljárásokat.
Ezzel nehezen tudnak mit tenni a fejlesztők, de a játék ettől még futni fog, csak nem kapcsolható be minden a régebbi hardvereken, tehát igazából eladásokat nem vesztenek rajta.
Ha az NVIDIA kifizeti a fejlesztőknek a munkát, akkor nem lehetetlen a régi DXR-t is támogatni. Persze valószínűleg nem ugyanolyan minőség és sebesség mellett, tehát ha a legjobb kell, akkor úgyis új hardverre van szükség. Az NV-nek egyébként ugyanúgy lesz hardverük az új DXR-re, így az üzleti érdekük pont az, hogy a régi hardverről minél hamarabb újra válts.
-
Abu85
HÁZIGAZDA
Semmi gond nem lesz. Jönnek az új konzolok, azokra a Sony és a Microsoft is olyan rendszert gondolt el, amilyet a fejlesztők visszajeleztek az első DXR próbája után. Sose állította a Microsoft, hogy ez ennek a vége, sőt, a GDC-n ki is hangsúlyozták, hogy az aktuális DXR csak a kezdet. Ugyanúgy fog fejlődni, ahogy a DirectX, csak magán az API-n belül. És ahogy a DirectX újításihoz is kellenek az új hardverek, úgy a DXR újításai esetében sem ússzuk majd meg ezt. Mivel az új DXR egy lépcsőhöz hozzáadja a programozhatóságot, így abban a lépcsőben le is lehet programozni egy korábbi DXR specifikációjának megfelelő bejárást. Tehát az új hardverek kompatibilisek maradnak a régi játékokkal. Viszont a mostani hardverek valószínűleg nem fognak működni az új DXR-rel. De ez sose volt másképp, ha új fícsőr jön, új hardver kell hozzá, abszolút nem újdonság, hogy így működik a piac. Akinek ez nem tetszik, vehet konzolt.
-
Abu85
HÁZIGAZDA
A fixfunkcióval nincs gond, csak most ez az egész az aktuális DXR-nél úgy működik, hogy bemegy az adat, és kijön az eredmény. Az egész bejárás programozhatatlan, azt tudja, amit a hardver tud és kész. A következő DXR verzió a bejárást programozhatóvá teszi. Ettől még lesz fixfunkciós hardver a sugárkövetéshez, csak nem annyi lesz, hogy az adat bemegy és kijön, hanem programozható lesz, hogy mi jöjjön ki.
Ha a pipeline szintjén nézzük, akkor így néz ki az aktuális DXR:
sugárgenerálás -> ütemezés -> bejárás és ütközésvizsgálat -> ütemezés -> árnyalás
Ebből ma programozható a sugárgenerálás és az árnyalás, az ütemezés ugye egy vezérlőelem, míg a bejárás és ütközésvizsgálat fixfunkciós blokk. Ez lesz szétválasztva a következő DXR verziónál és lesz belőle egy programozható bejárás lépcső és egy fixfunkciós ütközésvizsgálat.
Valószínűleg a PC-s hardverek is erre mennek majd.
Az egésznek még nagyon az elején járunk, tehát ha valamikor, akkor most még megengedhető egy reset, mert érint kb. egy tucat játékot maximum, és végül sokkal jobb lesz maga a rendszer. Ráadásul a korábbi DXR ugyanúgy leemulálható az új DXR-en (a Microsoft leprogramozza majd rá a készülő WARP bejárását és kész), tehát a futtatás a jövőben garantált marad.
-
Már megint a kettős mérce. Az 1660 Super az egy pletyka, semmi nincs róla, meg hát max egy gyárilag húzott 1660 Ti lenne csak. Eközben a Navi 14 az meg konkrétan biztos létezik és jön.
Leginkább az árazás fogja eldönteni, hogy jó lesz-e. Legalább olyan jó ár / érték aránnyal kéne adni, mint az RX 570-et. Ami eléggé bestbuy, s értelmetlenné teszi az 1650-et. Az RX 5600 feladata ugyanezt megtenni az 1660-akkal.
-
paprobert
őstag
2009-es a videó, tehát más a piaci környezet. Alternatív memóriáról kérdezték a fickót, emiatt jött szóba a gyártási költség és a végfelhasználói ár viszonya. A komponensekről van csak szó.
-
Kupszi
aktív tag
Ugye voltak erről pletykák korábban, hogy elvileg megoldható, de az AMD elvetette.
Ha lenne teszt a neten ami alátámasztja hogy működik, Akkor végül is lapcsere nélkül megoldható Az újabb generáció kiaknázása, mégha nem is hoz csak 1-2% gyorsulást.
Ha pedig mégis a Gigánál működik és jó is lenne , akkor a többi gyártónak is rá kell harapnia. -
Raymond
titán
A Steam elott a fizikai boltoknal sokkal tobb ment el, ezert volt jo uzlet a Steam 30%-a. Ezen kivul ha egy fejleszto vagy fejleszto csapat akart valamit kiadni akkor vegkepp problemas volt a dolog mert ahhoz elengedhetetlen volt egy kiado ugyanis a boltokba maskepp nem kerultel be igy fizethettek a kiadonak es a boltnak is aztan jo ha maradt 10-20% a brutto bevetelbol. Most meg ha ugy gondoljak hogy a jatekot tudjak maguk promotalni vagy van olcsobb megoldas mint egy nagy kiado durva szazalekai akkor mehetnek direkt a Steam-re.
(#42539) gbors
"Szóval összességében engem nagyon meglepne, hogy ha a lentebb említett 300e FT-os VGA-ból mondjuk az MSI-nél 180e-nél több landolna."
A hardver marzsok azert sokkal kisebbek mint a szoftver/jatekok, ott se az elado se a disztributor messze nem visz el annyit, ezert nem veheted a jatekok/szoftver/media marzsokat alapul.
-
Pont szoftverek kapcsán mondtak olyanokat kisebb cégek (még a 10-es évek elején), hogy azért jó a Steam, mert kézzelfoghatóan jobb üzlet volt az akkor meg nem nevezett, de azóta tudjuk, hogy 30%-os sarc, mint amit egy bolti értékesítésnél fizetnének. És persze, hogy nem árulta olcsóbban, de közben a kiadóknak vonzóbb volt, a Steam meg orbitálisat kaszált a 30%-kal.
Nem tudom, honnan jön a 25-30%, ha konkrét tapasztalat, akkor annyi kérdés merül fel, hogy minden benne van-e, ami a kiadó ajtaján való kilépéstől a kisker bolt polcra kerülésig felmerül?Két másik iparági példa:
- CD nagykeres ismerősöm világosított fel anno, hogy jó, ha a kiadónak több, mint 50% jut a 4000 FT-os CD árából. Azon akkor én is nagyokat pislogtam.
- Saját munkatapasztalat, hogy az újságlogisztikában még ennél is magasabb a költség, nem is kevéssel. Az újságok esetén persze az alacsonyabb termékár + napi drop kombinációja ezt alaposan megnyomja, de ugyanúgy igazak voltak a számok a heti és a havi lapokra is.Szóval összességében engem nagyon meglepne, hogy ha a lentebb említett 300e FT-os VGA-ból mondjuk az MSI-nél 180e-nél több landolna.
-
Z10N
veterán
De nem igy lett. Ezenkivul 2016 mar 3 eve volt. Azota 3. gen-nel tartanak. Volt ido a valaszra. A tobbi mar senkit nem erdekel. Az arversenyt illetoen: akkor lett volna az, ha az Intel beszall ebbe, de tul arrogans volt hozza. Igy inkabb csak maguk ellen versenyzik most az AMD price/perf, perf/watt es core count alapjan. Varom a valaszukat, hogy meg lentebb szoritsak az arakat es a GPU vonalukra is kivancsi vagyok. 3 szereplovel mar erdekes lesz a verseny (chiplet, RT).
-
Z10N
veterán
Igy van, csak egyeterteni tudok. Ilyen arkategoriaban mar a komplett csomagot nezik a vasarlok. Az olcso kategoriaban ($100-200) meg elnezed ezeket az ar miatt (fogyasztas, hotermeles, zaj, hutes kialakitas, stb).
$200-300 kozott, mar szamitasba veszed ezeket a dolgokat. $300-400 kozott pedig mar elvarod. Felette meg...
Ahogy hallom a ref kialakitas az Nv-nel jol sikerult. Mig ez az AMD-nel nem mondhato el. Varni kell a custom-ra.
-
-
Raymond
titán
A teszteket nezve a teljesitmenyel nincs problema es teljesen normalis alternativa lennenek igy ezek a kartyak de a hutes felejtos es a custom kartyakat mindenkepp meg kell varni. Csak az a kerdes megint hogy azok milyen aron jonnek mert konnyen borul az egyensuly most hogy igy ki van centizve a paletta ar es teljesitmeny szempontjabol mindket oldal alltal.
-
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Formula-1
- Xbox tulajok OFF topicja
- Hálózati / IP kamera
- Garancia kérdés, fogyasztóvédelem
- E-roller topik
- Milyen légkondit a lakásba?
- Kerékpársportok
- Medence topik
- A Bosch szerint Európának nem kellene az AI-t a halálba szabályozni
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- További aktív témák...
- Napi 700 ft tól elvihető RÉSZLETRE BANKMENTES HP 840 G11 Ultra 5
- IKEA (HAVREHOJ) tablet vagy laptop tartó
- Azonnali készpénzes Sony Playstation 4 Slim / PS4 Pro felvásárlás személyesen/csomagküldéssel
- Samsung Galaxy Xcover 5 64GB, Kártyafüggetlen, 1 Év Garanciával
- Realme 7i 64GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft
Város: Budapest