- Fotók, videók mobillal
- Samsung Galaxy S23 Ultra - non plus ultra
- Yettel topik
- Android alkalmazások - szoftver kibeszélő topik
- Milyen okostelefont vegyek?
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Samsung Galaxy S25 - végre van kicsi!
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Honor 200 - kétszázért pont jó lenne
- Samsung Galaxy S21 FE 5G - utóirat
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
PuMbA
titán
Azt a VRAM chartot 10 perc alatt a takarítónéni is megcsinálja PowerPoint-ban. Szerintem ez nem erős markering anyag. Egy videó, mellé cikk és részletes futási teljesítmény adatok már azt jelzi nekem, hogy kicsit komolyabban gondolják. NVIDIA is így csinálja, nem csak kidob egy chartot, hogy nézd meg azt viszlát. Szóval nekem e miatt volt meglepetés, mert felfedeztem benne, hogy ez egy NVIDIA-ra hajazó a dolog.
-
Raymond
titán
Sok ev utan megneztem egy MLiD videot ma hogy valtozott-e valami. Nem valtozott, az az ember meg mindig egy idiota, legalabbis abbol a videobol itelve amit neztem*. A video pont az volt amit a cikkben linkelnek es az igazi rohej az egeszben az hogy se az AMD se MLiD nem "confirm"-olt semmit semmit abban a videoban, azok a modellek es arak is csak MLiD vagyalmai es ezeket ugy is talalja, nem allitja hogy ezek valami leak-ek lennenek.
*azert neztem meg mert mar lattam az AMD Q1 eredmenyeket es a video cime az hogy "AMD can Afford more VRAM for RDNA 3 – Q1 Earnings Prove it!" de en olyasmit amibol ezt le lehetett volna vonni a Q1 eredmenyeknel nem lattam es kivancsi voltam a bizarr logikara hogy hogyan jutott odaig.
-
S_x96x_S
addikt
pedig az AMD is gondolkodik rajta ..
AMD is újratervezi logóját és nevét
GPU-kat átnevezi ATI-nek.Az AMD úgy döntött, hogy a régi időket idéző újraálmodás jegyében visszanyúl a gyökerekhez és újratervezi logóját, valamint nevét. Az AMD vezérigazgatója, Dr. Lisa Su bejelentette, hogy a vállalat új neve "Advanced Micro Dynamics" lesz, és a GPU-kat az eredeti ATI márkanév alatt fogják forgalmazni.
"Az ATI márkanévnek óriási értéke van számunkra, a régi játékosok körében pedig még ma is legendás," mondta Su. "Szeretnénk, ha a fiatalabb generáció is megismerhetné az ATI-t, és úgy gondoljuk, hogy az AMD egy kissé elavult márkanév, amit most új élettel töltünk meg."
Az AMD továbbá bejelentette, hogy a Radeon GPU-k új csúcsmodelljének, az ATI Radeon Fury X2-nek a Founders Edition változatát 1 499 999 forintért fogják árulni. A harmadik féltől származó kártyák az Asus, Gigabyte és Sapphire márkáktól 1 999 999 forintos áron lesznek elérhetőek.Amúgy az Intel már meg is lépte cpu fronton az átnevezést.
Az én tippe, hogy az "i" - mint Intel azért kikerül a névből ..
szerintem át fogják nevezni a céget
Intel to say goodbye to its iconic Core i9/i7/i5/i3 branding -
Raymond
titán
En azert ovatos lennek az 500-as arakat varva. Az aktualis elozo gen arak a raktarsopresrol szolnak. 6950XT es 6900XT mar majdnem kifogyott, par modell van meg 650-700EUR kozott. A 6800XT-bol meg van tobb de azok is 560-640EUR kozott vannak, a sima 6800-bol van 3 modell 500-540 kozott ahogy nezem [link] A 7900XT per pillanat 839EUR-nal kezdodik es nagyon sok hely van 500 es 839 kozott azert.
Szoval lehet hogy jon valami nem olyan sokara az 500-as regiokba, de ott meg van nekik eleg termek es raktarkeszlet, en ahogy nezem ami "surgosen" kell meg nekik az valami 600-700 koze. Mar ha van megfelelo teljesitmenyu termek keszen oda ami lelepi a 4070-et vagy legalabb ugyanazon a szinten van hogy lehessen a 16GB vs 12GB jatekot jatszani. En nem temetnem olyan gyorsan a 7800-as kartyakat.
-
PuMbA
titán
Itt lassan már tényleg az lesz a kérdés, hogy az AMD ne még szarabb kártyákkal jöjjön ki, mint az NVIDIA. Ez a chipletezés első körben azzal járt, hogy az NVIDIA-val már nem tudnak teljesítmény / fogyasztásban versenyezni, ami az RDNA2-vel még ment. Ez eddig pont annak tűnik, ami a prociknál. Az AMD-nek jó, nekünk nem feltétlenül, mert a Zen 4 rohadtul nem bírja kezelni a hipergyors memóriákat meg szétég az I/O die.
-
Alogonomus
őstag
Hát igen, sajnos legjobb pillanataidban is minimum annyira szemellenzősen látsz mindent, mint én a legrosszabb pillanataimban.
Miben látod hogy az Nvidia hardverekhez nem igazítják a motorokat? Hát nem pont arról szól a helyzet, hogy az Nvidia kártyák helyett az AMD kártyák profitálnak többet mind az IW9, mind az UE5 motorból?
Nvidia határozottan vonul ki a PC piacról? Ránéztél már idén az eladott Radeon és Geforce kártyák darabszámára? Az általatok mantrázott 20:80 arányt látod?A 4090 nyilván megfelelően el van engedve memóriában, csak nem sokan veszik. A 4080 még csak-csak, bár a 16 GB egyértelműen sokkal hamarabb válik kevéssé, mint a másik oldal 24 GB-ja, vagyis a 24 GB-os kártya sokkal jövőállóbb. A 4070 és különböző 3080 kártyák 10-12 GB-ja pedig a 1080p ultra mellé is lassan kezd szűkössé válni, vagy ritkán már múlt idő is az, míg a másik oldal 16 GB-ja kényelmesen elég.
Az érkező 7600 valóban 8 GB-tal jön, viszont a 8 GB-os 4060 és 4060 Ti ellenfele a 12 GB-os 7700 lesz, vagy talán még a 16 GB-os 7800 is, ha jól árazzák.
Költséghatékonyságból egyre több játékstúdió leépíti a saját grafikus motor fejlesztését, mert sokkal egyszerűbb egy kész motort használni, valamint a motort használó más stúdiókkal együtt sokkal nagyobb is a termelődő tudáshalmaz. A stúdiók nem köteleződnek el egyik hardverfejlesztő irányába sem, mert minimum a CDPR kapcsán látványos volt annak a veszélye. Viszont a játékfejlesztők arra felé optimalizálnak, ahonnan majd több eladást remélhetnek. Ezért nem foglalkoznak például az Intel kártyáival.
a "broken" játékok kapcsán láttuk, hogy el lehet érni hogy csak a rendelkezésre álló memóriáig terjeszkedjenek, de attól a látványviláguk romlik le az érintett Geforce kártyákon.
-
paprobert
őstag
Alogonomus már megtörtént tényként állítja be a projekcióit. Ráadásul részletekbe menően, és nagyon sokszor rosszul.
Annyiban igaza van, hogy kb. 2018 óta elkezdődött egy folyamat, hogy sokkal kevesebbszer fordul elő az, hogy kijön egy AAA cím, és az AMD hardver nem tud mit kezdeni vele.
Nem nagy kockázat az a feltételezés, hogy az RDNA család folytatni fogja ezt a továbbiakban.Ez azonban csak arra a grafikai csomagra vonatkozik, amelyet a konzol reálisan renderelni tud.
PC-n a lehetőségek már ma is sokkal nagyobbak, lásd. RT Overdrive, és hogy ezekkel, a konzolt meghaladó grafikai feature-ökkel mi történik, abban az Nvidiának már sokkal nagyobb szava van.
Úgyhogy szerintem az alap konzol szint kompatibilitása gyakorlatilag "garantált", viszont minden ami felette van kétségesebb AMD hardver szempontból. -
Alogonomus
őstag
Na igen, a Spider-Man PC-s portjánál is ugyanúgy látszott, hogy az Nvidia fizette a kódírókat, ahogy a Cyberpunk esetén is. Persze az AMD oldalán ugyanez elmondható például az AC: Valhalla kapcsán.
A konzolok elmúlt években jelentkező térnyerésével, valamint az AMD azzal párhuzamosan történő PC-s megerősödésével viszont a játékiparnak 2020 környékétől kezdve már egyértelműen sokkal vonzóbb lett a konzolokkal együtt már jelentősen nagyobb halmazt képviselő AMD-s hardverekhez igazítaniuk a játékmotorokat és játékcímeket, aminek a következménye a memóriában szegény Nvidia kártyákkal tapasztalható "broken" érzés, ami csak romlani fog azzal, hogy az Nvidia határozottan vonul ki a PC-s piacról, és teszi át a fókuszát a szerverek és AI területére. -
Alogonomus
őstag
Az állítólagosan "broken" játékok a megfelelő mennyiségű VRAM birtokában levő Radeon kártyák esetén rendben működnek, vagyis nem a játék a "broken", hanem a legtöbb Geforce kártyából hiányzik a modern játékok által megkívánt memóriakapacitás, amit csak tovább ront a szokásos driver overhead probléma.
-
DudeHUN
senior tag
Ami még mindig mosott a High-hoz képest.
Mindegy. Ahogy kolléga is írta a számitási kapacitás simán ott van, de a 8GB VRAM tökön lövi a nextgen szintet, mert butítasz hozzá képest lárványosan.
Amúgy nem vagyok PS5 "rajongó", de be kell látni a nextgen fejlesztések idén kezdenek el jönni. Ezeknék már (az eladási rekordokat döntő) PS5 az alap. Egyébkent ha megnézed a Horizon DLC-t a Sony belsős csapata megmutatta, hogy mire képes a gép. Erre a PC-s szemmel elavult hardverre letették kvázi a legszebb játékot. Ezért kár a VRAM-on való spórolás a cégektől, mert az átirat majd itt is ezen fog elcsúszni.
Tudom, hogy az Nvidia a szíved csücske, viszont itt pont az AMD kártya miatt húztuk a szánkat. -
PuMbA
titán
Amilyen ratyi állapotban adják ki ma a játékokat, ez tényleg baj. Pár napon belül elavul az egész videója egy ilyen YouTube csatornának, mert 2 hét alatt kijön 4 javítócsomag. Last of Us esetén pont a pár nappal ezelőttiben módosítottak a textúra részletességen Medium és Low beállításon.
-
Hashvrad
tag
A videó hossza + egy kis beletekerés miatt tűnt úgy, mintha AMD-t jobban szemetelné.
Ebben a videóban ugyan az van, mint AMD-nél + a GPUt is jobban használja.
-
DudeHUN
senior tag
Alapból 8GB-os kártya esetén a mediumot ajánlja a TLOU. Mert kifut feljebb. A PS5 pedig legalább a High-at használja.
Most komolyan azt hiszitek, ha ezek a konzolok 12+GB memóriával gazdálkodhatnak akkor a nextgen címeknek 1440p és felette elég lesz a 8GB ahhoz a grafikai szinthez? Minimum a texturákat butítanod kell majd. A gépigények nem véletlenül ekkorák. Nem csak a "lusta" fejlesztők miatt. -
PuMbA
titán
Horizon Forbidden West: Burning Shores PS5 - DF Tech Review - A Visual Masterclass
Nem tudom, a konzoloknak azért van előnye a fix hardver és szoftver miatt
Szerintem ilyen grafikai szintet a 3060-amon még nem igazán láttam PC-n.
-
HSM
félisten
Elég hasonló FPS-eket tud elvileg RT-vel a CP2077, mint a Witcher3. Persze, a friss Overdrive mód Path Tracing-el nyilván durvább, és elvileg a Portal is az, ha nem tévedek. Egyébként a Portal hardver kihasználása borzalmas rossz, illetve nyilván az Nv-s eszközökkel készült portok az ő technológiájukat fogja előnyben részesíteni. Itt még várnék picit a konklúzió levonásával, kb. mint ahogy a 20+GB-ot fogyasztó játékokat is kizárnám a VRAM témából. Az RDNA2-3 extra RT-s képességeit jelenleg csak a konzolok használják (programozható bejárás), személy szerint ebben is látok némi kihasználatlan lehetőséget.
-
HSM
félisten
A 3080 (Ti) 12GB-nak az ára volt gáz. A 12GB-ra azt mondom, már rendben van, tekintve a kártya korát. A 10GB viszont nagyon gáz volt az elején, még a mai szemmel kedvezőnek ható kezdő 700$ MSRP-ért is.
Nézd, a "lehetne picit erősebb RT ben 1-2 címben" a gyakorlatban azt jelenti, hogy pl. a Witcher 3 RT, ami az egyik legdurvább RT-terhelésű játék, kénytelen voltam levenni 1188P-re, hogy csont maxon FSR és hasonlók nélkül meglegyen bő 30 FPS. Mivel vajsima bő 30 FPS, így Radeon Anti-laggal tökéletesen játszható és élvezhető alacsony input laggal. Ellenben mikor a 10GB kezd kifogyni, akkor sem vajsimaságról nem beszélhetünk, a kimaradozó vagy rossz minőségűekkel helyettesített textúrákról nem is beszélve.
Ezt nem ellensúlyozza, hogy Witcher3-ban lenne mondjuk 30%-al magasabb FPS-em, mert ott épp van RT és ez fekszik a 3080-nak. Jó lesz majd utódnak egy 7900 később, alig kerül többe, mint egy 12GB-os 3080.
"messze elmarad mind RT ben mind felskálázási minőségben az Ampere szériától"
Ezzel a felskálázási minőséggel kábíts kérlek mást, teszteltem Witcher3-ban az FSR-t és a DLSS-t is legmagasabb minőségben (friss verziók voltak benne), ezeket a homályosító csillámporos vackokat inkább meghagyom másoknak, nem vagyok híve a kamu magas felbontásnak.Ami meg az RT-t illeti, egy RTX 3070 sebessége általában megvan vele, így 16GB-al teljesen jó a mindennapokban. A sima 12GB-os OC 3060-amat körbefutotta Witcher3 RT-ben, annyira, hogy az DLSS-el sem érte utol, szóval azért annyira messze nem marad el ebben sem.
Pedig hidd el, nagyon tetszett volna, ha a feleannyiba kerülő kártya DLSS-el utolérte volna RT-ben, akkor most az lenne a játékos gépemben, nem a 6800XT. -
DudeHUN
senior tag
A 12GB még nagy eséllye évekig elég lesz 1440p-ben is. Főleg a konzolok miatt. De alatta nem kapod majd meg a nagyobb címeknél azt a grafikai szintet, mint a PS5 esetén például. Elhagyjuk a cross-gen érát.
Plusz a nagy VGA gyártók is ebben a genben a nem alsób kat. kártyáikra már 12GB-ot tesznek. Így ez lesz az "alap" magasabb grafikai beállításokhoz. -
Petykemano
veterán
Szerintem a következő történik:
Egy 7800XT (70CU navi 31, 2.3Ghz) gyors fejszámolás alapján épp 66% számítási kapacitást nyújtana, mint a teljes navi31. 4db MCD is épp 66%-a a teljes kapacitásnak.
A TPU szerint ez a 66% a 7900XTX-hez képest épp oda tenné, ahol a 4070 tanyázik.
Persze nyilván itt akkor lehet mérlegelni, hogy az AMD be tudja-e ezt (Navi31 GCD + 4x MCD + ~200-220W board+hűtés) vállalni olcsóbban ($549) vagy inkább nem engedik le a frekvenciát, amivel magasabb teljesítményhez (+~10% jutnak, valamivel magasabb fogyasztással, mint a 4070, és ezt versenyeztetik $599-ért.Itt feltehetnénk a kérdést, hogy de hát ha az AMD-nek van kifejezetten kétharmad akkora GCD lapkája (Navi32), akkor miért nem azzal oldják meg a kétharmadakkora teljesítményt. Erre szerintem négy válasz lehetséges:
- a Navi32 még nincs kész
- a Navi32 60CU-val úgy lenne versenyképes a 4070-nel, ha jelentősen beletépnének a fogyasztásba, amit sem a 4070-nel szemben nem engedhetnek most meg, és a NAvi31 esetén láthatjuk, hogy nem is annyira alkalmas rá az architektúra, hovatovább...
- az is lehet, hogy kifejezetten visszafogott frekvenciával és TDP kerettel igyekeznek készülíteni az új SKU-kat, hogy sokat lehessen spórolni a boardon és a hűtésen.
- és végül az sem kizárt, hogy azért így történik, mert az AMD-nek lényegesen több Navi 31 GCD-je van, mint amennyit 7900XTX és 7900XT formájában el tud adni. -
Abu85
HÁZIGAZDA
Már bocsánat, de egy már kész képkockát csak azért nem kiküldeni a kijelzőre, hogy előbb generálj elé egy kevésbé friss, ráadásul potenciális képi hibákkal tarkított képkockát, a mélypont a rossz ötletek tárházában. És ha az AMD is ugyanezt csinálja, akkor ugyanolyan fos marad, mert pont ugyanazt a rossz ötletet lovagolják meg. Ha kész a friss és jó minőségű, valós adatok alapján számolt képkocka, akkor azt ki kell rakni! Nem érdemes húzni az időt. Azért vesz a játékos új hardvert, hogy ezt megkapja, és nem azért, hogy a nagyobb kiírható FPS-érték miatt parkoltatva legyen.
Én abszolút nem értem, hogy ezekben a lehetőségekben mit láttok. Vesztek egy új hardvert, amiben bekapcsoljátok a köztes frame generálását, hogy végül az elméletben lehetségesnél később kapjátok meg a legfrissebb képkockát. Why?
Pont azért veszitek a drága új hardvert, hogy hamarabb kapjátok meg az eredményt, és bekapcsoltok egy olyan dolgot, ami ezt késlelteti. Nem beszélve a belegenerált képi hibákról.
Nem az a durva, hogy van ilyen, hanem az, hogy ezt el is lehet adni, és láthatóan már két cég hiszi azt, hogy van piaca annak, ha a játékos a nagyobb FPS-ért rontja a saját felhasználói élményét.
-
Raymond
titán
Brixelizer: Real-time Sparse Distance Fields for Games
Brixelizer Global Illumination is a probe-based approach
• It’s basically screen space+
• The direct light probe is updated from screen space
• Updating out-of-screen direct light probe is very scene dependent
• Convergence over time can be visible
• Suffers from overshadowing for tiny geometry -
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Az a baj ezzel a megoldással, hogy nagyon gyors, így nem venne senki nagyon drága VGA-t. Az NV megoldásai azért előnyösek a cég számára, mert nagyon lassúak, és ez eladja a hardvert. Azt meg a GameWorks idejében sem kérdezte senki, hogy miért lassú a kód. Az NV és az AMD felfogása itt nagyban különbözik. Az NV egyszerűen nem is kutatja a gyors lehetőségeket. De ez nem azért van, mert nem tudnák kutatni, hanem azért, mert nem része a gazdasági koncepciójuknak, mert ha gyors lenne egy effekt, akkor nem gondolkodnál RTX 40-es VGA-n. De azt amúgy sosem állították, hogy a megoldásaikat ne lehetne sokkal gyorsabban megcsinálni, tehát nem is hazudnak, csak nem fejtik ki az igazság minden részletét.
-
Abu85
HÁZIGAZDA
Nem kell támogatnia, hiszen ez nem egy API, hanem egy framework, ami magán a DirectX Raytracingen fut. Csak a nem gyors részeit compute shaderre váltja, hogy gyors legyen. A DXR-nek alapvetően vannak nagyon jól működő részei, azokat fel is használja a Brixelizer. A problémás részeket ugorja át. A Microsoft számára teljesen jó megoldás ez is, mert az alap API marad a DXR-jük. Még új driverek sem kellene hozzá. Mindegyik mostani jó lesz. Módosítani sem kell semmit.
-
Abu85
HÁZIGAZDA
Ahogy csinálják ez normális lehet, hiszen a mostani RT problémája az, hogy fos az API működése. Ha SDF-et használnak, akkor az bőven gyorsabb ennyivel, mert pont kikerüli azt a részt, amiben a DirectX Raytracing iszonyatfos, és ez a rész okozza azt, hogy sokkal több erőforrást zabál a rendszer, mint amennyit amúgy kellene.
Többször írtam már, hogy a mostani DXR brutálisan korlátozott, mert iszonyatosan sok limitet generál, amit nem lehet kikerülni. Technikailag ezt az AMD sem tudja, de át lehet ugrani, hogy megszabadulj ezektől a limitektől.
Például a Dreams című játék pont azért használ SDF-et a PS4/5-ön, mert nagyon gyors lehet az eredmény. Csak PC-re ezt soha senki nem csinálta meg. Most lényegében ez lesz a Brixelizer.
-
HSM
félisten
"Ott azért GDDR6X van benne ... plusz van valami emlegetett memória dekompressziós technika állítólag ... nagyobb L2 az Amperehez nézve. ezek mind valamelyes ellensúlyozzak a dolgokat, főleg az L2 mérete"
A memóriából hiányzó dolgokat semmi nem fogja pótolni. Szépen meg kell várnia a GPU-nak, mire átcsorog a PCIe-en, vagy használni a rosszabb minőségű alternatívákat, amik rendelkezésre állnak. Esetleg a DirectStorage tud ezen talán kicsit segíteni, hogy hamarabb megérkezzen, de a méretet ez sem fogja helyettesíteni, ez borítékolható.
Egyébként a 12GB-ot tartom a kisebb gondnak, a nagy, hogy mennyi pénzt kérnek érte...
Annak idején pl. az RTX3060-on teljesen rendben volt a 192 bites busz + pici GPU + 12GB ram, 330$-ért. Legyen infláció és 500$. De 8-900$?! -
Alogonomus
őstag
8 vs. 16 és 12 vs. 20 (3090 esetén 24) között arányaiban nem sokkal kedvezőbb a különbség, csak már valószínűleg nem 1080p esetén jelenik meg a hatása, hanem 1440p, vagy 4k esetén, ahol az 1000 Euro környékén kapható kártyákat használni szeretnék az emberek.
Bár - ha hihetünk a kijelzésnek - 1080p esetén is 14 GB memóriát foglal le összesen a két játék futtatása a 6800-on, vagyis ennyire "éhes" játékok esetén a 12 GB már 1080p esetén is valamennyire korlátozó adottság lehet. -
Alogonomus
őstag
Igazából valószínűleg univerzálisan az lesz a megoldás a túl kevés memória esetén, amit az UE4-es Hogwarts Legacy alkalmaz már.
A játékmotor igazodik a rendelkezésre álló erőforrásokhoz, és egyes objektumokhoz betölti a részletes textúrát, a többi objektumra pedig egy a memóriakapacitásba még beférő szintű egyszerűbb textúrát tölt csak be. Az érintett objektumok körét pedig folyton cserélgeti, hogy amikor körbenézel, akkor időről időre mindegyik objektum magas részletességű modelljét láthasd, csak nem egyszerre mindet. Ez nyilván csúnyább látványt nyújt, és a képernyőmentés eredménye nem lesz szép, de legalább a játék nem fog az elégtelen memória miatt szaggatni.
A másik lehetőség pedig, hogy a driver "felülvezérli" a játék beállításait, így a memória elég lesz, csak a kép lesz olyan, mintha alacsonyabb grafikai beállításon futna a játék. -
GeryFlash
veterán
Te is tudod, hogy azzal hogy EBBEN a pillanatban meg nincs VRAM bottleneck, attol meg a kovetkezo 6-12 honapban erkezo UE5 engine jatekdomping utan ez nagyon nem lesz igaz. Itt most nem a jovoallosagrol beszelek, ez konkretan kezelheto jelenkent is, annyira a kuszoben vagyunk valaminek. Egy 3090-nel kicsit erosebb VGA feleakkorra VRAM-mal. Nonszensz.
-
Alogonomus
őstag
A LOU1 esetén már látszik a kevesebb memória következménye, mert a 1440p esetén átlagos és 1% low fps szempontjából még kb egységesen 3%-os előnyben levő 4070 Ti 4k esetén átlagosan csak kb 9% hátrányba kerül, de az 1% low tekintetében már 25% lemaradást mutat.
Persze lehet mondani, hogy csak rossz a LOU1 portolása, de attól még a vásárló fejében ott fog motoszkálni, hogy 900-1000 eurót ott akar-e hagyni egy olyan kártyáért, ami helyett vehetne legfeljebb ugyanannyiért olyan kártyát is, ami biztosan sokkal tovább tud stabil fps-t biztosíthat az aktuális játékokban, mert a számítási teljesítményéhez passzol a memóriakapacitása és sávszélessége. -
bitblueduck
senior tag
nekem is az van ( 3080 12 GB ) és nem áll bele a földbe max textúra részleteséggel sem
3 hónapja kb ugyanez igaz volt a 3060Ti 3070 3070ti-re. ha valaki évente cserél videokártyát nem gond, de ha hosszabb távra tervez 4070ti árkategóriában, akkor lehet a sweet spot inkább 16GB lenne, olyan meg csak RX létezik újan ami ezt megugorja. -
Alogonomus
őstag
A 12 GB azért kevés a 4070 Ti mellé, mert a 4070 Ti nyers erőben egy 3090 Ti szintű kártya, így legalább ugyanazt a teljesítményt is várják el tőle a vásárlók. Ahhoz pedig a 12 GB már most is szűken elég az újabb címekben 1080p fölötti felbontások esetén, és ez csak romlani fog az idő előrehaladtával.
A sima 4070 más kategória, azt valahova a 3070 és a 3080 közé várják, és egy 3070-3080 szintű kártyával szemben sokkal alacsonyabbak az elvárások. Ahhoz elég a 12 GB, hiszen a csúcs 3080 is csak annyival rendelkezik. Ahol a 4070 kifogy a memóriából, ott a 3080 is kifogy.
Az állítólag szintén 12 GB memóriával majd érkező 7800 szintén valahova ebbe a 1080p ultra és 1440p med/high kategóriába érkezik, és így a 7800 mellé is elég lesz a 12 GB. -
HSM
félisten
Én ha MOST vennék, a 12GB-on elesne. Plusz egy ilyen pici, olcsón gxártható GPU-ért nem vagyok hajlandó majd 1000€-t a boltban hagyni. Ahogy annak idején ugyanezért fel sem merült, hogy 5700XT-t vegyek, RT nélkül árazták a picit gyengébb RTX-ek fölé, feleakkora GPU-val...
Főleg, amikor van erős alternatíva, a 7900XT, 20GB rammal. -
PuMbA
titán
Jó verseny van kilátásban a közép kategóriában. A sima 4070 erős ajánlatnak tűnik az év végére, amikor már csökken az ára. Várjuk az AMD válaszát. A baj megint az, hogy az AMD sehol sincs a közép kategóriás kártyájával, mert a raktáraiban hegyekben áll az RDNA2. A mostani, jóval MSRP alatti árakon is még egy idő mire kiszórják őket. Az NVIDIA most is egy lépéssel előttük jár.
-
S_x96x_S
addikt
> milyen incidens adódott a két cég között.
azért lehetett egy kis incidens is a háttérben,
mert az RDNA2 -es nem muzsikált valami jól a samsung mobill prociban.
Persze az ellenfél Snapdragon 8+ Gen 1 már nem a Samsung, hanem a TSMC 4 -en készült ; úgyhogy nehéz belőni, hogy mennyire okolható a Samsung gyártósor és mennyire az RDNA2;"Despite its PC and console pedigree, the RDNA 2 architecture didn’t scale to lower power scenarios well enough, it seems. Thus, Samsung’s Exynos 2200 SoC with AMD RDNA2-based Xclipse graphics processor was >40% slower in 3DMark gaming benchmark tests (Wild Life) compared to the Qualcomm Snapdragon 8 Gen 1. Sister publication Tom’s Guide looked at how these two processors compared in more detail via a Galaxy S22 Plus smartphone battle. The Adreno easily outclassed the Radeon at the very low power levels sipped by a mobile SoC. Later in 2022, we saw Samsung reconfirm its commitment to the RDNA 2 architecture, but unlike today, no timescales were set out."
https://www.tomshardware.com/news/samsung-extends-amd-radeon-licensing-deal
-
S_x96x_S
addikt
>> a Samsung mobil RDNA affér folytatódik ..
> Ez miért affér?én ezzel a "szerelmi kaland" - típusú üzleti kapcsolatra akartam utalni.
~ aminek még nem nagyon van jelentős - anyagi haszonban is mérhető előnye.de amúgy sok jelentése van a szónak; és van üzleti - jelentése is.
https://nonprofitmedia.hu/affer -
Petykemano
veterán
Tehát a cél az volna ezzel, hogy minimalizálják a user input miatti állapotváltozás és a meghosszabbított vektorok közötti különbséget.
Merthogy ha megjelenítik a renderelt képkockát, félő, hogy arra reagál a user és a köztes generált képkocka és a user inputot tartalmazó képkocka között nagy lesz a különbség.De ha a renderelt képkockát visszatartják és helyette egy köztes állapotot jelenítenek meg, nem történhet meg ugyanaz, hogy arra reagál valamit a user és ahhoz képest a renderelt kép nem fog stimmelni, pontosabban a két renderelt kép között lesz túl nagy különbség?
-
HSM
félisten
-
HSM
félisten
Tehát a lényeg, hogy nem "előre" találja ki a generált képkokckát az előzményekből, hanem visszatartja, és amikor a következő is elkészült, akkor generál közéjük egy újat, és kezdi őket megjeleníteni szépen sorban, miközben számolódnak az újak, ebből jön az extra késleltetés. Itt elmagyarázza, ha az általam leírtakból nem állt össze: [link] , van teszt is [link] .
-
Abu85
HÁZIGAZDA
A zártság önmagában azt jelenti, hogy nincs jól megvalósítva, mert nem tudod átírni a hibáit. Például a Hairworkshöz azért nem tudtad hozzáadni a jó minőséghez szükséges OIT-t, mert nem volt nyílt forráskódú. Ha nyílt lett volna, akkor ki lehetett volna javítani a jelentős dizájnhibáit. Az RTXGI is átírható lenne, ha megadná az NV erre az engedélyt. Nyilván egyszerűbb lenne a fejlesztőknek kijavítani a hibáit, mint nulláról fejleszteni valamit.
-
Abu85
HÁZIGAZDA
Az NVIDIA sosem volt erős ezekben az effektekben. Lásd Gameworks. Komoly félrefejlesztésük is volt, lásd VXGI. Nem azért ők a legnagyobb GPU-gyártó cég, mert jól tudnak effekteket írni, mert valójában messze ez a leggyengébb képességük. Az Intel is jobban teljesít náluk itt. Viszont a piacon nem ez a döntő tényező.
-
Abu85
HÁZIGAZDA
Az NV leírása szerint az RTXGI egy probe-alapú adatstruktúrát használ, ami valós időben kezeli a fény- és távolságadatokat. Ennél vannak jobbak is, például a reservoir-alapú újramintavételezési technikák, de ha teljesítményt is akarsz, akkor még jobb kell, és leginkább ott van értelme javítani, ahol ezek a meglévő technikák a brute force miatt csődöt mondanak, leginkább a meglévő adatok újrafelhasználhatóságában.
Az RTXDI az nem is GI technika. Nyilván megközelítőleg sem fog olyan minőséget adni, mint egy globális illumináció. Ha adna, akkor ma senki sem használna GI-t, mert elég lenne a szimpla DI. Ráadásul a DI esetében nem is annyi az egész, hogy berakod a játékba, mert a direkt illumináció miatt rengeteg pre-processinget igényel. Tehát hiába működne jól maga a technika, ha nem szánod rá a több hónapot, hogy minden jelenetben jól beállítsd, akkor nem ér majd semmit. A GI ezért jobb, mert arra nem kell rászánni az időt. Azt csak berakod és működik.
-
Abu85
HÁZIGAZDA
Az AMD GI eljárása teljesen szabványos, csak DXR-t használ. Abban különbözik az NV RTXGI eljárásától, hogy bevezet egy olyan gyorsítótár-hierarchiát, ami cache-sel bizonyos adatokat, hogy ezek később felhasználhatók legyenek. De maga a sugárkövetés része az ugyanaz, csak nem olyan brute force megoldás, mint az RTXGI, hanem próbálnak belevinni egy kis észt, hogy sokkal gyorsabb legyen. És ez konkrétan mindenen gyorsabb, mert magából a caching algoritmusból szerzi a sebességet. Emiatt az AMD-nek tök felesleges egy DI alternatíva, mert ők már GI-ból hozzák a sebességet, ugyanis nem rossz hatékonyságú brute force alapon dolgozik a technikájuk.
Várható volt, hogy valaki előáll majd valami hasonlóval, mert a brute force sosem volt kifizetődő. Csak idő kell, amíg az ésszel dolgozó megoldásokat kifejlesztik.
-
DudeHUN
senior tag
Series S-en is a nextgen motor fut.
Magyarázd meg a 2K-nek. Ők tolják ezért a prevgen verziót még PC-n, mert a potenciális vásárlók jelentős részének nincsen megfelelő vasa. Ne feledd a játék egy 6/12-es mobil Zen (8/16 csak ugye a játék nem használhatja mindet) és NVMe SSD-s gépre lett fejlesztve. Szvsz nem a GPU a szűk keresztmetszet. De majd meglátjuk az első port gépigényén. Remélem idén már ezt a verziót kapja a PC is. -
PuMbA
titán
PS5-ben 36 CU van, tehát sima RX6700 szint körüli. Memória alrendszer az érdekesebb, mert ugye nincs Infinity Cache, viszont helyette 320GB/s helyett 448GB/s a sávszélessége. Digital Foundry 2060 Super-t használ a konzol vs. hasonló teljesítményű PC összevetéseihez egy Ryzen 3600 mellett.
-
Abu85
HÁZIGAZDA
Attól függ csak az előny, hogy miképpen használod a motort. A Radeonok akkor szoktak előnybe kerülni az UE 5-ben, ha sok a rajzolási parancs. De ez valószínűleg nem a motor miatt van így, hanem az AMD-féle D3D12 meghajtó hatékonyságából származik.
A Unity 5 az nem hiszem, hogy érdekes lesz, mert az kb. 7 éves.
-
-
Alogonomus
őstag
Lévén az USA nagyobb piac is, mint az euróövezet, plusz az állítás is az amerikai piacról szólt, így a Micro Center árait néztem, ahol a 19 fajta RTX 4080 $1200 és $1600 között kapható, míg a 10 fajta RX 7900 XTX $1000 és $1200 között kapható. Ez az alsó érték esetén 20%, a felső érték esetén pedig 33% különbség.
Egyébként már a Mindfactory kínálatában is van 1190 Euro alatti 7800 XTX kártya, de 1330 Euro alatti 4080 kártya is.
A GPU Tracker oldal adatait is pont annyira kell komolyan venni, mint akár a Steam Survey, akár a JPR adatait. Az adatok egy részére látnak csak rá. -
Petykemano
veterán
csorog lefelé
nemrég még csak $40-ral volt msrp alatt.
Persze kérdés, hogy ez mennyire lesz tartós.Én azt látom pl az RDNA2 árakon, hogy annak ellenére, hogy a forint árfolyama javulgatott, az elmúlt hetekben az RDNA2 árak emelkedtek.
-
bjasq99
tag
Bocs úgy emlékszem, hogy abban a cikkben amit linkeltél nincsenek játék tesztek, csak egyéb mérések, amik nem feltétlen reprezentatívak játékok során mért hitrate -re. Ami reprezentatív az a cikk amit legutóbb hoztam és valós játékokban mért hitrate. És, Abu szerintem nem jó az érvelésed,, hogy pár kb os shaderek hitratejeként emlegeted, de ez nem számit, az számít, hogy az adott shader milyen arányban fordul elő a feldolgozásban. Mint vizsgálták azok a shaderek a feldolgozás döntő részét képviselték, hiába, hogy kicsikék. Igen és vannak olyan feladatok amelyek sokkal nagyobb memória téren garázdálkodnak, de még sem ők a döntő többségük. Pl a raytracinges CP mérés: 21 ms frametime ból 7 ms vett el a vizsgált shader 82 % -os L2 hitrate -el. A 7 harmada a 21 nek tehát ha feltételezük, hogy a fame generálás többi folyamatában 0% os a cache hitrate (ami örületesen nagy túlzás csak a szemléltetés miatt) akkor is marad 82/3 = 27.3 % hitrate a teljes frame esetében, remélem lehet követni.
-
Petykemano
veterán
Bevallom, nem.szoktam a PH-en naponta 10 megjelenő nvidia driver problémáról szóló cikk alatti kommeneket olvasni, ahová az nvidia driveres problémák történelmére emlékező emberek járnak.
Talán emiatt szorulhattam bele egy a buborékba, ahol az általam gyakran látogatott AMD-szobákban az AMD-vs-Nvidia kérdésre gyakran reagálnak látszólag az AMD-vel elégedetlen és az Nvidiával elégedett emberek a kérdésre nem alázatos módon prezentálják a driveres problémák megoszlását mondjuk 5:4 arányban, hanem magabiztosan azt a percepciót keltve tálalják, mintha ez 5:0 lenne.
Egyébként én a jelenlegi helyzetben pont nem várnék piacrész fordítást. Pár nappal ezelőtt írtam le, hogy ha elfogulatlanul és nem végletes elkötelezettségből nézzük, akkor nincsenek óriási különbségek, amik a 4:1, 8:1 piaci részesedést magyaráznák. Ugyanakkor azt se tudnám elmondani, hogy az AMD bármiben (szoftver, teljesítmény, hatékonyság, stb) is előnyben lenne most az AMD (szemben a CPU piaccal, ahol azért tudott felmutatni előnyöket) és az, hogy 5-10%-kal kedvezőbb áron adnak valamit, az jelenleg ennyire elég.
-
Petykemano
veterán
> szóval ne panaszkodj ha egy Amd hibát kiemelnek
Eszem ágában sincs emiatt panaszkodni. Tökre jogos a kritika, hogy valamit eltöketlenkednek.Amiatt panaszkodtam, hogy hiába az anyázott fícsörök és a napi 10 lehúzó PH! cikk, annak ellenére, hogy itt is, ott is elő-előfordulnak akár komolyabb hibák is, a köz-emlékezetben AMD hibáinak mértéke és mennyisége jobban megmarad, az Nvidiáé kikopik, ami így ahhoz a hamiskás benyomáshoz vezet, hogy az AMD hibáinak súlyossága és/vagy mennyisége annyival magasabb, mint amennyivel a piaci részesedésben lemarad, így előbbi tökéletesen magyarázza utóbbit.
-
Jacek
veterán
Hogyne, most beletoljak mindenbe...egyre durvabban. Gondoltam hogy ez nem az NV sara hanem biztos az AMD-e mert o gyartja a konzolokat. De ezt a borjackos tolta be, teljesitmeny az ablakban, majd renderelunk 720p-ben megszorozzuk kettovel es meg van oldva
a teljesitmenyt meg adjuk 2x aron.. emberek meg eszik, en is pl.
Termeszetesen kisarkitom de ez a helyzet..De hogy ennek tapsolni.. ez erosen hajaz bizonyos szavazokra
-
Jacek
veterán
Legnagyobb problema a DLSS es FSR-el a programozok "szarok a farmra" viselkedese... nem arra van hasznalva hogy gyorsulj hanem hogy o kevesebbet optimalizaljon...
Oszinten a k...a a....d.. koszonjuk Nvidia..
Nem hardvert fejleszt hanem kitalalta ezt a szart(tudom konzolokon elobb lett divat) .
Most nezhetem a mosottfos kepet a nativ 4K helyett mert programozo Jozsi a kurva anyja ott bassza meg mondattal befejezettnek tekinti a munkat
Majd a DLSS4 olyan lesz.hogy minden 5-ik kepkocka valos lesz, meglesz a 144fps 30x5 -
bjasq99
tag
Igen pontosan ezt írom #60184 -ben, hogy két különböző dologra gondolunk jó feature alatt.
Bocsánat én szimplán tisztán elméleti szinten gondolkodok ilyenkor, hogy mi lehet a maximális potenciál, de azt is tudom, hogy ez nem reális csak engem az elméleti határok érdekelnek.
Abban viszont te is bele mentél az elméleti határokba, amikor kijelentetted, hogy 100 évig is trainelhették volna akkor sem lett volna jobb. -
bjasq99
tag
Az első dlss nem általánosan az Nv által trainelt neurális hálót használt, hanem minden játékgyártónak saját magának kellett volna játékspecifikusan trainelni a hálóját.
A vulkan -os példára pedig akkor én is rávághatnék egy olyan választ mint te tetted az Amd Fsr -jára. Lehet, hogy elhanyagolható összességében mindkettőnek a felkapottsága, de még tartalmazhatnak innovatívabb fejlesztéseket. -
bjasq99
tag
Most attól, hogy összességében jobb a Dlss mint az Fsr az miért zárná ki a lehetőséget, hogy egyes részeiben innovatívabb. Korántsem írom, hogy jobb vagy rosszabb, mert most attól függ, hogy jó vagy rossz egy feature, hogy menyire is támogatott. Ha a gyártok normálisan foglalkoztak volna a Dlss 1-el talán most az lenne a legnagyobb feature.
-
bjasq99
tag
Szerintem szoftveresen nagyon nagyot lehetne dobni, csak nem válalják a plusz munkát. Nézd a Dlss 1 is olyan volt, hogy minden játékgyártónak egyedileg kellett volna trainelnie a neurális hálót, de erre sem vették a fáradtságot, pénzt. Nem azt mondom, hogy a mostani rendszer nem nyereségesebb, hanem azt, hogy technikai oldalról iszonyat potenciál marad így ki.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- OnePlus 13 - Black Eclipse - Használt, karcmentes
- Samsung Galaxy A06 128GB Kártyafüggetlen, 1Év Garanciával
- BESZÁMÍTÁS! 6TB Seagate SkyHawk SATA HDD meghajtó garanciával hibátlan működéssel
- BESZÁMÍTÁS! Microsoft XBOX One S 1TB lemezes játékkonzol garanciával hibátlan működéssel
- BESZÁMÍTÁS! MSI B550M R7 5800X 32GB DDR4 512GB SSD RX Nitro+ 6700XT 12GB Corsair 4000D ASUS ROG 650W
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: CAMERA-PRO Hungary Kft
Város: Budapest