- Megérkezett a Google Pixel 7 és 7 Pro
- Honor Magic V5 - méret a kamera mögött
- Samsung Galaxy Z Fold7 - ezt vártuk, de…
- Vivo X200 Pro - a kétszázát!
- Yettel topik
- Samsung Galaxy A56 - megbízható középszerűség
- Samsung Galaxy Watch7 - kötelező kör
- Milyen okostelefont vegyek?
- Új Trónok Harca telefon érkezik
- Magisk
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
válasz
FLATRONW #70981 üzenetére
Borzalmas árakon. 5070 300 K tól, 9070 335 K, 5070 Ti 450K, 9070 XT nincs.
ha áfát mindent számolok akkor is brutális felár mindegyik gyártónál MSRP hez nézve.
Tom's éppen erről írt, hogy ez mindenhol probléma. megnézték az árakat átlagban is...
[Real-world GPU prices cost up to twice the MSRP — a look at current FPS per dollar values]
A régebbi szériák is érintettek, AMD és Nvidia egyformán, sőt az Intel is. Egy 4060 350, egy 7600 XT 420, 9070 870$, 5070 640$, 9070 XT 950$., 5070 Ti 940$ -
S_x96x_S
addikt
válasz
FLATRONW #68755 üzenetére
> Ez mit sem számít. Az AMD árazhatja olcsón,
> majd a többi láncszem szépen beárazza az NV teljesítménye alapján,ja ... hogy te olyan extrém lehetőségre is célzol,
mint nemrég a CPU-nál, történt ?~ amikor is nincs elég 9800X3D CPU, mert az Intel teljesítménye alapján - az eddigi intelesek is - X3D procit akarnak és a túlkereslet miatt nincs annyi a piacon?
( vagy másképpen az AMD nem készült fel erre az akkor még kis valószínűségű lehetőségre )Én ennyire még nem írnám le az nvidiát.
Persze kicsi matematikai esélye annak is van,
hogy az RDNA4 -nél a túlkereslet miatt !!! --> termékhiány lesz
és emiatt elkezdik skalpolni az RDNA4 -et
És ekkor már a GDDR6 olcsósága se számít.
Persze - ezzel a véglettel az AMD sokkal inkább kiegyezne mint a másik véglettel,
hogy senkinek se kell az RDNA4. -
S_x96x_S
addikt
válasz
FLATRONW #68737 üzenetére
> Miért lenne ez máshogy az AMD esetén?
Az RDNA4 -ben nincs GDDR7; És az RTX50 -be kell.
És ez előny és hátrány is;
de az árazás szempontjából kifejezetten előny.a GDDR6 - jól bevált unalmas technológia,
meglepetések nélkül - és ellátási problémák nélkülPersze később, amikor a GDDR7 termelés felfut,
akkor a GDDR6 már hátrány lesz.https://prohardver.hu/hir/nvidia_gddr7_memoria_magas_ar_uj_geforce.html
https://prohardver.hu/hir/msi_asus_megemel_uj_geforce_arazas.html -
Abu85
HÁZIGAZDA
válasz
FLATRONW #67641 üzenetére
Itt igazából az volt a gond, hogy George arra akart üzletet építeni, hogy gaming VGA-kat használ majd AI-ra, üzleti szinten. Az AMD meg nem különösebben rajongot az ötletért, mert nekik erre az Instinct vonaluk van, ami bő egy-két nullával drágább árcédulával fut. És George erre így nem tud üzletet építeni, mert az AMD nem hajlandó a gaming VGA-kat üzleti AI-ra irányuló szinten támogatni. Saját erőből pedig nehezen megy, mert nincs mögötte elegendő humár-erőforrás. Így lényegében bukta az üzletét. És persze ez nem az ő hibája volt, hanem az AMD-é, ugyanis elképesztően szemét módon üzleti AI-ra az Instinct vonalat szánja, nem a Radeont, ami George-nak nem jó, mert oda az árelőny. Most azzal próbálkozik, hogy GeForce-ot fog használni ehhez, de ugyanoda fog jutni, mert az NV-nek sem érdeke üzleti AI szintjén GeForce-ot kínálni, mert egy-két nullával olcsóbb az árcédula az ide szánt hardvereknél. George elképzelése erről sosem fog működni, mert ha ezt engedné az AMD, vagy az NV, vagy az Intel, akkor minden csúcs-VGA-t felvásárolnának AI-ra, így nem jutna a gamerekhez egy szem termék sem. Lásd a kriptoőrület anno. George üzleti elképzelése erről nem reális, mert egyik cég sem lesz ebben partner.
-
Petykemano
veterán
válasz
FLATRONW #67641 üzenetére
Nem állt szándékomban félreérthetően fogalmazni: nem gondolom, hogy a gondot nagyolta volna el. Valószínűleg tényleg sok olyan problémára mutattot rá, ami nehézkessé teszi az AMD szoftver használatát, vagy hogy nincs minden use-case tesztelve.
Amit elnagyolhatott az talán az, hogy ezek mennyire felületes hozzáállás vagy mélyen gyökeredző problémák, szoftvertervezési sajátosságok. -
Petykemano
veterán
válasz
FLATRONW #67618 üzenetére
"aki alig egy éve még szoftveresen fel akarta őket zárkóztatni az NV szintjére"
Nem. Azt gondolta, hogy ő okosabb mindenkinél és nagyot akart szakítani AMD hardverre építve. Ebbe az álláspontjába időt és arcot is invesztált. Aztán amikor az általa felderített hibák és hiányosságok foltozása mégse ment olyan gördülékenyen, mint remélte, akkor látványosan elkezdte pocskondiázni az AMD-t, hogy a történetre ne úgy emlékezzen a közösség, hogy ő esetleg elnagyolta a problémák mélységét, hanem úgy, hogy minden az AMD hibája.
-
fLeSs
nagyúr
válasz
FLATRONW #66081 üzenetére
Ránéztem most az AMD R&D költségeire:
2017: $1.2B
2018: $1.4B
2019: $1.5B
2020: $2B
2021: $2.8B
2022: $5.5B
2023: $5.9B
2020-tól kezdett el felfutni, tehát amit addig csináltak azt aprópénzből hozták össze, ők ugye CPU-t és GPU-t is terveznek.
2019-ben jött ki az RDNA, aprópénzből.
2020/21-ben jött ki a RDNA2, aprópénzből.
2022/23-ban jött ki az RDNA3, ez architektúrálisan nem sokat változott az RDNA2-höz képest, még mindig aprópénzből.
Nekem olybá tűnik, hogy az AMD amióta majdnem csődbement (2014 környéke?) nem készített olyan játékos GPU-t, amibe igazán komoly összeget öltek volna bele, mert nem volt rá pénze.
2021 volt az első év amikor már lehetett volna rá pénze, ha úgy vesszük, hogy az RDNA3 az egy ráncfelvarrt RDNA2, akkor a ~2 éves fejlesztési ciklusba éppen belefér (2022/23 mínusz 2). De hát még erre sem költöttek szinte semmit a "megszokotton felül".
Az első olyan GPU amire elvileg már volt pénzük az az RDNA4. Az első hírek arról szóltak, hogy ennek a csúcsverziója vmi nagy sokchipletes cucc lett volna, de végül nem csinálják meg, ezért lesz csak középkategória. De ha igaz a pletyka, akkor ez volt az első olyan GPU (Navi41?) amibe már komoly pénzt kezdtek el beleölni.
Sztem az RDNA5 (UDNA5?) lesz az a generáció, aminél már kijöhet, hogy az AMD mit tud GPU téren ha van rá pénze.
Bár az NV-hez képest még mindig le vannak maradva, náluk 2023-ban $7.34B volt az R&D. -
Alogonomus
őstag
válasz
FLATRONW #66077 üzenetére
Azért:
- a 16 nm-es Pascal esetén a 200 mm²-es GP106-os GTX 1060 egyértelműen a 14 nm-es és 232 mm²-es Polaris20-as RX 580 alatt teljesített, míg a 314 mm²-es GP104-es GTX 1070 eleinte erősebb volt, ami 2020 környékén az új játékokban már inkább egál lett az AMD-féle "fine wine" effektus hatására.
- a 12 nm-es Turing esetén pedig a 445 mm²-es TU106-os RTX 2070 és az 545 mm²-es TU104-es RTX 2070S között volt teljesítményben a 7 nm-es és 251 mm²-es Navi10-es 5700 XT. Persze az RTX esetén az RT-magok is elfoglaltak jelentős területet, azért akkora a méretbeli különbség.Mindenesetre az AMD általában a modernebb node esetén cserébe kisebb chipméretből is érte el ugyanazt a teljesítményszintet.
-
Raymond
titán
válasz
FLATRONW #65130 üzenetére
Link es Air Link - H.264 max 960Mbps, H.265 max 200Mbps
Steam Link - H.265 350Mbps
Virtual Desktop:
H.264 max 200Mbps
H.264+ max 400Mbps
H.265 (10bit) max 200Mbps
AV1 (10bit) max 200MbpsAzert nem ugyanaz mert mas encoder profilt hasznalnak az egyes megoldasok.
A felbontas attol fugg mi van beallitva a jatekban, a VD-nel pl igy alakul:
Setting Render_Res Encode_Res
---------------------------------
Potato 1440 x 1536 960 x 1024
Low 1728 x 1824 1152 x 1216
Medium 2016 x 2112 1344 x 1408
High 2496 x 2592 1664 x 1728
Ultra 2688 x 2784 1792 x 1856
Godlike 3072 x 3216 2048 x 2144Ez szemenkent ertendo, tehat a max 4096x2144 itt es az FPS pedig 60, 72, 80, 90 vagy 120.
A fentiek Quest 3-ra ertendok. A gyakorlatban nincs difi a H265 es AV1 kozott kepminosegben az alltalaban hasznalt 150-200Mbps kozott. Ha a Steam Link-ek automatikusra allitod az olyan 250-300Mbps kozott mozog. A magas bitrate H264 a szimulatoroknal jo mert ott sok a valtozas ket kep kozott es kell a bitrate hogy ne essen szet a kep ha egy open wheeler-ben ulsz mondjuk. normalis kasznis autoknal nem olyan veszes. Vagy ha az erdoben es esoben csapatod Dirt-ben.
-
proci985
MODERÁTOR
válasz
FLATRONW #65130 üzenetére
igen
---
[link] ez itt egy valamennyire bovebb leiras, ha a technikai resze erdekel, mert a valasz meglepoen bonyolult.
a felbontas SWfuggo eleve nativnal is. a CV1 gyakorlatban rossz felbontasat anno ugy oldottuk meg a topikban evekig, hogy addig tolta mindenki a super resolutiont, amennyit meg elbirt szamitasi kapacitassal. gyakorlatban ez az upscaling ami lathatoan javitotta az eredmenyt. Q3mat nativan szinte semmi nem hajtja meg.
bandwith: Q3nal elvileg 400Mbps megy H264ben es AV1/HEVC modban 200Mbps.
headset a konverziot felbontasnal (es egyebkent) megoldja, Q2nel benchek alapjan amit lattam kb Xbox S szinten van a headset, Q3 meg kb egy picit lassabb snapdragon gen2. szoval boven van kapacitas utanallitani.
---
emiatt nem erdekes annyira, hogy mennyi az artefact. eleve a lencse sem tokeletes amit valamennyire a headset belsoleg kezel. eleve nem grafikai munkara van szanva, amire a lencsek belso vezerlese miatt -es az ember fizikai interface miatt- ezek a headsetek eleve nem lennenek jok.
nem szabad abbol kiindulni, hogy egy PC kijelzon mi a fontos. hasonloan, ahogy egy projektor se lesz annyira eles, mint egy TV, cserebe sokkal puhabb lesz a kep. irodaban kozos code reviewre adott esetben nem biztos, hogy a projektor a jobb megoldas pl.
---
es ezzel kb vissza is terunk oda, hogy AMDnel a 7es generacio raszterben bivaly (7680x1440pben is), technologiai oldalon (is) kene a 8.nal javitani.
-
Petykemano
veterán
válasz
FLATRONW #62891 üzenetére
Engem azért érdekelne, hogy vajon ezek a botrányt keltő termékbemutatók vajon saját ötletek-e, vagy a CEO megrendelésére készül? Vajon Scott Herkelman azért mond-e le, mert lemondatták a botrányos eredményért, vagy mert lenyomatták vele a botrányos eredményű műsort és ebben nem kíván többet részt venni? Vagy azért, mert teljesen lekerül a fókusz az RDNA-ról a jövőben?
-
Alogonomus
őstag
válasz
FLATRONW #62653 üzenetére
Azért érzem merésznek, mert egyből azt a gyorsulást ígérik, amit a zöld oldal is csak a tesztplatformjának számító Cyberpunk keretein belül tud elérni, de a tesztek alapján azt is csak erős szellemképesedéssel társulva.
Nem az FSR 3-mal elérhető 3,4-szeres gyorsulásban kételkedem, hiszen az megfelelő mértékű felskálázás segítségével nyilván elérhető, csak az AMD látszólag megint az Nvidia számaival szeretne versenyezni, pedig most esetleg többet érne egy konzervatívabb "mondjuk 2,5-szeres" gyorsulást felmutatni, de nagyságrendekkel szellemképmentesebben.
Ezzel lehetne a DLSS 3 fölé kerekedni, nem az elérhető fps mértékében kellene versenyezni vele. Mivel lassan egy évvel a DLSS 3 bemutatását követően a legfrissebb Immortals of Aveum kapcsán is stabilan jelen van a durva ghosting, így a DLSS 3 technológiája valószínűleg elkerülhetetlenül/kigyomlálhatatlanul hozza magával a ghosting jelenségét, vagyis a magas fps egyszeri "kifotózásán" túl a tényleges játszás során a DLSS 3-at inkább kikapcsolva tartják az emberek. -
Abu85
HÁZIGAZDA
válasz
FLATRONW #62090 üzenetére
Éppenséggel lenne választásuk. Attól, hogy reklámpénzt rak beléjük az AMD, még nem kellene a kódokat tőlük szerezni. Csak a Bethesda a könnyebb utat választja. Ha már van egy technikai partnerük, akkor kérik a kódjaikat, mert maguk meg nem akarnak 12000 sornyi memóriamenedzsmentet írni.
Ugyanúgy lenne választása a Nixxesnek is. Nem kell beleírni azt a három sornyi feltételes elágazást, és bekapcsolható a kód.
Választás tehát mindig van, csak ma már többet ér a pénz. Ne tegyünk úgy, hogy nem kurvultak el a stúdiók, holott elkurvultak. Az AMD és az NV csak kihasználja, hogy megvehetők kilóra. Aki pedig rosszul jár az a user, aki végeredményben fizet azért, hogy elméletben jól járjon.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #62082 üzenetére
A Sony számára pont az a jó, ha a PC-sek alárendeltek maradnak. Minél nagyobb a káosz PC-s szinten, annál nagyobb a PlayStation felé kacsingatók aránya.
#62083 Raymond : A Nixxes teszi bele a feltételes elágazást a kódba, hogy a szabványos kód ne fusson az egyik gyártón. Tehát ehhez 100%-ban a Nixxesnek van köze, hiszen ha ezt nem akarják, akkor csak ki kell venni a feltételes elágazást és kész.
Nem értem, hogy miért személyeskedsz? Állandóan ide viszed a vitát. Erre az alacsony színvonalra sosem fogsz engem levinni, bármennyire is próbálkozol. Egyszerűen nem akarok személyeskedést belevinni, még akkor sem, ha valaki ilyen stratégiával próbálja megnyerni a vitáit, mert másképp képtelen rá. Felőlem mindenki választhatja a könnyebb utat, de annak az egyetlen jutalma az, hogy könnyű.
#62084 FLATRONW : A DLSS az nem ettől függ. Ott az Xbox GDK a gond. Az egy nagyon más FSR verziót használ, mint ami letölthető a GPUOpenről. A Starfielddel nem is ez a gond, hanem az, hogy a D3D12MA és a The Forge. Ez a két komponens, ami leginkább meghatározza a leképező sebességét és a memóriahasználatot, és a szállított kód nagy részét az AMD programozói írták meg. A Bethesda egy megrendelő volt.
-
S_x96x_S
addikt
válasz
FLATRONW #61725 üzenetére
> Annál látványosabb, hogy multi-monitor
> és videólejátszás közben mennyire megugrik a fogyasztása:igen;
de azért a DisplayPort 2.1 is bekavarhat valamennyire; és amit az nVidia nem lépett meg.
( "DisplayPort 2.1, which enables 8K output at up to 165 Hz refresh-rate, or 4K at up to 480 Hz" )összes Pro és Con érv - mellette és ellene _
( főleg azoknak aki nem csak az általam mazsolázgatott infók érdeklik )
https://www.techpowerup.com/review/amd-radeon-rx-7600/41.html -
válasz
FLATRONW #61396 üzenetére
Abban a formában, amit husky először írt nem, mivel ő azt írta, hogy az biza egy GI.
"Brixelizer? Rákerestem, egy screen space alapú GI"
Szóval nem, nem GI, lehet az output-ját bele feed-elni, de attól még nem lesz az.
A "köze nincs", az azt jelenti, hogy nem AZ, attól még hogy az output abba feedel-hető.
De ezt Abu már leírta... ugyan abban a mondatban, amiben a lovagolt "köze nincs" rész van...Erre lehet egy csomó effektet csinálni, például GI-t is, de még ezernyi mást.
husky írt valamit, ami nem állja meg a helyét és a helyett, hogy annyit írna, "jah, ezt benéztem"... na a helyett megy a szokásos ipari Abu fika
-
2xar
tag
válasz
FLATRONW #59032 üzenetére
A fizikailag, technológiailag lehetségesnél rosszabb chipet gyártani bárki tud. A lehetségesnél 20%-al jobbat SENKI. A fizika törvényei mindenkire vonatkoznak.
Amit írsz annak akkor lenne értelme, ha a Lovelace egy szar arch lenne. Akkor elképzelhető lenne, hogy az AMD kihoz egy kisebb, kevesebbet fogyasztó, de gyorsabb, vagy ugyanolyan gyors chipet. Csakhogy a Lovelace egy kimondottan jól sikerült darab. Sokkal nagyobb ugrás az elődjéhez képest mint ami pl. a Gf 10-20-30-as szériák között volt.
Az, hogy az AMD a jelenlegi infók alapján tudja tartani vele a lépést teljesítmény/die-méret, illetve telj./watt arányban is egy meglepő és nagyszerű hír. Még ennél is többet várni egyértelműen a csodavárás kategória.
-
PuMbA
titán
válasz
FLATRONW #59044 üzenetére
"Főleg most, hogy az RDNA 2 esetén is kisebb volt az AMD, mégis tudta az NV szintjét hozni."
Azt azért tegyük hozzá, hogy az NVIDIA úgy volt nagyobb, hogy RT-ben jóval jobb is, tehát nem a semmi miatt lett nagyobb, hanem valós és mérhető előnye lett abból, hogy nagyobb
FLATRONW: Sajnos tudom. Ki is bannoltak egy napra az RDNA2 topikból, mert megemlítettem, hogy RT és hogy az NVIDIA ebben gyorsabb. A legrosszabb, hogy én csak az igazat mondtam, de én lettem kibannolva. Süllyed a PH színvonala erősen és egyre kevésbé tetszik, 2005 óta vagyok itt.
-
válasz
FLATRONW #59042 üzenetére
Akkor soroljam ez eddigi teljesen illogikus meglátásaidat (ha még csak azok lennének, de inkább kinyilatkoztatások a részedről)
- 20% méretbeli különbség a konkurenshez mérten nem jelent semmit se product placement szempontjából
- Az AMD-nek mindenképpen a 20%-kal nagyobb kiterjedésű AD102-t kellett céloznia a Navi 31-gyel, mert anno a Vega esetén egy nagyobb kiterjedésű chip-pel jött ki az nV ellen... -
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #59024 üzenetére
Csak a gyártási költségen van a hangsúly, ha nem azon lenne, akkor nem lenne chipletelés. A Navi 31 azért olyan, amilyen, hogy ne csak az AD102-nél lehessen olcsóbban gyártani, hanem az AD103-nál is. És ezt elérték. Ha az egész dizájn 5 nm-en készülne, akkor a gyártási költsége az AD102 és az AD103 között lenne, nem az AD103 alatt.
És egyébként a gyártási költség lesz annak is az oka, hogy a Navi 33 nem megy 5 nm-re, hanem marad 6 nm-en.
#59034 KillerKollar : 144 lesz az a 142. De amúgy ja, éppenséggel tudjuk, hogy mi a max konfiguráció.
-
2xar
tag
válasz
FLATRONW #59027 üzenetére
"15 százalék körüli eltérésnek"
Legalább 20%. Az Infinity Links helyet foglal mind a 7 chiplet-ben, míg az NV-ben erre nincs szükség a monolitikus dizájn miatt. Ahogy Abu 300 vs 600 mm2-es összehasonlítása nem volt fair, úgy a tiéd sem az ha ezt nem veszed figyelembe (608/533=1,14). Ha figyelembe veszed: 608/500=1,21.
Reálisan 21%-al nagyobb az AD102 mint a Navi 31.> Vega 64 egy picivel nagyobb volt az 1080 Ti-nél, mégis jelentősen lassabb is volt. Tehát bőven versenytársak a Navi 31 és az AD102.
Itt logikai bukfencet érzek
Abból hogy az AMD egy jóval nagyobb chip-pel se tudta felvenni a versenyt az NV ellen a Vega idején, levonod a következtetést, hogy most egy sokkal kisebbel is kéne sikerüljön nekik...
Az Nv bőven bizonyította az elmúlt 30 évben hogy tudnak hatékony architektúrákat csinálni, még ha mellé is nyúlnak időnként. De az AD102 bőven ott van a legjobban sikerült generációik között. Hogy az AMD ezen még hozzon +20%-nyi hatékonyságot nem csak csoda lenne, hanem a fizika törvényeit feszegetné...Ha viszont mégis elfogadjuk a következtetésedet, hogy "Nem igazán van jelentősége a chip méretnek" és a 20%-al kisebb Navi 31 kéne tudja az AD102 teljesítményét, akkor miért nem csinálta meg az Nv 20%-al kisebbre az AD102-t? Sok pénzt spórolhatott volna magának...
-
2xar
tag
válasz
FLATRONW #59024 üzenetére
Hát nem tudom, szerintem nem reális elvárás egy 530mm2-es chiptől hogy versenyezzen egy 600mm2-essel. Főleg hogy az 530mm2-be a chiplet dizájn miatti plusz helyszükséglet is benne van. Ha az is monolitikus chip lenne akkor lenne mondjuk 500mm2 (csak nyilván drágább lenne gyártani).
Ezzel korrigálva tehát a Navi31 egy nála 20%-al nagyobb GPU teljesítményét kéne hozza szerinted? Amellett hogy még a fogyasztása is 25-30%-al alacsonyabb?
Sztem teljesen korrekt ha az XTX 25%-on belül lesz a 4090-hez és kb. hozza a 4080-at.
Nyilván az AMD is csinálhatott volna egy ~650mm2-es chiplet GPU-t. Gyártani még azt is olcsóbb lett volna mint az AD102-t. Fogyasztásban is hasonló szinten lettek volna. És akkor reális elvárás lenne, hogy hozzák a 4090-et. Kérdezd meg tőlük hogy miért nem tették. De az is lehet, hogy ott van még az a tarsolyban. Vannak pletykák 7990XTX-ekről. Bár azok inkább csak emelt frekiről, mintsem növelt SKU méretről szólnak.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #59020 üzenetére
A probléma nem maga a lapkaméret, hanem a gyártási költség.
A jelenleg tömeggyártás alatt álló termékeket figyelembe véve az AD104 a legolcsóbb, a Navi 31 a chipletjeivel is valamivel drágább, ennél drágább az AD103, az AD102 pedig sokkal drágább mindennél, amit eddig felsoroltunk. Ez ugye nem meglepetés, hiszen messze a legnagyobb lapka, és a teljes lapkaterület is drága node-on készül. A többi, még készülő fejlesztést figyelembe véve a Navi 32 valamivel olcsóbb lesz az AD104-nél, és a Navi 32-nél olcsóbb lesz az AD106, aminél sokkal olcsóbb lesz a Navi 33, mert ugye utóbbit az AMD megtartja az olcsó 6 nm-es node-on az 5 nm-es helyett.
#59021 Yutani : Eléggé egyértelmű, hogy a MDIA egy CPU-limitet csökkentő fejlesztés. Tehát leginkább akkor működik, ha nem csúcsprocesszorok mellé használja a felhasználó a VGA-t. És tényleg működik. Nem hittük volna, de érdekes meglepetés volt.
#59022 evitiguF : Tényleg majdnem minden DirectX 12-es játék használja az ExecuteIndirectet. Ez ugye egy alapvető API funkció. De persze ez önmagában nem elég, CPU-limit is kell, hogy működjön a gyorsítás, mert a célja ennek részegységnek az, hogy levegye a terhet a processzorról, mivel bizonyos feladatokat megcsinál maga a fixfunkciós egység a processzor helyett.
A Hitman 3 rengeteg beállítást kínál. Nekünk még az alap raszterizálásból voltak eredmények, így azért nem 130 fps körüli, mert nincs aktiválva a DXR. A TPU valószínűleg aktiválja, mert az kb. -100 fps tényleg. És élek a gyanúval, hogy aktiválták az automatikus grafikai konfigurálást, abból kiindulva, hogy mennyire egymáson sorakoznak a hardverek. Ez nem túl szerencsés, mert ilyenkor a játék megváltoztatja a beállításokat.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #59018 üzenetére
Azokat olcsó gyártani. A 6 nm-es node már nem probléma. A gondot az 5 nm-es node ára jelenti csak. Az piszok drága.
#59016 paprobert : A legtöbb DirectX 12-es program használ executeindirectet. Nem mind, például a 3DMarkok nem, mert nem hasznos számukra jelentős CPU-terhelés nélkül, de ahol ez tényező, ott érdemes használni.
#59017 PuMbA : Fixfunkciós hardverekkel tele vannak a GPU-k. A furcsa az, hogy ezt most a parancsprocesszorba rakták. Persze látványosan működik.
-
Alogonomus
őstag
válasz
FLATRONW #58254 üzenetére
Inkább az a gond, hogy egyesek kétségbeesetten próbálják a játékok maximum 5%-ában elérhető RT eredményeivel igazolni egy kártya általános értékét a játékok 100%-ára vetítve. Az már csak extra, hogy ezt pont egy célzottan egyik kártyaarchitektúrára optimalizált játék eredményeit lobogtatva. Ez még annál is szánalmasabb, mint amikor a másik oldal az AC: Valhalla eredményeivel jön, ahol a 3090 Ti vereséget szenved még a 6700 XT-től is, sőt még a 4090 is alig van a 6950 XT előtt.
-
2xar
tag
válasz
FLATRONW #58266 üzenetére
Nem érdekel mivel "szoknak tesztelni". Én játszani DLSS OFF-al szokok. A DLSS ronda artifact-okat okoz a legtöbb játékban (főleg a DLSS 3). Amit persze a low bitráta és a 30fps miatt még a 4K Youtube videókon se talál olyan feltűnőnek az ember. Na de a valóságban... Kösz nem!
#58271 b.:
Ne zavarjon hogy az 1500 dolláros kártyán kívül mindenen még a fentieknél is használhatatlanabb ez a "fícsör", mivel natív 60-80 fps alatt ótvar szar eredményt ad. -
válasz
FLATRONW #58266 üzenetére
Számomra meg marha szar képminőséget ad mindegyik 1080p-ről 4K-ra skálázós gaming cucc akár FSR, akár DLSS. Ég és föld a különbség natívhoz képest. Természetesen még mindig jó hogy van, mert segít gyengébb kártyákon illetve választhat a felhasználó számára melyik az elfogadhatóbb megoldás (natív vagy DLSS/FSR stb.).
Egyetlen tényleg nagyon jó minőségű 1080p-ről 4K-ra skálázást láttam eddig életemben, de az egy real-time AI algoritmus és legjobb minőségen egy teljes 1080 Ti is kevés neki még 24 képkocka/sechez is. -
2xar
tag
válasz
FLATRONW #58254 üzenetére
C2077-ben 4K felbontáson még a 4090 is csak átlag 42fps-t tud, azaz játszhatatlan.
Az ilyen "felskálázzuk 480p-ről 4K-ra, meg még be is szúrunk 1-1 kamu képkockát közéjük" típusú megoldásoktól mint a DLSS meg az FSR pedig csak artifact-os szart kap az ember, ami rondább és idegesítőbb mintha simán csak kikapcsolnád a RT-et.
Innentől kezdve, hiába lenne szép a RT, egyelőre sajnos még mindig használhatatlan. Vagy annyira le kell butítani, hogy megint csak értelmét veszti. Talán majd 1-2 generáció múlva lesz egy csúcskártya ahol lehet értelme használni.
-
YellowFlash
aktív tag
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #57929 üzenetére
A Pascal egy architektúra. A VGA-t lehet VGA-hoz hasonlítani, és jellemzően ár szerint szokás megtenni, mert éppúgy hasonlítható a Vega 64 egy 1080 Ti-hez, ahogy egy 1060-hoz, ha nem számolunk az árral.
#57930 Petykemano : Mindig az volt a jobb döntés, ami eladhatóbb. Ettől függetlenül lehet arról beszélni, hogy x architektúra y-nál jobb lesz öt év múlva, de állandó kérdés, hogy megéri-e erre várni.
#57932 Petykemano : Ahány motor annyi irány jelenleg. Például az Unreal Engine 5 homlokegyenest másfele megy, mint amerre az NVIDIA fejlesztette az Adát.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #57927 üzenetére
A Vega 64 az 1080 ellen jött árban. Mára el is veri. A kérdés, hogy megérte-e ezért a fölényért ennyit várni. Ugyanez lesz a kérdés majd az Ada esetében is. Most például az AC Valhallában a leggyorsabb RDNA 3-as GPU-hoz nincs közel a 4090, annak ellenére, hogy lapkaméretben és tranzisztorszámban az AD102 sokkal nagyobb. Viszont valószínű, hogy ha előreutazunk az időben mondjuk négy évet, akkor az Ada majd gyorsabb lesz. Ez látványos tervezési különbség most az AMD és az NVIDIA között.
-
Pkc83
őstag
válasz
FLATRONW #49116 üzenetére
Köszönöm elolvastam a cikket sőt
kétszer is.
De nem mondott semmi újat.
Mint már írtam tisztában vagyok
vele mi az a dxr és Rtx."Az Nvidia megoldása a szabványra G-Sync néven fut, az AMD megoldása pedig Freesync név alatt."
Pont erre gondoltam én is mikor azt
írtam,hogy a kettő nem ugyanaz.
A példáddal élve: A végeredmény ugyanaz,
nem lesz képtörés viszont az egyik
hardveres a másik meg szoftveres megoldás.
-
Raymond
titán
válasz
FLATRONW #48885 üzenetére
Na igen, nominalisan az egeszet nezve nem sok, csak az AMD-nel nem mindegy hogy 20% vagy 29% a reszesedes mert ez neki annyit jelent hogy kozel masfelszeres volt egy eve a reszesedesuk. Az NV dobott a sajatjara 12%-ot az AMD pedig vesztett 31%-ot.
"5700-asokból eladtak elég sokat. Az Nvidia részesedést a 16xx kártyák húzták, nem a 20xx kártyák."
Ezt peldaul honnan veszed? Meg a sajat Mindfactory-s linked is cafolja ezt az allitastAbbol a JPR jelentesbol egyebkent:
"Overall GPU shipments increased 2.5% from last quarter, AMD shipments increased 8.4%, Intel's shipments, decreased -2.7%, and Nvidia’s shipments increased 17.8%."
Tehat az NV 17.8%-al novelte a szallitmanyokat csak dGPU-bol mig az AMD a dGPU-bol plusz az oszes desktop/notebook APU-bol is csak ennek a nem egesz felet hozta ossze. -
Busterftw
nagyúr
válasz
FLATRONW #48885 üzenetére
Ez jo meglatas, valoban 5-10% vandorol ide-oda, viszont ha 80%-ra novelte az Nvidia es a Navik utan a grafikai reszleg nem teljesitett jol, akkor aligha fogytak jol, hiaba kompetens kartya.
Ezert mondom, hogy nem eleg jo kartyat lerakni az asztalra. Le kell mosni az Nvidiat, maskeppen nem lesz hosszutavu valtozas.
-
Abu85
HÁZIGAZDA
válasz
FLATRONW #46870 üzenetére
Az elmúlt időszakban megjelent VGA-kra 4 GB került minimum. Erre azért számítottak a gyártók. Arra az AMD viszont nem számított, hogy a VMA-jukat, és a D3DMA-jukat copy-paste szintjén fogják használni a játékfejlesztők. Ezeket egyáltalán nem erre tervezték, hanem kiindulási alapnak, hogy ne kelljen nulláról írni memóriamenedzsmentet. Ez hozzájárul ahhoz, hogy a VRAM nincs olyan hatékonyan használva. Az AMD nem tud motorspecifikus kódot írni, így teljesen általánosat ír, ami mindenhova jó, de sehova se hatékony. A fejlesztőnek kell hatékonnyá tenni motorspecifikusan. Csak nem gondolták azt, hogy nagyon időhöz kötöttek a fejlesztések, és a legtöbb motornál az lesz, hogy copy-paste -> teszt -> kb. működik -> jóazúgyahogyvan.
(#46871) Petykemano: Jó, segítettek a legújabb hardvereiken, beírják az AGS-sel azt az egy sort, ami kell az inkluzív cache módhoz, ahogy tette a Far Cry 5 például. És a piac 95%-a?
Az meg, hogy az SSD-ről működjön nem csak egy hardver. Ahhoz kell egy külön API is. Tehát a PS5-öt nem tudod úgy lemásolni, hogy raksz a PC-be egy SSD-t, mert az az API hiányozni fog, ami az egészet működteti. Xbox Series X-en lesz csak DirectStorage és SFS. PC-n egyik sem.
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Xbox Series X|S
- Sütés, főzés és konyhai praktikák
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Vezetékes FÜLhallgatók
- Megérkezett a Google Pixel 7 és 7 Pro
- Milyen CPU léghűtést vegyek?
- sziku69: Szólánc.
- TCL LCD és LED TV-k
- Honor Magic V5 - méret a kamera mögött
- Luck Dragon: Asszociációs játék. :)
- További aktív témák...
Állásajánlatok
Cég: FOTC
Város: Budapest