- Huawei Watch GT 5 Pro - egészség + stílus
- Stílussal és friss szenzorokkal futott be a Huawei Watch GT 5
- Milyen okostelefont vegyek?
- Android alkalmazások - szoftver kibeszélő topik
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- Huawei Watch GT 6 és GT 6 Pro duplateszt
- Szívós, szép és kitartó az új OnePlus óra
- Nem is gondolnád, hogy milyen komplex külső akkut gyártani
- Egyéves Gemini AI Pro a Google-től a magyar egyetemistáknak is
Új hozzászólás Aktív témák
-
Petykemano
veterán
JPU

Az nvidia eddig is készített SoC-okat arm cpuval. Most Fejből nem vágom, hogy custom design volt-e, vagy mindig arm CPU-kat használt.
A hír arról.szól, hogy az nvidia custom arm cput készít?
Mármint ha megveszik tényleg az armot, akkor ugye az is arm CPU lesz, vagy minden nvidia CPU lesz, de a lényege, hogy ellentétben a többivel, ez nem lesz licencelhető.Elég gyakori üzleti modell manapság, hogy van egy community verziója a terméknek, ami opensource, bárki megeshet benne hibát, bárki hozzájárulhat és használhatja is (bizonyos feltételek mellett), de az izgalmas részei fizetős szolgáltatási csomagban kaphatók.
Az Apple példája mutatja, hogy nem lehetetlen jobb cput készíteni, mint amit az arm, vagy az AMD/Intel kínál jelenleg az általuk elérhető gyártástechnológián.
Elég kulcs összetevő lett ez mostanság. A legújabb gyártástecnológiához való hozzáférés és a kapacitás. Aki kimarad, lemarad.
Azt mondják, az AMD részben azért is vette meg a xilinxet, mert így nagyobb szereplő a TSMC asztalánál és jobb feltételeket tud kicsikarni.Vajon lehet, hogy ez a megfejtés az nvidia arm felvásárlása mögött? Ugye abu szokta mondani, hogy az AMD nagyobb hal lett a tsmcnél, mint az nvidia, meg hogy az nvidia nem tud az AMD fölé ajánlani, stb
Lehet, hogy az arm azért kell az nvidiának, hogy ne szoruljon ki a.Legjobb gyártástechnológiákból? -
Abu85
HÁZIGAZDA
Az NV erre nem apellál. Ők a médiapistikkel ellentétben felfogják, hogy a Google számára a Stadia elképesztően kis költség. Ki vannak építve a peremhálózatra a szervereik, amikbe csak GPU-t raknak, és a szabad kapacitást használják a Stadiához. Az egésznek a lényege az, hogy elképesztően kevés extra fenntartási költséggel tudnak több pénzt visszatermelni a Stadia store-on keresztül. A Stadiának akkor lesz baja, ha a Google keresőszolgáltatása leáll, ugyanis akkor nem fognak kelleni a Stadiát működtető szerverek.
Ugyanez van a Microsoftnál és az Amazonnál is. A cloud gaming irányuk egy kiegészítés a meglévő szerverek szabad kapacitásának kihasználására. Költségben nem sok extrát visz, miközben a saját store-ral sokat hoz. -
Abu85
HÁZIGAZDA
Akkor nézd meg. Attól még nem lesz valami külső tér, mert a szabad ég alatt játszódik. Ezernyi trükk van, hogy épületekkel körbevedd a területet, és ezzel megteremted magadnak a zárt tér hatását.
#42790 tisztelturam : Attól függ, hogy szabványosan lesz-e implementálva bele a sugárkövetés. A legtöbb játékban a DXR-rel van ez megoldva, de az AMD-nek van egy zárt kiterjesztése a DXR-hez, amivel olyan dolgokat is elérhetnek a fejlesztők, amelyek még nem részei a szabványnak. Minden esetben a Radeon Rays 4.0-t lehet meghívni, ez egészíti ki a szabványt. Ennek két külön módja van, amiről itt egy rövid leírás:

Ha utóbbi kerül egy játékba akkor kap egy külön dll-t, lásd a Godfallban az "amdrtshadow.dll", ebben vannak a szabványból hiányzó részek, például egyedi BVH bejárás. Ha így lesz implementálva a Resident Evil is, akkor azt az NV nem tudja majd futtatni, tehát kell nekik egy külön szabványos implementáció, ami megkerüli a binárisan szállított dll részét a játéknak.Szimpla API interop valószínűleg alkalmazva lesz, de az a jobbik eset, mert az csak intrinsic lehetőség, tehát maga a shader nagymértékben szabványos, csak vannak olyan részei, amelyek az AMD dizájnján meghívnak egy beépített függvényt, és akkor gyorsabban fut. Így van alkalmazva az RT a Dirt 5-ben és az új WoW: Shadowlands frissítésben. Ezeknél a kódoknál a beépített függvényeket az NV ugyan nem éri el, de elég könnyű kezelni ezt a problémát, mert csak írni kell rá pár extra shadert. Emiatt az RR 4.0 szimpla API interoppal nem akkora gond, mintha tényleg egyedi BVH bejárásra használná a Radeon Rays 4.0-t egy játék. Intrinsic lehetőségnél csak kismértékben kell módosítani a kódot, hogy szabványos szinten is fusson. A Godfall esetében azért marha sok munka volt teljesen eltérő LOD kezelést implementálni, mert a flexibilis LOD-ot a DXR nem kezeli, tehát kidolgoztak helyette egy DXR-rel kompatibilis sztochasztikus LOD eljárást. Ennek hasonló az eredménye a memória terhelésére vonatkozóan, csak többet számol, mint a flexibilis LOD.
#42791 huskydog17 : Semmiféle exkluzív szerződés nem volt. A Godfallba egy olyan algoritmus került eredetileg a bejárásra, amit a szabványos DirectX Raytracing nem támogat. Nem megvalósítható az aktuális specifikációkkal a flexibilis LOD. E mellé implementáltak a szabványos kódba egy sztochasztikus LOD eljárást, amit már megenged a DXR. A memóriaigény tekintetében a flexibilis és a sztochasztikus LOD hasonló, csak utóbbi eljárás elvégzéséhez többet kell számolni.
#42796 Locutus : Nem véletlen. A 8 GB-os VRAM igényt már nem egy játék meghaladta az Ampere kiadása előtt. Azóta csak nőttek a lehetőségek, így lassan meghaladtuk a 10 GB-ot is. Ezzel pokoli nehéz mit kezdeni, de ezért vannak a grafikai beállítások. Ha elfogy a memória, akkor lejjebb kell venni a grafikai részletességet. Régen is ez volt a megoldás, és ma is.
-
-
Abu85
HÁZIGAZDA
Nem a kizárólagosság a lényeg, hanem a pályadizájn kialakítása. Ezt leírtam neked először, hogy külső tereknél külön lehet arra dizájnolni, hogy belső tereknek megfelelő legyen a kialakítás. A CP2077 tipikusan ilyen játék. Egyedül akkor vannak dizájn szinten külső terek, amikor elhagyod a várost. Itt látszik is rajta, hogy az effektek nem működnek olyan jól.
-
Abu85
HÁZIGAZDA
Tudom miről beszélek. Arra próbálsz koncentrálni, hogy a játékmenet bizonyos százalékában találsz nyílt terepet, de nem ez a döntő tényező az effektek dizájnjának kialakításakor. Okkal néz ki a CP2077 zárt térben sokkal jobban, mint nyílt térben. Egyszerűen az effektek dizájnját zárt térre tervezték, és ez nem működik olyan jól nyílt térben. De ettől még vannak nyílt terek benne, csak nem ez volt a fókusz. A Godfall esetében pont ezek voltak fókuszban, mert arányaiban több nyílt térrel találkozik a játékos, mint zárttal. Emiatt a Godfall inkább zárt térben nem működik olyan jól.
-
Abu85
HÁZIGAZDA
Nem madártávlatra tervezik ezeket, hanem játékmenetre. A Cyberpunk 2077 nagy részében nem látsz el messzire, vagy zárt térben vagy, vagy megakadályozzák az épületek. A Godfall esetében nincsenek épületek, ott sűrűbben nagy a látótávolság. Más dolog az eltérő dizájnra effekteket tervezni. A Cyberpunk 2077 esetében tök reális lekorlátozni a sugárkövetés távolságát, mert a játékmenet nagy részében ezt nem veszed majd észre. A Godfall esetében nehezebb ügy. Alapvetően minden fejlesztő a korlátozást választaná, mert az csak egy napnyi munka. Senki sem szeret egy effektért fél évet dolgozni, de ritkán megteszik, ha nagyon fontos az effekt minősége. Ettől persze le lehet őket hurrogni, hogy miért optimalizálnak, de a saját idejüket lövik el erre.
-
Abu85
HÁZIGAZDA
A kép jól mutatja a dizájnt. Körül vagy véve az épületekkel, tehát nem kell túl messzire lőni a sugarakat. A Godfallban nem tudod körülvenni a játékteret épületekkel, nem a modern korban játszódik. Nem tudsz ilyen hatékonyan trükközni.
Nem számít a memória terhelésénél, hogy hány effektet futtatsz, mert mindegyik ugyanazokat a sugarakat használja. Nem fognak minden effekthez külön sugarakat kilőni. A memóriahasználat kizárólag attól függ, hogy mennyire messzire lövöd a sugarakat. És itt jön képbe a pályadizájn. A Godfall esetében is könnyebb lenne, ha nagy házakkal vehetnék körbe a játékteret, dehát...
És a Godfall is használhatna több effektet lényegében extra memóriaigény nélkül, de Unreal Engine 4-en fut, aminek a gyári SSR-je és SSAO-ja eleve nagyon jó.
-
Abu85
HÁZIGAZDA
Közel sem a végtelenbe számolnak. Egy játék három kategóriába eshet a pályadizájn tekintetében. Lehet a pályatervezés zárt, nyíltnak imitált zárt és nyílt. Az első kettő esetében reális dolog korlátoznia sugárkövetés távolságát, mert már maga a pályadizájn korlátozott. A Godfall esetében ez azért nem működne, mert a pályadizájn egészen nyílt, túl sokszor túl nagy terek vannak benne ahhoz, hogy jól működjön a jellemző limitálás. Emiatt választottak más módot, és nyilván nem jószántukból döntöttek így, mert nekik is sokkal egyszerűbb lett volna azt mondani, hogy a sugárkövetést tart 4 virtuális méterig és kész, mint konkrétan kidolgozni kétféle algoritmust, és elverni az egész probléma megoldáásra kb. fél évet. Ez tehát egy pályadizájnból eredő döntés. Más játékban, például a Cyberpunk 2077-ben nem feltétlenül ez a jó döntés, mert ott a városi nyílt terek is úgy vannak felépítve, hogy a lehető legtöbb oldalról körül vannak zárva. Természetesen ez egyszerűbbé tesz bizonyos fejlesztői döntéseket, csak egy Godfallban nem tudsz felhőkarcolókat felhúzni a játéktérbe.
Az RT teljesítmény játékfüggő.
Az optimalizáció azt jelenti, hogy egy problémára kitalálsz valami olyan megoldást, ami segít az erőforrás optimális használatában. Ezt tette a Godfall is. Az nem optimalizálás, hogy négy virtuális méterre korlátozod a sugarak távolságát, ilyenkor pont elkerülöd az optimalizálást, hiszen meghúzol egy olyan mesterséges limitet, amivel szükségtelenné válik az optimalizáció. Természetesen sokszor ennek is van értelme, de ahogy fentebb írtam, nehéz a nagyon nyílt dizájnú játékokra ezt ráhúzni, de persze nem mindegy, hogy fél évig optimalizálsz, vagy egy nap alatt limitálod a számítást. Ez is a fejlesztői döntések része.
Mindenki annyi VRAM-mal rendelkező VGA-t vesz, amennyit akar, de az világosan látszik, hogy ezek az új technológiák VRAM-zabálók.
Semmi gond nem volt az NV-nek a tesszellációs megoldásaival. Saját vásárlóikat szopatták meg vele, miután az AMD a meghajtóban kezelte a problémát. De a kettő nem ugyanaz. A tesszelláció esetében a problémát az jelentette, hogy felesleges volt egy pixelnél kisebb háromszögeket generálni, mert ugye a pixel a legkisebb elem, amit a monitor meg tud jeleníteni. Itt nem felesleges a sugárkövetés távolságát kitolni, mert észreveszed a 10-15 virtuális méterre lévő dolgokat is. De ugye akinek ez nem annyira fontos természetesen kikapcsolhatja az effektet.
-
Abu85
HÁZIGAZDA
A Godfall fejlesztőit lehet bántani, de tény, hogy ők az egyetlenek, akik szabványos kóddal raktak sztochasztikus LOD-ot a játékukba. Más erre sem veszi a fáradtságot, mert egyszerűen túl soknak tartják az ezzel járó bő négy hónapnyi munkát. Inkább lekorlátozzák a sugárkövetés távolságát, mert azzal is vissza lehet fogni a memóriahasználatot. Jelen pillanatban éppen azokat a fejlesztőket trágyázod, akik a piacon egyedüliként nem az egyszerű megoldást választották, nem a sugárkövetés távolságát limitálták, hanem igenis belefektettek egy rakás erőforrást, hogy más módon csökkentsék a memóriahasználatot. De eközben mindenki azért sír, hogy a PC-be nem fektetnek a fejlesztők semmi energiát. Hát persze, hogy nem. Beleölsz valamibe négy hónapot, és csak trágyázzák a megoldásod, amikor egy nap alatt meg tudnád oldani az effekt minőségének jelentős korlátozásával, amiért a userek simogatnak.
Hardveresen nincsenek igazán problémáin. Szoftveres tényezők hiányoznak. A traversal shader igazból bármilyen compute shadert támogató hardveren üzemképes. Az összes hardveres RT-t támogató rendszerrel kompatibilis, mert csak annyi történik, hogy a futószalag bejárás lépcsője nem egy specifikus hardveren fog működni, hanem a multiprocesszorokon, ugyanis programozhatóvá válik. Erre az AMD és az NV is tud meghajtókat írni, hiszen csak a futószalagot kell a multiprocesszoron futtatni, és kész, a shader fordítót kell kiegészíteni az új shader lépcsővel. Nem egy megoldhatatlan probléma, csak ki kell dolgozni a specifikációt.
-
Abu85
HÁZIGAZDA
Amíg nincs itt a traversal shader, addig az RT egy memóriazabáló technológia. Korábban leírtam, hogy miért. Egy sugár kilövésekor ki kell választani a LOD szintet, de előre nem tudod, hogy mennyire távoli lesz a metszés, tehát nem tudod meghatározni, hogy mi az optimális LOD szint. Ergo egyszerű megoldásként mindenre kiválasztod a LOD0-t, ami jókora extra információt jelent a VRAM-on belül. Egyedül a GodFall működik másképp, és jól jelzi, hogy mekkora nehézség ezt szabványosan megoldani, mert több hónapig csak ezt fejlesztették, hogy működjön a GeForce-okon. A Radeonokon ugye egy zárt kiterjesztést használnak, ami megengedi azt, hogy a sugár kilövése után LOD-ot válts. Ez lesz majd a traversal shader haszna szabványosan.
Amíg a játékok csak elsődleges sugarakat használnak, addig van koherencia, így a memória-sávszélesség nem akkora probléma, mert a memóriaelérések nem annyira véletlenszerűek. Ezek onnantól kezdenek el gondot okozni, ha vannak másodlagos sugarak is, azok már nem koherensek, és például a DXR 1.1 egyik visszalépése, hogy nem is tudod ezeket koherens csoportokba gyűjteni. De a Microosft mégis a DXR 1.1-re állt át, mert figyelembe vette, hogy ma még a másodlagos sugarakat nem igazán fontolják meg a fejlesztők, így a DXR 1.0 előnye hasztalan, és van egy rakás hátránya, amit a DXR 1.1-gyel megoldottak. Valószínű, hogy sem a DXR 1.0, sem a DXR 1.1 nem jelenti a jövőt, hiszen hosszabb távon azért erősen korlátozzák a lehetőségeket, de egyelőre nincs jobb megoldás.
Számítási kapacitás kell az RT-hez, de nem ez jelenti az erős limitet. Sokkal nagyobb baj, hogy nem tudsz LOD-ot váltani egy sugár kilövése után, így pedig akármilyen RT effektet írsz, az mindenképpen zabálni fogja a VRAM-ot.
A Resident Evilben többféle RT lesz. Pont emiatt lő ki a memória terhelése. Maga a motor eleve egy VRAM-zabáló szörnyeteg volt, ezt már a korábbi RE címekben is lehetett látni. 4K-ban RT nélkül is megette a 13 GB-ot. Ugyanez a motor lesz most is, csak átrakják a memóriakezelést az AMD-féle D3D12MA-ra, ezzel nyernek némi hatékonyságot, de nagyobbak lesznek a textúrák, amivel buknak is. Plusz mostantól az RT effektek jellemző +2 GB-ja is hozzájön. Értik, hogy kevés VGA-n van ennyi memória, de most ezzel mit kezdjenek? Annyit tudnak tenni, mint a korábbi RE címekben, lesz benne egy dinamikus textúraskálázás, hogy ha nem fér bele a VRAM-ba a highres textúra, akkor a motor azt érzékeli, és legközelebb már a medium vagy low részletességet tölti be, hogy spóroljon. Jelen pillanatban ez a reális megoldása a problémának, aztán idővel lesznek több VRAM-mal rendelkező VGA-k.
#42770 do3om : A memóriasávszél gond, ha egy játék másodlagos sugarakat is használ, hiszen ott véletlenszerű az elérés, tehát nem jól cache-elhető az információ. De ehhez muszáj másodlagos sugarakat is használni. Elsődleges sugarakkal marad a koherencia, tehát jól cache-selhető adatról van szó. Ezt korábban is leírtam. Az AMD számára az elsődleges sugarak megfelelőek, hiszen van a GPU-kban egy rakás cache, és úgy a sávszélesség 1,6+ TB/s. A másodlagos sugarakkal van gondban az RDNA2, de ezek pusztán a koherencia hiánya miatt eleve nem elterjedtek manapság a játékokban, mert a nagyon véletlenszerű adateléréshez nincs meg a kellő sávszél egyik mai hardveren sem.
-
gejala
őstag
Mindig épp az kell, amiben az AMD jobb. Pár éve ment a HBM őrület, hogy csak az a jó, aztán amióta AMD is GDDR6-t kezdett használni, senki meg se mer nyikkanni a témában.
Village meg továbbra is menni fog egy kenyérpirítón is, mint ahogy az összes eddigi RE Engine játék megy. Nálam 2080S-en RE3 1440p maxon 120 fps átlag körül száguld, ebbe simán belefér majd RT is DLSS nélkül is.
-
Abu85
HÁZIGAZDA
Nem kell ennyire parázni. Ez az AMD javaslata, ami marketing. A játék RT effektje bármilyen VGA-val jól fog futni, amin legalább van 12 GB VRAM. Persze nem biztos, hogy 4K-ban, ott 12 GB-nál több VRAM kell, de 1440p-ben bele lehet férni 11 GB-ba.
RT nélkül a VRAM-igény is 10 GB alá csökken.
-
Valdez
őstag
-
Valdez
őstag
Szerintem kiköthetik, ez nem magánszeméllyel kötött szerződés hanem cég-cég között kötött (nvidia mint gpu eladó és pl evga mint vga gyártó). Szerintem ki lehetne kötni szerződésben ezt, és azt is, hogy köteles a vevő cég jelentést készíteni (pl evga), hogy mennyi chipet (vga-t) mikor és hova értékesített. Már ha továbbra is akar az nv-től vásárolni persze. Mert nem kötelező gondolom.
-
huskydog17
addikt
Igen láttam ezeket, sajnos ez még rosszabb lesz.
-
Abu85
HÁZIGAZDA
A másik topikban belinkelt videódban látszik az eltérés több helyen is. [link]
A részletek a lényegesek, mert az árnyékok raszterizálás mellett az apró részletekben csúsznak el. Egyszerűen mag a raszterizálás nem igazán alkalmas a jó minőségű megvalósításra, a frustrum tracing pedig drágább eljárás, és konzervatív raszterizálást igényel.A videóban ezeket érdemes nézni:
- 1:20-21-nél a növény a két kép közepein. RT-vel a finom geometriákon is van árnyék. Ez általánosan is látható a fákon is. A háttérben látszódó kis épület is jobban van árnyékolva.
- 1:38-nál van a jelenetben egy rakás árnyék, és nagyon jól látszik, hogy RT nélkül mennyire erősen kell alkalmazni a lágy szélű árnyékolást. A valóságban ennyire gyorsan nem vesznek el a részletek, csak sokkal messzebb vetülő árnyéknál. Az RT-s megoldás megőrzi a részleteket, de mégis lágy szélű. Ez szintén megfigyelhető több helyen is.Ezek azok az apró problémák, amelyekre raszterizálással egyszerűen képtelenség reagálni. Trükközheted napestig, de sosem éred el azt a minőségi szintet, amit az RT shadows tud adni. Ráadásul utóbbit nagyságrendekkel egyszerűbb implementálni.
Ha messzire lövöd a sugarakat, akkor az kellemetlen a LOD számára. Az RT a jelenlegi specifikációban egy memóriazabáló dolog, hacsak nem maradsz nagyon a kamera közelében, de ezt a játékot nem úgy tervezték, hogy szűk terek legyenek benne, tehát nincs különösebb választás, muszáj sokáig lőni a sugarakat. Az más kérdés, hogy lehetne low szint is, ahova elég lehetne 1 GB VRAM is, azzal nem enne az effekt 3 GB-ot, de sokkal rosszabb is lenne a minősége, hiszen előtted jelenne meg pár méterre minden árnyék. Effektíve úgyis visszakapcsolnád a raszterizált verziót, mert az lehet, hogy nem kezeli jól az árnyékokat, de legalább nem csak a virtuálisan 4-5 méteres körzetedben lesznek láthatók.
Van a Godfallban teljesen dinamikus GI, a Sony-val közösen dolgozták ki az alapul szolgáló effektet. Az RT esetében az a lényeges kérdés, hogy meg tudod-e oldani a jó minőséget nélküle. Sok eljárásra meglehet, például GI-ra height field vagy distance field GI, visszaverődésre hibrid SSSR. De árnyékra sajnos nincs semmi értelmes megoldás.
-
Abu85
HÁZIGAZDA
Az AMD csak hozott pár jó döntést a múltban, és most úsznak az árral. Az NVIDIA is meghozhatta volna ugyanezeket a döntéseket, és ugyanúgy fordíthatnák az új pipeline-ra a régi shadereket.
Azért kevés cég optimalizál jobban PC-re, mint a Microsoft. Nem véletlenül fut elképesztően jól a Gears 5.
-
Abu85
HÁZIGAZDA
Ez mindig így volt, amíg egy új, de nagyon drágán hasznosítható technológiából csak a potenciális vásárlóbázis töredéke jut előnyhöz, addig nem is igazán piszkálják a fejlesztők. Vannak nagyobb gyorsulás biztosító, jóval olcsóbban beépíthető újítások. Ezeken lesz a fejlesztői fókusz. A VRS itt a fő irány mostanság. És már olyan formában is létezik, amihez nem kell VRS-t támogató hardver.
Szimplán compute shaderben le van implementálva. Az új Call of Duty ezt használja, és minden DirectX 12-es VGA-n megy.Szorgalmazni lehet, de ha nem fizetnek százezer dollárnyi zsetont a kód karbantartására, akkor senki sem fog veszteséget bevállalni egy gyártóért. Egyszerűen nem jön ki pozitívra a mérleg, és így nincs értelme erre dolgozni. Gondolod véletlenül maradtak ki a mesh shaderek a PC-s portokból? Nem. Egyszerűen kurva drága beépíteni és karbantartani. Gondolkodj egy fejlesztő szemével. Van egy büdzsé gyorsítani a kódon valami új technológiával. A mesh shaderre írt culling a mai geometriai komplexitás mellett nagyjából képes eredményezni úgy 2-3%-nyi gyorsulást. Ezért +50 ezer sor beírása és költséges karbantartása kell. Ezzel szemben mondjuk a VRS képes biztosítani 5-15% közötti gyorsulást. Az implementációs költség a már elérhető kódoknak hála minimális, sokszor csak copy-paste az egész, és a karbantartási költség sem magas. Nyilván azt választják, ami olcsóbb és nagyobb gyorsulást hoz.
-
Abu85
HÁZIGAZDA
Alapvetően az AMD-nek mindegy, hogy van-e mesh shader egy játékban vagy nincs. A legacy kódokat mindenképpen szállítani kell, és azokból tudnak NGG módba fordítani az 5700-asokra is. Az RDNA 2 pedig megeszi a mesh shadert.
A fejlesztők számára nem kell az AMD kímélete. El tudják dönteni, hogy belefér-e +50 ezer sornyi kódot írni, és ezt folyamatosan karbantartani a vásárlóbázis maximum 10%-ára. Nyilván az AMD is átgondolta ezt a kérdést, és arra jutottak, hogy a magas költségeket figyelembe véve nem éri meg. Nem véletlenül tervezték úgy az RDNA2-t, hogy majdnem minden vertex és geometry shadert NGG-be fordítson a fordító. Ugyanígy gondolhatott volna erre az NVIDIA is. Egyébként létezik mesh shadert használó játék már. A Gears 5 Xbox Series S/X frissítése erre épít. Megvan írva a teljes kód, és azt se hozza át a Microsoft PC-re, mert jelentős többletköltsége lenne a support oldalán. Egyszerűen a vásárlókból nem termelik ki. Ehelyett olyan megoldásokat portolnak vissza PC-re, mint az új VRS. Az legalább a support költséget nem növeli jelentősen, és abból is lehet nyerni egy rakás teljesítményt. Talán többet is, mint a mesh shaderből, miközben a költségek szintjén olcsóbb. Persze a Microsoft igazán kinyithatná a pénztárcát a mesh shaderre, hiszen nagyságrendekkel nagyobb anyagi tartalékaik vannak, mint bárki másnak, de osztottak-szoroztak, és egyszerűen nem éri meg, még úgy sem, hogy a portolás copy-paste lenne.
A mesh shader akkor kezd majd igazán terjedni, amikor a vásárlóbázis 60%-a is el tudja majd érni. Addig igazából pénzkidobás fejlesztői szemmel. Nekem sem tetszik, de ez van. Némelyik fícsőr beépítése olcsó (például VRS), némelyiké pedig költséges.
-
Abu85
HÁZIGAZDA
Ezt valószínűleg az UL kérte, mert nem tudják befolyásolni a meghajtó működését, így a megfelelő százalékos gyorsulás kiértékeléséhez mindenképpen szükség van arra, hogy az AMD nem fordítsa a vertex/geomatry shadereket a mesh/primiive pipeline-ba. Ha megteszik, akkor a Radeonra nem tudja megmondani a tesztprogram a gyorsulás mértékét. Most, hogy kikapcsolták, meg tudja majd mondani. Nem kritikus fontosságú, de az UL számára fontos, mert ők képtelenek megkerülni a fordító működését. Csak az AMD tehet azért, hogy ez a teszt megfelelő értékeket adjon vissza a százalékos gyorsulásban. Az AMD ezt rohadtul leszarná, hiszen nekik aztán teljesen mindegy, hogy hány százalékot ír egy szintetikus teszt. Nekik a review policy-jük, hogy szintetikus teszteket senki se használjon. De nyilván meg tudják érteni, hogy az UL-nek ez bassza a csőrét, hiszen dolgoztak a programon, így átdolgozták a meghajtót, csak közben ez azért egy nehéz kérdés, mert az UL tiltja a 3DMark felismerését, tehát az AMD-t az egyik legfőbb szabály alól kellett felmenteni. Ez veszélyes az UL-nek, hiszen így az AMD-nek szabad a 3DMark felismerése, és manipulálhatják az alkalmazás futtatását, amit innentől folyamatosan ellenőriznie kell a finneknek, minden egyes kiadott Radeon driver után. Nekik sem lesz túl jó az élet innentől, havi két driverrel számolva, igencsak sok dolguk lesz.
-
AsakuraDave
őstag
[link] Ebben pedig azért látszik a különbség RT on/off -ban bár tény hogy ez a játék ezzel a nagyon ósdi third-person megoldással nem adja át a dolgokat egy sima TPS nézettel jobb lenne de ez szubjektiv.
A képek csalókák pl most Cyberpunk -ot kipróbáltam és tökre ledöbbentem hogy játék közbe mennyivel többet dob rajta az RT. Readás nem is a real time reflekciok hanem a lighting ami ebben a neon fényes városba teljesen átalakítja a környezetet. -
Devid_81
félisten
Viszont most a banyaszgepekbol kipotyogo hasznalt 3080/3090-esekkel erdemes lehet vigyazni.
Tobb honapos 100 fok + az biztos nem tesz majd jot ezeknek
Anno en akkor vettem az RX570-et amikor epp nagyon melyrepulesben volt az aruk, de meg volt belole mindenhol.
Kemeny £80 (32K) volt egy 3 honapot se hasznalt garis Gigabyte kartya, azota is megvan, bar az aztan jatekot se latott nagyon miota megvan, mert a felesegem gepeben van
-
Yutani
nagyúr
-
Devid_81
félisten
Nem is tudom kit tudnek hibaztatni itt.
A scalper ehen halna ha nem lenne olyan birka ami megveszi magasabb aron a cuccot toluk.
Szoval bele gondolva a legmelyere a user oldal fele billen a hulyeseg merlege, merre masfele?
Mekkora siras lesz kovetkezo generacional a penzbukasok miatt most, mar alig varom, hogy mehessek trollkodni kozejuk

-
#09256960
törölt tag
Megint egy termék ami drágább mint a Gamer GPUja és emiatt kiszorítja. Erre gondolsz ?
missing-chips-snarl-car-production-at-factories-worldwide -
AsakuraDave
őstag
Witcher 3 -mat ha akarod se tudod 1 nap alatt kitolni ezt meg fél nap se elvileg kitolni main szálon...
De mindegy itt próbáld bebizonyítani magadnak, hogy megért 20,000 forintot 
FC5 20k PC-re? Nem ilyen árra emlékszem de az FC3 óta nem veszem meg őket, az 5 -öt is nemrég vettem meg valami 2-3.000Ft -ért. Konzoloson sírás szerintem is szánalmas, bár vannak exkluziv címek amik 100x szebbek ennek a konzol verziojánál, persze mondom EXCLUSIVE címek. Csalódás a CP2077 még PC -n is, én sokkal többet vártam a srácoktól hisz már bizonyítottak, hogy tudnak k.va jót és maradandót alkotni. Witcher 3 -at se megjelenéskor vettem meg már bőven a Blood&Wine kieg után vettem GOTY kiadást. De persze modokkal toltam, HD Reworked Project nagyon sokat dob azért rajta, sok helyen elnagyolt textura van a játékba persze akkori hardveren így is épp hogy jól futott ha jól emlékszem. Meg egyébb sign effekteket tuningoló modok, 1-2 reshade proba de nem adta annyira, LOD itt is siralmas volt azért és sajna nekem a LOD modok nem akartak működni. Itt is a CP -be a LOD siralmas, 2D modellek és hogy látni, hogy hol spawnolnak be a modellek elég tré. Előbb legyen egy amíg a szem ellát LOD minthogy RT meg 8K texture mert hiába csilivili meg minden ha elötted 2m-re már minden statikus és low res, főleg egy ilyen játék ahol haladsz mész vezetsz nem a legjobb megoldás beáldozni az LOD -t arra, hogy szebb textura meg RT.
*szerk.:
RT -ből meg szerintem egyelőre elég lenne a reflection-öket erőltetni és erre találni egy módszert hogy minnél hatékonyabban lehessen futtatni mert ez k.va sokat tud dobni még a játékon. Bár ez is olyan, hogy pl Control -ba xartak SSR- ral megoldani a reflekciókat mert RT nélkül kb 0 van RT-vel meg persze le esik az állad de RT nélkül is lehetett volna kicsit gagyibban megoldani. Tök szép és jó dolog ez az RT csak akkor vagy RT -vel lesz csak szép és jó nélküle meg oda ültettek az utcáról egy kezdő fejlesztőt, hogy nah azért legyen benne RT nélkül is árnyék meg valami kis reflekció... -
Pahli
tag
-
#09256960
törölt tag
Akkor úgy gondolod hogy NV nem fog TSMC-nél gyártatni ? és a Samu annyira felfut hogy el fog tudni látni 5nm-el egy olyan céget aki a Diszkrét 80%-ára törekszik ???
Nyilván kell adni valamilyen választ ami most a világban van.
Vagy inkább úgy fogalmazva a világba NINCS.
Most hogy kijött a Cyberpunk nyilván megerősödnek az NV Support kapcsán az NV törekvések és Víziók.
A DLSS nyilván egy érv a most vásárlók között, ezt én sem vonom kétségbe akinek az a fontos vegye vigye ólcsó a Scalper kártya Hardveraprón ide ide ...
De tegyük a helyére . Továbbra SEM lesz általános a DLSS és főleg NV supported játékokban várható a felbukkanása.
A Big Navi szoba az mára VS-esebb szoba mint ez. Ennek egy oka van hogy sikerült elfoglalnotok. Na nem úgy mint a törököknek Egert inkább úgy mint a Skandináv nyugdíjasoknak kis nyugati falukat felvásárlással.
Nagyjából mindenki aki ott van annak előző kártyája NV volt.
Ennek egy oka van a Budgetre épülő olcsón ugyanazt több memóriával márkahűségnek vége és egy AMDs már nem tud megvenni egy 350 ezres plusz scalper feláras kártyát.
Döbbenetes de ezeket onnan vágom be:
"Szoval az en es szerintem aki realisan latja a dolgokat annak a véleménye meg mindig legalabb 1generacioval le van maradva az amd."
És a szokásos a cyberpunk DLSSével nincs különbség látványban, ami nyilván nem igaz csak az hogy az eltérés a natívhoz képest zavar e engem ami egy szubjektív vélemény és ha nem látja akkor számára a 20-30 FPS még indokolt is lehet , de mindvégig
az azonos: (TRUE/FALSE) hangsúlyozását.
Miért használsz ilyen erős szavakat Meteor hogy Vízió ez a kis lelkecskémet úgy felborzolja (ezt cicának
)
Azért mert végiggondolva hogy a Cyberpunkba mennyiért épült be az NV támogatás és a Gameroknak eladott kártyák számát megsaccolva nem hogy a mostantól aztán mindenhol DLSS lesz de az se hihető hogy behozta-e már a kártyaeladásból a support árát !!! -
#09256960
törölt tag
Ha nincs saját véleményed az nem baj
Hívd fel az Nvidiát hogy Hardver Unboxed tessék mondani ahhoz hogy kapjunk kártyát mit kell írni ide a cikkbe a "Saját vélemény :" Mögé ? 
Ez amit mutatsz azért csalóka mert nem ugyanazt mutatja és valamiféle művészi élmény kedvéért a háttér el van mosva.
Na most ha 4K tvn nézed pont az elmosott háttért akkor persze rá lehet haluzni hogy az a Full HD. De legyen Jobb felső a Natív. Bal alsó meg a leggyengébb, a bal oldal az full rossz felül is.
Nyertem kártyát ???
Ha igaz amit mondanak hogy Apple az M1 el lenyúlja az 5nm 80%-át akkor nem lesz ebből 4080 se. -
huskydog17
addikt
Egyszerű: RDNA2-es VGA-ból még annyi sincs, mint Ampere-ből, azaz nem lehet kapni. A nagy tech csatornáknak is azért van, mert a gyártó direktben küldött nekik egyet-egyet. Az olyan egyszerű kis végfelhasználóknak, mint te vagy én semmi esélyünk megkaparintani egyet, még ha akarnánk se lenne.
-
-
Pedig van különleges benne, mert ha "büntetsz" valakit a sajtóban azért mert nem egyezik a véleménye a tieddel, akkor annak rossz üzenete van a sajtó számára.
Ez a "vagy egyetértessz velünk, vagy szevasz" politika... ez nagyon nem jó üzenet, ha ilyen marketinget akarsz, akkor fizess marketing reklám tesztvideókat csak és ne várj független teszteket saját véleménnyel/kritikával a termékedről.
A többi oké, tényleg nem kell kártyát adni mindenkinek, nem is ez a baj (ez konkrétan majd a H.U.-nak lesz baj)... de a fenti üzenete az nagyon rossz marketing szempontból, és pont a marketing osztálytól.
Linus legújabb "rant" WAN-ja pontosan jól elmondja miért baj ez, ami történt. Ez egyfajta "befenyítése" a sajtónak.
-
FLATRONW
őstag
Szerintem az is probléma lehet, hogy pl. a 18 játékos összegzés kikapcsolt RT mellett van feltüntetetve. Szinte az összes RT-s játék fut AMD-n is. Így eléggé torzítva van az összesítés. Szerintem az nem kifogás, hogy az AMD megoldása csak első generációs, így nem úgy teljesít, mint az NV, ezért nem vesszük figyelembe.
Persze ott vannak külön az RT-s mérések is, de sokak azt hihetik, hogy ez benne van az összesítésbe, amiben pedig azt látják, hogy elhanyagolható a különbség a GPU-k között. -
#09256960
törölt tag
Kedves ördög ügyvédje.
Ügyfelem kérésére az angyal ügyvédje ügyvédi munkaközösség nevében írok. Kérem megnevezni azok a tényállásokat amelyekben védencem hibázott? Tartalmazott e olyanokat a szerződésük amelyet megszegett ?
Csak önmagában azért ha egy DLSS játékot tesztel valaki volt e kizárás a a szerződésben ? És ha valaki tesztel a Far Cry 6.-ban és a Walhallában ? Vagy ez is kizárást von maga után ?
Azonkívül szeretném ügyfelem helyett ajánlani IGOR-t a bátort .
és az volna a kérdésünk hogy a 6800XT+SAM hány százalékkal verheti meg a 3090et hogy ügyfelem az első nap tesztelők között maradjon ?Tisztelettel. Peroskaaa hozd be a szent noviciánus pecsétet aztán dobd a levelet egy vulkánbaaaa.
.
Kérdezzük meg ABU-t mennyire kötik ki a tesztelőknek mit kell csinálni és mit nem szabad ? már ha nyilvános. -
Piszmaty76
aktív tag
Ha tényleg így van, akkor ez elég szomorú. Bevallom ez a 2020-as év Nvidia-AMD fronton nagyon összezavart. Idén mintha teljesen egymás korábbi bőrébe bújtak volna. Tehát ebben a fura évbe még az is beleférhet, hogy most az AMD szabotálja a fejlődést. Bár még mindig fenntartom, hogy eddig míg az Nvidia nyers erőből próbált szinte mindent megoldani, az AMD-re volt jellemző, hogy erőforrástakarékosabb megoldásokon agyaljon egy-egy funkcióval/feature-rel stb. kapcsolatban. Szeretném hinni, hogy most is valami ilyesmi lehet a háttérben. De hát ugye 2020, ki tudja?
Szerintem már ők is régóta fenték a fogukat a raytracing funkcióra, csak várták hogy eléggé megcombosodjanak a hardverek. Arra viszont őszintén kíváncsi lennék, ha belekukkanthatnánk egy lehetséges párhuzamos jövőbe (mi lett volna akkor, ha...), melyben nem lettek "elgáncsolva" az AMD fejlesztési törekvései, most hol lehetnénk hardveresen és szoftveresen (pl. a játékok)? Tényleg nem vitát akarok kezdeményezni, de annyira rákukkantanék kíváncsiságból. Vajon jobb lenne az a jövő vagy jobb ez így ebben a formájában? Na nem is fogok tudni aludni bakker...
-
#09256960
törölt tag
"3 darab Amd-s RT címből 2 darab nem fog futni vagy nem fut Nvidia kártyán jelenleg."
Hogy érted azt hogy nem fut nem indul el ? Mekkora jó ötlet ez hogy AMD exclusive
Nagyon valós az a gondolatszál amit Piszmaty ír hogy ha AMD kezdte volna NV kikerülné és nem jutott volna el a dolog a microsoftos szabványosításig.
Abba maximálisan egyetértek veled hogy ez nem piac hanem egymás mellé még névben is beállított kartelezés nagyon kevés valós konkurenciaharccal.
Jelenleg az vesz NV-t aki a DLSS-t tartja fontosnak, és az vesz AMD-t aki a több memóriát vagy a SAMos elhúzott értékeket melengeti keblén. Minddkettő lesz de NEM VAN. Ha megnézek egy ilyen bencset sokszor gondolom hogy a piacnak az lenne a jobb ha egy gyártó lenne mert akkor minden kártya támogatna mindent !
Persze akkor hogy érnénk el hogy emberi ára legyen konkurencia nélkül ? Hát pl úgy lehetne hogy ha Microsoft nem csak nézelődője lenne a toxikus piacnak hanem töke nő és erőltet szabványokat.
Nem utólag hanem ez lesz fiúk erre tervezzetek kártyákat azon belül hogy hogy oldod meg a te dolgod .
"így nem fog fejlődni az RT technológia, hogy külön utakon jár az AMD." AMDnek a jelen hlyzetben azt kellene erősen nyomnia amire kijönnek a 6700 xt nonxt kártyái hogy az GPU OPEN eljárásai erősen elterjedtek legyenek. Vagyis a kis kártyákon is legyen szép a látvány, mert ha a figura látja hogy az ő 500 -900 ezerért vásárolt kártyáján semmivel nem szebb a kép ott is tükröződik a pocsolya mint a 200 ezresen akkor majd vakarja a fejét hogy kell e ez nekem.
Csakhogy a nyílt rendszerektől NVnek a szőr is feláll a hátán mikor komoly pénzeket kér cégektől az optimalizációért, mer' az nem úgy van hogy írtam egy programot NV optimalizáld már nekem lécci lécci. -
Piszmaty76
aktív tag
Ez azért annyira nem biztos. Eddig is az AMD próbálgatott volna gőzerővel technológiai újításokkal előrukkolni, de mivel a csupán egyre combosabb hardverekre fókuszáló Nvidia törekvéseiben több fantáziát látott a gamerek túlnyomó része, tudjuk hol végezték azok az újítások. Az pedig eléggé vicces, hogy most hirtelen milyen fontossággal bír az Nvidia majdhogy egyetlen komolyabb fejlesztési szándéka. Ha az AMD igazán rácuppan az RT-re (miért is ne tenné?), nem kizárt hogy az fog igazi turbót adni az RT fejlődésének. Természetesen nem tudhatom, de nem érzem úgy, hogy ők lennének az akadályozó tényezők. Későn kezdtek vele foglalkozni szerencsére, mert ha ők kezdték volna az ertéskedést, akkor jó eséllyel az is haszontalan újításnak lett volna bélyegezve és a kukában végezte volna. Szerintem.
-
Yutani
nagyúr
RTX 2060 vs RX 5600XT viszony alapján azt mondom, hogy NV-re van optimalizálva a játék. Hogy is ne lenne, hiszen az NV támogatta a fejlesztést. Remélhetőleg jön javítás majd, ami kibalanszírozza a viszonyokat.
Na meg persze érdekes lesz látni, ha lesz RT AND-n is, akkor mit fog mutatni a grafikon. Bár a jelenlegi teszt alapján nincsenek nagy elvárásaim.

-
Abu85
HÁZIGAZDA
Az Ethereum 2.0 nem fog majd igazán jól futni GPU-n. De mire kivezetik a PoW rendszert, addig még eltelik három év, ameddig az Etheriumon lehet keményen bányászni egy GPU-val is. Emiatt ugranak egyre többen rá, mert most még van benne GPU-val kinyerhető pénz. Majd amikor csak PoS blokkok lesznek, akkor vége lehet a GPU-s bányászatnak Ethereumon, de ez 2023 előtt tuti nem jön el. Akkor majd keresni kell egy új kriptovalutát.
-
Piszmaty76
aktív tag
Nekem úgy tűnik, hogy eddig is az AMD volt aki közzé tette a dolgait a "közjó érdekében" (részben ezért is szimpatizálnak ennyien a céggel), míg az Nvidiára inkább az (volt) a jellemző, hogy sörétessel ücsörög a cuccain hevesen morogva, ha valaki közelebb menne hozzá. Nem véletlenül AMD cuccok ketyegnek a konzolokban. De valóban, olyan érzésem van mintha idén a két cég egy csomó mindenben helyet cserélt volna...
-
-
#09256960
törölt tag
Su királynő kegyet gyakorolt, AMD procikkal is engedik az NV SAMot. Nesztek pribékek
PanemSAM et circenses.
-Szerinted jól tette ezt ?
de ha már itt vagyok...
Ja azok a kazán 6800-asok alulfeszelve 183 wattot fogyasztanak.
Jajj azok a régi szép idők amikor emberek három naponta bementek AMD találgatósba hogy mennyire fontos a performance /watt vajon most is járják NV fórumokat és jajgatnak? és logout cikkeket írnak róla ??? vagy kettős a mérce ?? hm hmmm -
#09256960
törölt tag
A 20 GB AZ JÓ. !!!
Mert akkor kérhet érte többet mint a 6800XT.
Ha 7nm-en hozza le adom a +10%ot is.
Mindkettőnél megér 10-10% felárat.
Na most NVt ismerve ez a 20% ez 40 lesz.
és adni fog egy amúgy jó kártyát csak 999 dollárért több memóriával de a 6900 XT teljesítménye alatt.
Már csak arra vagyok kiváncsi hogy "a 10 GB mindenre elég "szlogenes emberek hirtelen mire váltanak majd át
-
do3om
addikt
Amd oldalon egy plusz pont a 16gb ram .
Kíváncsi vagyok majd azért a többi tesztre is de igen jól kijött most a lépés az amdnek. A memória mérete sokaknak lesz döntő szempont, hát ha még az ellátás is jól menne... De ez sajnos most nagyon kiseséjes.
Nv komoly bajban lesz azzal hogy mit lépjen. Árcsökkenés lenne a legjobb, persze majd meglátjuk az AMD árait.
RAM témában viszont nehéz lesz ha hoz többet ezen az áron mit szólnak a régi vevők. -
gejala
őstag
Azért az is megér egy misét, hogy 5500XT ugyanannyi fpst hoz 1080p/1440p/4K-ban. Mondjuk abból az 5-ből nem nagyon van mit elvenni, de akkor is.

Az a durva VRAM használat meg félig lett igaz. 4K-ban 10 giga simán elég, viszont a 3-4 gigás kártyáknak annyi 900p-ben is. Nem mintha 6 gigás 1060-on játszható lenne az a 26 fps.

-
Kolbi_30
őstag
Mivel itt ezen a forumon/oldalon mindenki maximalista akkor ugye au ultra -high preset es rt az kb 600k+a tobbi alkatresz kezdodik..mert 100 fps alatt szedul hanyingere van meg stb..akikit ez zavar nyugodtan veheti milioert a gepet. akit nem az vehet konzolt. nekem se milios gepem se konzolom sdincs, de nem is a 100+ fpsre verem a bret..
-
szmörlock007
aktív tag
Persze, nekem is csak a pc-re is kijövő címek játszanak, de a watch dogs az szerintem inkább múlt a fejlesztőkön mint a hardveren. Szerintem lesz ez jobb is ahogy elkezd olajozottan működni a gépezet, azért itt most sok minden közbejátszik, időbe telik míg letisztul a kép a konzolokról. Szerintem amúgy mindkettő nagyon jól sikerült a maga módján.
-
szmörlock007
aktív tag
Jó hát a Ubisoftól első körben mit vártunk?
Az a játék megjelent mindenre, szerintem semmi optimalizációt nem kaptak az új konzolok csak rádobták és annyi. Lesz ebben még sokkal több is, azért a ps5-ös spiderman miles morales szerintem gyönyörű, és a ray-tracing is kiváló benne ha nézted a digital foundry elemzését.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Huawei Watch GT 5 Pro - egészség + stílus
- Kormányok / autós szimulátorok topikja
- OLED monitor topic
- Lexus, Toyota topik
- Milyen processzort vegyek?
- Motoros topic
- Stílussal és friss szenzorokkal futott be a Huawei Watch GT 5
- Kerékpárosok, bringások ide!
- Milyen okostelefont vegyek?
- Milyen notebookot vegyek?
- További aktív témák...
- BESZÁMÍTÁS! ASUS H81M-A H81 chipset alaplap garanciával hibátlan működéssel
- GYÖNYÖRŰ iPhone 12 mini 256GB Red -1 ÉV GARANCIA -Kártyafüggetlen, MS3627
- BESZÁMÍTÁS! Asus A620M R5 7600X 32GB DDR5 1TB SSD RTX 3080 10GB Zalman M4 A-Data 750W
- GYÖNYÖRŰ iPhone 13 mini 128GB Green -1 ÉV GARANCIA - Kártyafüggetlen, MS3338
- HIBÁTLAN iPhone 14 128GB Starlight -1 ÉV GARANCIA -Kártyafüggetlen, MS3680, 100% Akkumulátor
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő



Szimplán compute shaderben le van implementálva. Az új Call of Duty ezt használja, és minden DirectX 12-es VGA-n megy.


)





