Hirdetés

Keresés

Új hozzászólás Aktív témák

  • huskydog17

    addikt

    válasz _drk #52466 üzenetére

    Mert az AMD-vel ellentétben az NVIDIA-nak fontos a piaci részesedés és a 92%-ot még feljebb akarják tornászni. Ehhez kell, hogy a szoftveres ökoszisztéma is toppon legyen. Ezzel a lépéssel az NV a jelenlegi gigantikus nagy szoftveres előnyét csak tovább növeli elég masszívan.

  • huskydog17

    addikt

    GeForce Gamescom 2025: DLSS 4 Now in 175+ Games & Apps, New RTX Games, Borderlands 4 RTX Bundle, NVIDIA Blackwell on GeForce NOW & More

    Pár nap múlva jön a globális DLSS Override és a SmoothMotion, utóbbi RTX 40 szériához.

    SmoothMotion friss bejelentés:
    NVIDIA App Update Adds Global DLSS Overrides, Smooth Motion For GeForce RTX 40 Series GPUs, Project G-Assist Enhancements & More

    Már 175 játékban van natív DLSS 4 implementáció* és további 10 játékhoz lett bejelentve, köztük nagy nevek, mint például a Borderlands 4 vagy Resident Evil Requiem, utóbbi egyben Path Tracing-et is kap:

    Over 175 DLSS 4 Games and Apps Available, 10+ RTX Games Announced Including Resident Evil Requiem, PRAGMATA, CINDER CITY & More

    Az NV nem tréfál, ilyen a teljes erőbedobás. A SmoothMotion-ra nagyon kíváncsi vagyok.

    *A 175 natív implementáció mellett jelenleg további 253 játékhoz van hivatalos DLSS 4 támogatás Override formájában, tehát így most összesen 428 játéknál járunk, amihez hivatalos DLSS 4 támogatás van.

  • huskydog17

    addikt

    válasz b. #52443 üzenetére

    Attól tartok az új kínai CEO pont ezzel a lépéssel nyírta ki most a céget. Remélem nem lesz igazam, de olyan embereket küldenek el, akik megmenthetnék a céget (mérnökök).
    Innentől egy csoda lesz, ha az Intel ezek után talpra áll. :(
    Borzasztó ezt látni.

  • huskydog17

    addikt

    válasz szarnyasdino #52428 üzenetére

    :K
    A Tsushima-ban valóban büntet a Battlemage, akármit is talált ott az Intel, a többi játékban is meg kéne találni. :D

  • huskydog17

    addikt

    RTX 5050 Teszt - ComputerBase

    A CB saját példányt vásárolt (Zotac Twin Edge).
    250 dollár az MSRP, már most kapható ez alatt is olcsóbb típus. RTX 4060-tól átlagosan 6%-ra van lemaradva, így pont a sima RX 7600 és az Arc B580 szintjén van.

  • huskydog17

    addikt

    válasz hahakocka #52345 üzenetére

    "5060Ti viszont érthetetlen miért ily sikeres mikor pl itthon 190-200e a konkurencia 16gb os meg 155-160e s van köztük 5% difi erőben meg max 10% RT ben?"

    Nem lep meg, hogy nem érted, pedig sok milliószor el lett magyarázva, ki lett beszélve. Egyszerűen a legtöbb vásárló nem az általad preferált teszt ár/érték táblázata alapján választ. A legtöbb vásárló hajlandó felárat fizetni a sokkal jobb szoftveres körítésért cserébe. Pont ez az a pont, amit a legtöbb teszt soha nem említ és ahol az AMD olyan nagy lemaradásban van, amit már soha nem fog behozni, de még csak megközelíteni sem. Ezzel a gigantikus nagy szoftveres előnnyel az NV akkora mindshare-t épített fel, hogy azt az AMD soha nem fogja utolérni.
    Azt kell próbálni megérteni, hogy ma már egy VGA-val nem csak egy darab hardvert veszel, hanem egy szolgáltatást, amibe hardver teljesítmény és szoftveres körítés is bele tartozik, egy teljes szoftveres ökoszisztéma. Nagyon régen, sok-sok évvel ezelőtt a szoftver kimerült szimplán a driver-ben, de mára ez gyökeresen megváltozott, ma már az is rendkívül fontos, hogy milyen a szoftvert adsz. Ez utóbbiban az NV-nek behozhatatlan előnye van, az AMD itt elaludt. Ez tökéletesen visszatükröződik a piaci részesedésen és a Steam stat-on is.

    Nyilván a szoftveres körítés csak egy dolog a képletben, még ott van a Halo termék létezése is, ami az AMD-nél nincs, de még sok más egyéb dolog is (pl. OEM stb.).

    "Külföldön olcsóbb lenne az 5060Ti mint a 9060xt 16gb?"

    Nem. Ott is ugyanaz a helyzet, mint itthon.

    Szerintem a vs témát inkább a vs topikba írd.

  • huskydog17

    addikt

    válasz b. #52295 üzenetére

    :K
    Erre nagyon kíváncsi leszek, na persze még arrébb van a stabil WHQL változat, de nagyon jó hír, hogy érkezőben van Ada-ra, ahogy ígérték.

  • huskydog17

    addikt

    válasz Abu85 #50980 üzenetére

    OK, ez a te elméleted, majd meglátjuk, hogy a gyakorlat ismét sokadszorra megcáfol-e téged, nem ez lenne az első tévedésed.
    A forráskód megnyitása tökéletes arra, hogy szabványos kódot lehessen csinálni belőle, projekttől függetlenül. Minden olyan projekthez nagy segítség lehet, ami CUDA kódból akar szabványos kódot csinálni, hiszen reverse engineering helyett ott a forráskód, ami masszívan meggyorsítja és leegyszerűsíti a dolgokat.
    Ezen felül az érintett régi játékokat a fejlesztők kiadók sokkal könnyebben ki tudnák javítani, innentől teljes kontrolljuk van PhysX feature felett is. Az egy más kérdés, hogy ezek a kiadók nem valószínű, hogy időt és pénzt fognak szánni rá, de a lehetőség innentől megvan rá. Például egy ex-fejlesztő írhat akár egy nem hivatalos fix-et a forráskód segítségével vagy segíthet egy moddernek és akkor hirtelen jön egy mod ami megoldja az adott játéknál a gondot.
    Ha bárki bármilyen okból szeretné megtudni, hogy hogyan működnek a GPU-s PhysX, Flex és Flow effektek, annak most már ott a forráskód, nincs szükség reverse engineering-re. Ez minden érdeklődőnek óriási segítség. Kiváló tanulási lehetőség is egyben, továbbá azokat a kódokat innentől tovább lehet fejleszteni, illetve azok alapján egy jobb saját fejlesztésű fizikai motort is lehet írni.

    A ZLUDA - vagy bármely más hasonló kaliberű projekt - fejlesztői amennyiben meg akarják oldani a 32 bites GPU PhysX problémát, azt eddig kizárólag reverse engineering-gel tudták volna elkezdeni, ami ugye fekete doboz, nem sokra mennek vele, de most, hogy nyílt a forráskód, már nem kell vakon fejleszteni, azaz de, pont, hogy a nyílt forráskód fogja megoldani a dolgot, mert úgy sokkal könnyebb. Értelmes fejlesztő nem fog reverse engineering-et alkalmazni, amikor ott a forráskód. ;)

    Amúgy a ZLUDA pont nem a PhysX-et veszi célba, hanem a gép tanulást, továbbá egyetlen egy fejlesztője van, így én ott nem várnék a közeljövőben megoldást a PhysX témára, de még a távoli jövőben sem. Na most innentől bárki tud írni másik translation layert, nem kell arra várni, hogy a ZLUDA egy szem fejlesztőjének egyszer talán lesz kedve PhysX-el foglalkozni, amikor nem az a fő szempont. A világon biztosan nem ő az egyetlen olyan fejlesztő, aki képes CUDA translation layert írni, ráadásul a forráskód megnyitása után biztosan nem.
    Sokkal valószínűbb, hogy egy másik fejlesztőtől jön majd egy másik translation layer akár egy nem hivatalos mod formájában, ami előbb fogja megoldani a gondot, mint a ZLUDA, ugyanis amíg a ZLUDA a gép tanulásra fókuszál, addig más fejlesztő fókuszálhat kizárólag a PhysX-re, ott a lehetőség.

    Az AMD tavaly nem véletlen állította le a a ZLUDA finanszírozását, mert jogi szempontból a reverse enginnering nem teljesen állta meg a helyét. Inkább megelőzték a bajt és időben leállították.
    A forráskód megnyitása ezt a gondot is kiküszöböli.

    Szerinted a forráskód semmit nem fog segíteni, szerintem pedig pont ez fogja megmenteni az érintett régi játékokat, majd az idő megmondja kinek fog jobban működni a jósgömbje. :)

  • huskydog17

    addikt

    NVIDIA PhysX and Flow libraries are now fully open source

    Eddig a PhysX CPU része volt nyílt, már kb. 6 éve, most megnyitották a GPU gyorsítás részét is, így a PhysX teljes mértékben nyílt forráskódú lett. Ezzel az NVIDIA megnyitotta az utat, hogy a régi 32 bites GPU-PhysX játékok gond nélkül működhessenek Blackwell szérián is, a lehetőség innentől adott. (Mondjuk eddig is adott volt, ha a játé készítője 64 bitesre portolta volna a játékot.)
    Így akár modderek is rendbe tudják rakni az érintett régi játékokat.

    Ezen felül a Flow nevű, GPU gyorsított folyadékszimuláció is teljesen nyílt forráskódú lett.

    Szerintem ez az NVIDIA válasza a PhysX backlash-re, amit jogosan kaptak, szerintem ezzel részükről le is tudták és úgy gondolom ez így rendben is van, ugyanis innentől bárki rendbe tudja tenni a problémás PhysX játékokat, a lehetőség innentől adott. Ezen felül nem csak rendbe tenni lehet az ériontett címeket, hanem tovább lehet fejleszteni az implementációkat. Ez a lépés rengeteg új lehetőséget nyit meg a játék fejlesztők lett.

    Flow 2.2.0 és PhysX SDK 5.6.0 forráskód GPU kóddal

    A témában egy másik érdekesség:

    Az SCS Software sok év után lecseréli a fizikai motort az Euro Truck Simulator 2 (ETS2) és American Truck Simulator (ATS) játékaiban, ahol az eddig használt Bullet motort PhysX-re cserélik. Az SCS viszont kizárólag CPU alapú PhysX-et használ, ami már sok éve nyílt forráskódú.

    Az SCS közleménye a témában:

    "In 1.54, we are adopting the NVIDIA PhysX physics engine as an alternative to the current Bullet physics engine for low-level simulation of physics in the game world that players interact with. This shift allows players to experience more precise collision detection results and more robust behaviour during scenarios involving collisions between vehicles and obstacles or other vehicles. PhysX also offers our teams better debugging tools, which indirectly benefits players by helping resolve bugs more efficiently.

    One of the most noticeable improvements brought by PhysX can already be experienced in our recently introduced Driving Academy game mode. For example, collisions with cones and obstacles are now more accurate and objects no longer appear to "levitate" slightly above the ground after interaction, a flaw that occurred with Bullet. While players may not see drastic changes, certain interactions should exhibit slightly improved behaviour.

    During the Open Beta, many players expressed concerns about hardware limitations due to recent news that 32-bit version of PhysX would no longer be supported by certain GPUs. However, the PhysX implementation we use runs entirely on the CPU, meaning players can enjoy PhysX without worrying about graphics card compatibility.

    With the release of version 1.54, PhysX is now the default physics engine for all gameplay. Players who prefer the previous Bullet physics engine can switch back by using the "-bullet" command line argument in their Steam launch options."

  • huskydog17

    addikt

    NVIDIA RTX Remix Officially Released with DLSS 4 and RTX Neural Shaders, Half-Life 2 RTX Playable Demo Available March 18th

    Az első játék Neural Shader-rel, ezen felül minden új NV tech lesz a HL2-ben. A Remix pedig kijött bétából, szintén támogatja az új technológiákat.

    Első Neural Shader:

    "Neural Radiance Cache
    Our first publicly released neural shader, Neural Radiance Cache, enhances the quality of fully ray-traced indirect lighting, whilst simultaneously improving performance. The Neural Radiance Cache uses a grid of AI neural networks across screen and world space that trains on a player’s real-time game data to calculate indirect light for the scene. Training in real-time, it’s highly tailored to the specific game content being played during that session. The result is more accurate and responsive lighting that runs up to 15% faster in Half-Life 2 RTX."

    NVIDIA RTX Skin:
    "NVIDIA RTX Skin is one of the first implementations of sub-surface scattering in ray-traced gaming. For the first time, light reflects, penetrates, and propagates realistically through skin, on a per-pixel basis, grounding characters with a level of realism unattainable with rasterization, previous approximated subsurface scattering techniques, and previous ray tracing techniques. Furthermore, artists can tune how much the light should scatter or transmit through materials, adjusting the subtlety and intensity of the effect."

    RTX Volumetrics:
    "Volumetric effects add light shafts and god rays to games, and allow particle and weather effects to be illuminated. NVIDIA RTX Volumetrics enable RTX Remix modders to create incredible volumetric, particle and atmospheric effects.
    Rasterized volumetric effects require multiple, performance-intensive high quality shadow maps for each light in a scene to prevent noticeable aliasing, flickering, and artifacting. Full ray tracing removes the reliance on rasterized techniques, such as shadow maps, enabling higher quality implementations that have a fixed cost regardless of the number of lights in a scene.
    RTX Volumetrics adds a volume-based Reservoir-based Spatiotemporal Importance Resampling (ReSTIR) algorithm that allows for higher contrast volumetric light and shadows, improving volumetric quality. Modders will notice much sharper and well defined shafts of light and volumetric beams, with crisp volumetric shadows, which can create stunning gameplay moments."

    Ezen felül a Multi Frame Gen-t támogató játékok száma elérte a 100-at:
    Over 100 DLSS 4 with Multi Frame Generation Games & Apps Out Now, More Coming Soon, Including The Half-Life 2 RTX Demo

  • huskydog17

    addikt

    Andreas Schilling ugyanúgy járt, mint der8auer, 600W terhelés mellett a PCI-E tápcsati a PSU oldalán 160 fokig hevült. Nem történt sérülés se a kábelen se a PSU-n, ezúttal egy csúcskategóriás Be Quiet (Dark Power 13) tápnál volt ez.
    Ez mind a PCI-SIG, mind az NV részről epic fail.

    Forrás

  • huskydog17

    addikt

    válasz Busterftw #50548 üzenetére

    + az eddigi natív hívők az FSR4 miatt majd megtérnek és az RT mellett majd a felskálázás is fontos lesz hirtelen. Ez szerintem borítékolható. :)

  • huskydog17

    addikt

    válasz deathcrow42 #50468 üzenetére

    Így van, itt az AMD most nem hibázhat, ha ezt a katasztrofális gen váltást nem használják ki, akkor már soha nem fognak piacot szerezni, ugyanis rendkívül valószínűtlen, hogy az NV a jövőben újra ilyen nagy baklövést kövessen el és ismét ekkora helyzetbe hozza a pirosakat. Könnyen lehet, hogy ez az AMD utolsó nagy esélye.

    #50470 omfgk: Eddig mindegyik Blackwell SKU-t érintette, szerintem az 5070 sem lesz kivétel. :DDD

  • huskydog17

    addikt

    RTX 5070 Founders Edition nem lesz kapható holnap, majd később érkezik

    "GeForce RTX 5070 Founders Edition erst „später im März" - CB

    "The RTX 5070 Founders Edition will be available later in March." - Andreas Schilling

    Úgy tűnik egyik Blackwell launch sem akar összejönni.

  • huskydog17

    addikt

    válasz deathcrow42 #50461 üzenetére

    Ha csak azzal lenne gond, de sajnos sok más szempontból is problémás ez a generáció.

    #50462 4264adam: Igen, sajnos a driver is most nagyon el lettek kapkodva, nagyon sok a probléma, szokatlan rossz ebből a szempontból is a generáció, viszont én nagyon erősen kétlem, hogy később bármit javulni fog a sebesség.

  • huskydog17

    addikt

    válasz b. #50444 üzenetére

    "Ami poén hogy sugárkövetésben kikap 1-2 % kal a 4070 supertől. Komolyan mi ez? :F"

    Sajnos több játékban is van regression a 4070 Super-hez képest, azaz azoknál az Ada gyorsabb, a DF az F1 24-ben és Avatar-ban mért ilyeneket. (Utóbbit Igor mérése is megerősíti.)

    Valószínűleg a 4070S a több számolóegység (CUDA mag) miatt lehet gyorsabb, ezeknél a játékoknak valszeg nem kell nagy sávszélesség, ezért az 5070-es magasabb sávszélessége itt semmit nem ér, viszont a kevesebb számolóegység megbosszulta magát.

    Ez az 5070-es a 4070S újrakiadása 30 Wattal magasabb fogyasztással és MFG támogatással és kész, ennyi, sebesség átlagban ugyanaz. 50 dolcsi csökkentés az MSRP-nél önmagában édeskevés.
    Sajnos ez az 5070, ahogy a teljes Blackwell széria is, nagyon pocsék generációváltás lett, az NV egyik legrosszabb generációváltása.

  • huskydog17

    addikt

    válasz Att1la. #49933 üzenetére

    Köszi! Kínai tesztre nem számítottam. :D
    Sajnos ez a teszt sem ér valami sokat, ugyanis egyrészt Furmark ugye stresszt teszt, ami nem reális gaming szcenárió, továbbá nyitott tesztpadon volt a kártya, ami megint csak csalóka, de a legfontosabb, hogy itt sincs zajszintmérés, így nem tudjuk, hogy mennyire hatékony vagy nem hatékony ez a hűtő a többihez képest, márpedig ez lenne a legfontosabb.

    #49934 tipuka: Igen, sajnos egy custom design teszt zajszintmérés nélkül semmit nem ér. Remélhetőleg idővel majd egy normális teszt is készül róla, legalábbis nagyon remélem, mert én is nagyon kíváncsi lennék, hogy ez a vékony hűtő mennyire hangos és realisztikus (gaming) terhelés alatt mit produkál.

  • huskydog17

    addikt

    válasz Komplikato #49931 üzenetére

    Hol találtál róla tesztet? Én sehol nem találtam még. A Tweaktown féle cikk róla sajnos nem sokat ér, mert nincs zajszintmérés, így a legfontosabb infó nincs benne.

  • huskydog17

    addikt

    válasz Busterftw #49919 üzenetére

    Jó kérdés, de igen, a tény, hogy láthatóan sokkal nagyobb készlettel indulnak, mint a többiek. A TPU listában (ahol azt írják, hogy melyik oldal melyik kártyát tesztelték) jól látni, hogy a teszt oldalak túlnyomó többsége is MSI kártyát kapott, a maradék ASUS-t.
    Sajnos az egyetlen probléma náluk az, mint a többinél, hogy brutálisan megemelték az SMRP árat, konkrétan egy kivételével mindegyik custom designjuk kereken 1000 dolcsi lett. Az egy szem SMRP kártyájuk, a Ventus 3X nem lett valami jó, mert túl agresszív lett a ventiprofil, emiatt - viszonylag - hangos és csak egy BIOS van rajta. Talán utólag majd új BIOS-sal javítani fogják, ahogy az ASUS is utólag módosította az Astral katasztrofális hangját.
    A Gaming Trio viszont bitang jó lett, szerintem messze a legjobb custom design a prémium (non-MSRP) kategóriában.

    Végül is ha már kidobták az AMD vonalat, könnyen lehet, hogy a felszabadult gyártáskapacitást ide fókuszálták, de csak tippelek.
    hokuszpk megelőzött ezzel az elmélettel. :)

  • huskydog17

    addikt

    Alternate több száz darabot kapott az RTX 5070Ti-ból (többsége MSI):



    "Alternate hat auf Instagram mit einem Foto erster Lagerware nachgelegt. Auf Nachfrage, ob es sich dabei um alle verfügbaren Produkte handelt, erklärt der Händler aus Linden (Maps) „es gibt mehrere hundert Karten“. Der größte Anteil davon soll offline verkauft werden. Die günstigsten „starten hierbei beim UVP-Preis“." (Forrás)

  • huskydog17

    addikt

    válasz gainwardgs #49305 üzenetére

    Olvasd el még egyszer mit írtam, tehát amire válaszoltál, de figyelmesebben, mert értelmetlen választ írtál.

  • huskydog17

    addikt

    válasz hahakocka #49267 üzenetére

    "De azért volt vagy 6-7 évnyi fejlesztés a 2. rész megjelenése előtt :) Gondolom optimalizáltak."

    Ha a Crysis 2-re gondolsz, akkor az max 3,5 év volt, amiben a Cryengine 3 fejlesztése is benne volt.

    "Emellett a Remastered attól még ahogy írták fent összekapkodott optimalizálatlan szutyok lett."
    Nem. Az első rész Remaster verziója lett kaki a megjelenéskor, mert a konzol verzióra építették, ami nagy hiba volt. Később ezt patch-elték, megkapta a multithreaded renderinget és azóta a sebesség jó. Most már sokkal jobb, mint a régi.
    A 2. rész Remaster verziója már megjelenéskor kiváló, példaértékű lett, a Crytek nyilatkozta is egy interjúban, hogy a Remaster csomagból a 2. rész kapta a fókuszt és ez meg is látszott. Még RT mellett is a sebesség döbbenetes magas volt, példaértékű optimalizálást kapott.

    "Mások is csinálták persze."
    Ke? :F Miről beszélsz? a Remastered verziókat ugyanúgy a Crytek csinálta, mint az eredeti trilógiát.

    #49266 gainwardgs: Lásd fentebb.

  • huskydog17

    addikt

    válasz rumkola #49098 üzenetére

    Na ez nem semmi. Egy újabb forradalmi technológia lehet, a VRAM használat csökkentés mértéke valami brutális.
    Innen bárki letöltheti és kipróbálhatja.

    1-2 dolog nagyon fontos ezzel kapcsolatban:

    Az NTC minden, Shader Model 6-ot támogató VGA-n működik! Jelenleg azonban egyelőre nem minden arch-on van validálva. A validálás NV oldalon Pascal arch-tól felfelé érvényes, AMD oldalon RNDA2 a minimum, míg Intelnél az Arc széria.

    "GPU for NTC decompression on load and transcoding to BCn:
    Minimum: Anything compatible with Shader Model 6 [*]Recommended: NVIDIA Turing (RTX 2000 series) and newer.
    GPU for NTC inference on sample:
    Minimum: Anything compatible with Shader Model 6 (will be functional but very slow) [*]Recommended: NVIDIA Ada (RTX 4000 series) and newer."

    "[*] The oldest GPUs that the NTC SDK functionality has been validated on are NVIDIA GTX 1000 series, AMD Radeon RX 6000 series, Intel Arc A series."

    A másik, hogy a kooperatív vektorok jelenleg még kísérleti fázisban vannak, emiatt az NVIDIA kiemelten felhívja a figyelmet, hogy senki ne szállítsa azokat játékokban!

    "The experimental implementation will be replaced by the official Microsoft API later in 2025, and NVIDIA driver support for the current version will be removed shortly after that. All non-CoopVec versions of DX12 decompression, as well as all Vulkan versions including CoopVec, are OK to use for shipping.
    The DX12 Cooperative Vector support is for testing purposes only. DO NOT SHIP ANY PRODUCTS USING IT."

    Remélem a jövőben több játék is használni fogja, hogy láthassuk, hogy produkál a gyakorlatban kész játék esetén.

  • huskydog17

    addikt

    válasz KRoy19 #49036 üzenetére

    Miért ne játszana? 138 millió felhasználóból biztosan vannak jópáran. A Steamcharts itt semmit nem segít, mert a Steam az Ubi játékok esetén csak a felhasználók egy kis részét fedi le, a többség nagy valószínűséggel nem Steam-en játszik.
    Ez mondjuk a technológia szempontjából nem annyira releváns kérdés.

  • huskydog17

    addikt

    Megérkezett a DLSS 4 patch a Star Wars Outlaws-hoz (v. 1.5.1)

    Minden új NV feature-t tartalmaz, tehát Multi-FrameGen és Transformer Modelt is.

    "Star Wars Outlaws on PC now features DLSS 4 with Multi Frame Generation for GeForce RTX 50 series, which boosts FPS by using AI to generate up to three frames per traditionally rendered frame. DLSS 4 also introduces faster single Frame Generation with reduced memory usage for RTX 50 and 40 Series, and new transformer AI models for DLSS Ray Reconstruction, Super Resolution, and DLAA for all GeForce RTX GPUs, which enhances stability, lighting, and detail in motion."

  • huskydog17

    addikt

    válasz D55 #48836 üzenetére

    A DSO információja csak később jött, 30-án még nem lehetett tudni, akkor még Blackwell exkluzív volt, mármint az akkori hivatalos információk szerint.

  • huskydog17

    addikt

    válasz b. #48779 üzenetére

    Ez nagyon bíztatóan néz ki, remélem minél több RT játékba beépítik!
    Az is nagyon durva, hogy Natív 4K DLAA és PathTracing mellett így már simán, bőven befér az egész 16 GB VRAM-ba, most már nem annyira szűkös, sőt DLSS mellett már 12 GB-ba is befér, ráadásul ez Ada arch, majd kíváncsi leszek BW alatt, hogy fog-e még valamennyit csökkenni a VRAM használat, hiszen a BW RT magjai 25%-al kevesebb VRAM-ot igényelnek.

  • huskydog17

    addikt

    válasz adr0001 #48721 üzenetére

    A Dmitrirender továbbra is teljesen irreleváns a témában, mert mivel az egy DirectShow Filter így játékokban semmi hasznát nem veszed, továbbá ahogy írtam évekkel ezelőtt leállt a fejlesztése, az utolsó verzió az 5.0.0.1 is béta volt, ami az Ampere generációt támogatta, tehát az Ada és most már a Blackwell kártyákkal semmit nem tudsz vele csinálni, AMD-ról nem is beszélve, ott a Polaris volt az utolsó támogatott arch. Játékok alatti Frame gen témában felhozni egy halott Directshow filtert nem túl bölcs dolog, de ahogy gondolod, egyébként a DmitriRender is csak egy post process filter, az is csak tippel, pont úgy, mint a Lossless Scaling. Ennek azonban továbbra sincs semmi köze a témához.
    Az, hogy hazudnak az kizárólag a te személyes elméleted, semmi bizonyítékod nincs rá. Ezt csak te akarod belelátni mindenáron.
    Az NV egyértelműen leírta, hogy milyen hardveres változtatásokat eszközölt a FG-él és a MFG-nél, több hardveres különbség is van. Ezekre nem viccből és szórakozásból öltek sok pénzt és mérnöki munkaórát, szükségesek voltak a hardveres változtatások ahhoz, hogy a minőség továbbra is ugyanolyan jó legyen, mint a DLSS3-nál.

    #48722 Yutani: Nem is az FSR FG-ről írtam, de egyébként az egy nagyon jó alternatíva valóban, amennyiben a játék fejlesztője úgy implementálta, hogy függetlenül tudjon működni a felskálázótól, sajnos rendkívül kevés ilyen játék van, és ez az FSR FG legnagyobb problémája. Az FSR FG valóban elég jó eredményt ad, viszont a DLSS FG képminőségét nem éri el, az is tény, hogy egy Lossless Scaling-hez képest fényévekkel jobb eredményt ad, hiszen nem post process filter, van mozgásvektor információja.

  • huskydog17

    addikt

    válasz adr0001 #48716 üzenetére

    Olvasd el még egyszer, mert nem sikerült jól értelmezned amit írtam. Én nem kizárólag az MFG-ről beszéltem, pont hogy az összes többiről, márpedig rengeteg hasznos szoftveres újítás érkezett amiket minden RTX kártya megkap. A Flip metering nem kamu, a mérnökök nem viccből rakták be, az arra való, hogy a frame pacinget a GPU (konkrétan a Display Engine) végzi a CPU helyett, emiatt lényegesen jobb ott az eredmény, mintha a régi CPU-s módszert alkalmaznák.

    A DmitriRender-t nagyon jól ismerem, használtam évekkel ezelőtt nagyon sokat, de annak a fejlesztése már évek óta leállt, a domain is már megszűnt, ráadásul az egy DirectShow Filter, tehát kizárólag offline video playback-nél működik, így nem értem, hogy egyáltalán hogyan kapcsolódik a témához, mert szerintem sehogy.

    "AZ Ampere-ben is megtalálható minden hardverelem a FG-höz."
    Az Ampere túl gyenge volt még ahhoz, hogy jó minőséget érjenek el vele. Nyilván rengeteg idővel és optimalizálással el lehet érni gyengébb hardvereken is elfogadható/jó minőséget, de arra még nem volt elég idő, illetve nyilván egy új technológiát a premierkor a lehető legjobb formában/minőségben kell prezentálni, hogy meggyőzze az embereket, így értelemszerűen a legerősebb hardverre korlátozzák, hogy a minőség ne zuhanjon be túlságosan. Ezért mondta Bryan az interjúban, hogy még nem tudják, hogy a régebbi RTX-eken meg tudják-e oldani. Ez ugyanaz, mint hogy az AMD sem tudja még, hogy az FSR 4-et meg tudják e oldani korábbi RDNA3-on, mert nem arra tervezték és nem tudják, hogy gyengébb hardveren el tudnak-e érni megfelelő minőséget.
    Szóval igen, lehetne Amper-rel is FG-t csinálni, csak nem olyan minőségben, mint az újabb generációkon. Lásd, ott a Lossless Scaling, az minden arch-on megy, cserébe elég csapnivaló a minősége és túl sok GPU időt visz el, még a 2× mód is (saját tapasztalat).

    Engem amúgy a FG jelen pillanatban nem nagyon érdekel, ettől függetlenül egy hasznos fejlesztés azoknak, akik nagy sebességű monitort használnak.

    Azt nem tudom, hogy neked mit jelent a tipikus NV viselkedés, de az tény, hogy most olyan sok szoftveres fejleszt és újítás jött, hogy mindenki jól járt, tehát a játékosok (pl.: Transformer model SR, RR és FG-hez, VideoSR és Broadcast fejlesztések, stb.), tartalomgyártók (új multimédiamotorok mondjuk pont hardveres fejlesztés) és a fejlesztők is (RTX MegaGeometry, RadianceCache stb.).

    Ezen fejlesztésekből ráadásul minden RTX kártya profitál. Ha ezt jelenti a tipikus NV viselkedés, akkor Jensen tartsa meg jó szokását! ;)

  • huskydog17

    addikt

    válasz Raymond #48707 üzenetére

    Igen, arra gondoltam, hiszen az az AMD-nek a driveres alapú frame gen technikája. Szerintem a SmoothMotion inkább az AFMF2 ellenfele lesz.

    b. #48708: Igen, nem minden szoftveres fejlesztést soroltam fel, sokáig lehetne sorolni, ahogy például a Broadcast újításait/fejlesztéseit is. Rengeteg szoftveres fejlesztés/újítás jött és a legtöbbjük minden RTX kártyán működik.

  • huskydog17

    addikt

    NVIDIA Blackwell arch whitepaper

    A piaci rajtra több nagy játéknál elkészült a DLSS 4 patch, de vannak, ahol kicsit még várni kell.

    Pl:
    Alan Wake 2-nél elkészült és ez az első játék a piacon, amely támogatja az RTX MegaGeometry-t. RTX MegaGeometry minden RTX kártyán működik! (Nem csak ebben a játékban, hanem minden játékban, ezt a Whitepaper megerősíti.)

    Hogwarts Legacy-hoz is elkészült.

    Cyberpunk-hoz már korábban jött a DLSS 4 patch, így ott egy ideje már tesztelhető mindenkinek.

    Star Wars Outlaws, Black Myth: Wukong, Marvel Rivals, Indiana Jones and the Great Circle, NARAKA: BLADEPOINT esetében kicsit még várni kell, de hamarosan jön a DLSS 4 patch.

    Indiana Jones esetében februárban érkezik.

    Doom The Dark Ages megjelenés napján (május 15.) támogatni fogja.

    A mai napon megjelent Marvel's Spider-Man 2-höz is egy post-launch patch-el fog érkezni a DLSS 4.

    Érkezett egy új Blackwell-exkluzív feature SmoothMotion néven, amiről eddig nem nagyon lehetett tudni, egyfajta meglepi: driver alapú frame generation:

    "GeForce RTX 50 Series gamers can now also enable NVIDIA Smooth Motion, a new driver-based AI model that delivers smoother gameplay by inferring an additional frame between two rendered frames. For games without DLSS Frame Generation, NVIDIA Smooth Motion is a new option for enhancing your experience on GeForce RTX 50 Series GPUs."

    Ahogy az NV írja, ezt olyan játékhoz ajánlják ami nem támogatja a DLL Frame Gen-t. Egy képkockát számol, azaz kb. olyasmi lehet, mint a DLSS 3 FG.

    Elég gyorsan válaszoltak az AMD driver alapú frame gen-jére.

    Úgy gondolom nagyon izgalmas lesz ez az év technológia szempontból. Sokan csalódottak a Bw-ben, viszont a szoftveres újításokra nem lehet panasz, döbbenetes mennyi fejlesztést és újítást hozott szoftver fronton az NV.

    Nem elég, hogy a DLSS 4-el a TM modell minden RTX kártyán masszív képminőség javulást hozott, az RTX MegaGeometry pedig szintén minden RTX kártyán ingyen sebességet hoz RT alatt. Ezért is mondom, hogy szoftveres fronton senkinek nem lehet egy rossz szava, úgy érzem az NV itt kimaxolta a lehetőségeket. Ezen felül ezért is mondtam korábban, hogy ugyan a hardver nyers tempója annyira nem is látványos, de a szoftveres újítások és fejlesztések bizony azok és ezen a fronton sokkal többet kaptunk, mint amire arra bárki számított volna. A BW launch tehát szerintem nem hardveres, hanem szoftveres területen rendkívül erős.

  • huskydog17

    addikt

    válasz BerserkGuts #48473 üzenetére

    Az a patch még nem publikus, press build van belőle, tehát most még csak a sajtónak van hozzáférése, tesztelőknek. Holnapután várható a patch mindenki számára, mert akkor lesz az RTX 5080/5090 rajt.

    Cyberpunk 2077 viszont már megkapta a patch-et, ott mindenki tudja tesztelni.

  • huskydog17

    addikt

    válasz b. #48434 üzenetére

    Fontos, hogy ebben még nincs benne a DLSS Override! Az még 3 nap. :D

  • huskydog17

    addikt

    válasz b. #48256 üzenetére

    Astral még viccnek is rossz. Messze a legdrágább AIC kártya, 2800 dolcsi nettóban és out of the box k*rva hangos, sokkal hangosabb, mint az FE:

    CB Teszt

    A 4. venti piszok hangos lett. ASUS ezt jól elb*szta. Nem elég, hogy 4 slotos 3 kilós nagy tégla, még a sokkal kisebb FE-nél hangosabb is. Ezért mondom, hogy egy vicc. A legdrágább custom design-nál ilyennek soha nem szabadna megtörténnie. 800 dollárnyi felárért ezt kapja a vásárló.

  • huskydog17

    addikt

    válasz b. #48237 üzenetére

    Igen, ez is nagyon szép, ahogy a a 7900 XTX előnye a 7900 GRE-hez képest a majdnem 40%-ról 2%-ra zuhan.
    Több játékban is megfigyelhető a masszív CPU limit az RDNA3-nál, de a Starfield-ben hatványozottan látványos, de van még egy játék, ahol ennyire szélsőségesen és látványosan mutatkozik meg: Warhammer 40k: Space Marine 2, a 7900 XTX 4K-ban még a 4080 Super-rel versenyez, aztán Full HD-ban úgy összeomlik a sebesség a csoda DX12 driverrel, hogy már csak a sima RTX 4070-nel tud versenyezni.
    Ezeknél több játékban van CPU limit RDNA3-nál, viszont ennél a kettőnél a leglátványosabb.
    Az NVIDIA-nak viszont túl nagy a CPU overhead-je, ki kéne dobniuk az Ada-ig mindent. OK. :DD

  • huskydog17

    addikt

    válasz S_x96x_S #48164 üzenetére

    Ebben nincs semmi érdekes, ez egy teljesen értelmetlen és felesleges mérés, illetve eredmény, mert itt csak masszív CPU limitet láthatunk. Szomorú, hogy ez neked érdekes és az még szomorúbb, hogy ebből általános következtetést vontál le.
    GPU tesztnél olyan eredményeket kéne figyelembe venned, amelyek nem CPU limitet mutatnak. TomsHW is csinált ennél értelmesebb mérést (ha már őket linkeled), csak hármat kellett volna lapoznod és ott a jobb, releváns mérésük:

    Illetve TPU-ról a releváns eredmény:

    Szóval, de, az 5090 ebben a játékban is jobb, mint a 4090, csak megfelelően kell értelmezni a teszteket. ;) Igaz, az AC Mirage egyfajta worst case az 5090-nek (átlaghoz képest itt nagyon csekély az előrelépés), érdekes, hogy pont ezt az egy játékot emelted ki, szerintem inkább nézd a teljes képet a helyett, hogy cherry picking alapján általánosítasz.
    Csúcs VGA kategóriánál teljesen értelmen minden 1080p mérés, mert csak CPU limitet látsz, de a legtöbb játék esetén még 1440p alatt is.

    Egyébként úgy látom a TomsHW a Mirage téren nagyon nincs képben, ezt írják (rögtön a méréseket ábrázoló kép alatt):

    "Assassin's Creed Mirage uses the Ubisoft Anvil engine and DirectX 12. It's an AMD-promoted game as well, though these days that doesn't necessarily mean it always runs better on AMD GPUs."

    Az első mondat igaz, a második hazugság. Az AMD-nek ehhez a játékhoz semmi köze, ugyanis itt az Intel volt a technikai partner.

  • huskydog17

    addikt

    válasz FLATRONW #48099 üzenetére

    FE verziónál holnap, míg a custom designoknál pénteken.

    5080-as tesztek -> 01.29

  • huskydog17

    addikt

    válasz b. #47805 üzenetére

    Több sajtónál is megjelent a deep dive a Blackwell-hez, úgy tűnik ezek a technikai részletek NDA-s infók voltak, ami ma 15 órakor járt le.

    TPU:
    NVIDIA GeForce RTX 50 Technical Deep Dive

    ComputerBase

    Hardwareluxx

    Rengeteg új diát adtak most a zöldek, rengeteg új infó van a bejelentéshez képest, érdemes átfutni a diákat, nagyon sok hasznos infót rejtenek.

    Úgy látom a Blackwell szériának egyik nagy erőssége a neural shader lesz, ami elég masszívan megdobhatja a látványt játékokban. A Tensor és RT magok tempóját megduplázták, a kijelző és multimédia motorokat frissítették, most már biztos, hogy a Blackwell a legújabb és leggyorsabb HDMI és DP csatlakozókkal fog rendelkezni (DP esetén UHBR20). Az RT magok memóriaigénye 25%-al csökkent.

    Az FE hűtés design-hoz tartozó diákat különösen érdekesnek tartom, ott jól látni, hogy az új design (Double-Flow-Through) mennyivel hatékonyabb, mint bármely más hűtés, itt jól látszik, hogy miért előnyös a kis PCB. Itt még mindig döbbenetes számomra, hogy az 5090-nél, 512 bites busz és 12 db VRAM modul és brutál izmos VRM mellett ilyen pici PCB-t sikerült alkotni. Az FE hűtés 30-35 dB környékén várható a diák alapján.

    Szintén a friss diák alapján nagyjából így néz ki a nyers (shader) számítási teljesítmény játékokban, azonos körülmények között:

    RTX 5090 vs. 4090: kb. 33%
    RTX 5080 vs. 4080: kb. 15%
    RTX 5070 Ti vs. 4070Ti: kb. 20%
    RTX 5070 vs 4070: kb. 20%

    A CB táblázatában tökéletesen látható, amit már korábban is mondtam: a csúcs kártya 5090-es kivételével mindegyik kártya olcsóbb, mint az Ada indulásakor, az 5080-as 200 dollárral, a két 70-es kártya 50-50 dollárral, tehát nincs drágulás a csúcsterméket leszámítva. A csúcstermék esetén pont az lett volna a csoda, ha azonos áron jön, hiszen az 512 bit és a 32 GB GDDR7 miatt eleve sokkal drágább gyártani, mint egy 4090-et, ezen felül az FE hűtés sem olcsó mulatság (der8auer szerint).

    Olyan sok az új infó, hogy még nem futottam át teljesen a cikkeket, csak felületesen, de majd pár órát rászánok később.

  • huskydog17

    addikt

    válasz huskydog17 #47732 üzenetére

    Érkezett frissítés:
    Az RTX 5080-as MSRP kártyák tesztjei 01.29-én jelennek meg.

    Ezzel az 5080-ért sorban állók is megkapják a teszteket időben. :D

    A nem MSRP (OC vagy prémium, kinek hogy tetszik) custom design-ok tesztjei továbbra is 01.30-ra vannak belőve.

  • huskydog17

    addikt

    válasz Busterftw #47733 üzenetére

    Ez csak annak gond, aki 01.30-án hajnalban sorba akar majd állni, hogy kapjon egy 5080-at a kezdeti készletből, annak valóban nem lesz ideje elolvasni előtte a teszteket. :)
    Mindenki másnak no problem. Mondjuk nem hiszem hogy az 5080-ért sokan sorba fognak állni első napon, de az USA-ban sose lehet tudni. :DDD

  • huskydog17

    addikt

    NVIDIA GeForce RTX 5090 reviews go live January 24, RTX 5080 on January 30

    Állítólag ezek hivatalos adatok (NV megerősítette).

    Az 5080-asokhoz később érkeztek meg a BIOS-ok az AIB partnerekhez, ezért később tudták kiküldeni a kártyákat, emiatt van 1 hét eltolódás. Ettől függetlenül az 5090 és 5080 ugyanúgy Január 30-án rajtol (piaci start).
    01.24-én látni fogjuk mit tud valójában az 5090. Még 11 nap.

  • huskydog17

    addikt

    válasz b. #47727 üzenetére

    ASUS A7N8X-X tulajdonos/felhasználó voltam 7 éven át (nForce 2 Ultra 400 chipset). A legjobb chipset volt akkoriban.
    2003-tól 2010-ig használtam azt a gépet, a lapban egy AthlonXP 2400+ volt T-Bred B maggal.

  • huskydog17

    addikt

    ZOTAC introduces 12VHPWR “Safety Light” for GeForce RTX 5090/5080 series

    "ZOTAC GAMING has given the power connector more attention with additional enhancements: a Safety Light that prevents the GPU from powering on if the cable is not fully seated, and 5u gold-plated connection pins to be more corrosion-resistant and provide better electrical conductivity."

    Na ez egy hasznos újítás, a többi AIB partner is átvehetné ezt.

  • huskydog17

    addikt

    válasz fatal` #47431 üzenetére

    Oh jaj.

    A YT-nak több milliárd aktív felhasználója van, nyilván nem mindenki streamel, nem tudom ezt miből szűrted le. Live streamtől függetlenül egy több milliárd felhasználós platform nem lehet rétegplatform, konkrétan a világ legnagyobb videómegosztó portálját extrém módon és igencsak megmosolyogtatóan lealacsonyítottad, mintha csak egy garázs projekt lenne. :DDD
    Ha ennyire ragaszkodsz kizárólag a live streamhez, akkor se réteg platform, konkrétan több tízezer csatorna streamel egyszerre YT-on és több millió nézőjük van. Ez neked réteg igény? Szerintem attól nagyon messze vagyunk. Konkrétan a világ második legnépszerűbb streaming platformja. Szerintem gondold át.

    "A feltöltés nem on the fly encoding, a videók nézése meg még csak nem is encoding."
    Nyilván. Miből gondolod, hogy én nem ezt nem tudom?

    "Hiába töltesz fel sokszoros bitrátával, azt lekonvertálja."
    Nem hiába. Magas bitrátás, azaz nagyon jó minőségű forrásból a YT is sokkal jobb végeredményt fog adni, mint egy középszerű vagy szar forrásból.

    #47419 M@trixfan: Igen.

  • huskydog17

    addikt

    válasz fatal` #47415 üzenetére

    A YouTube rétegigény? Szerintem nagyon nem, több milliárd felhasználóval igencsak fura rétegigénynek mondani. YT és VR két szélső példa: YT a legnépszerűbb streaming/videós platform, míg a VR nagyon szűk réteget jelent.

    "A YouTubeon van HEVC, de minek, borzasztó hulladékot kódol belőle."

    A mondat második felét cáfolnám. Én minden videómat HEVC-ben töltöm fel már évek óta és igen jó képminőséget kapok. A trükk annyi YT-on, hogy 1080p-nél nagyobb felbontásban kell feltölteni a videót és akkor nem a fos AVC-t, hanem VP9 vagy AV1-et kapsz playback-nél. Ha a feltöltött videó felbontása nem nagyobb, mint 1080p, akkor a videót jó eséllyel csak AVC encode-ot kap YT oldalon és akkor valóban egy fos lesz a képminőség, de VP9-el vagy AV1-el fényévekkel szebb a kép. Igaz, én nem 5-6 Mbit/s bitrátával töltök fel, hanem annak sokszorosával (sokszor extrém nagy bitrátával), ezért is jó a képminőség.
    Mivel minden video streaming platform a lehetőleg legalacsonyabban próbálja tartani a bitrátát a szerverfarm kímélése miatt, így rendkívül kritikus, hogy milyen kodekkel történik szerver oldalon a feldolgozás. A VP9 és AV1 fényévekkel szebb, mint az AVC, mert viszonylag alacsony a bitráta és az új kodekek pont ott brillíroznak.

    Én pont annak örülnék, ha a YT végleg kidobná az AVC-t és a legalja minőség is VP9 lenne, mert az sokkal kevésbé roncsolja szét a videót, mint az AVC.

    Szóval nem a HEVC-ből kódol hulladékot a YT, hanem az olyan videóból ami kizárólag AVC encode-ot kap, ahogy mondtam amelyek max 1080p felbontásúak. A HEVC pont, hogy hatékonyabb, mint az AVC.

  • huskydog17

    addikt

    válasz gejala #47407 üzenetére

    "AV1 kompatibilitása gyakorlatilag nulla, csak akkor van értelme használni, ha garantáltan nem akarod szerkeszteni."

    Ez azért extrém mértékű túlzás. Mind a hardveres mind a szoftveres támogatás már adott és elég jól elterjedt, minden nagyobb, ismertebb videószerkesztő támogatja és mindhárom GPU gyártó is generációk óta, HEVC-et pedig minden is támogatja kb.

    #47410 fatal`: Nem is a VR-re gondoltam elsősorban, az egy rendkívül kicsi, szűk rétegigény, hanem inkább a streaming szolgáltatókra (pl.: YT), ahol nagyon kicsi bitrátát használnak, ott az AVC felér egy büntetéssel.

  • huskydog17

    addikt

    válasz huskydog17 #47250 üzenetére

    Kiegészítés:

    Meglett a válasz a multimédia motor frissítésre. Szóval aki érdekel, hogy pontosan milyen fejlesztéseket kapott az NVDEC és NVENC:

    "Decoding 4:2:2 video can be challenging due to the increased file sizes. GeForce RTX 50 Series GPUs include 4:2:2 hardware support that can decode up to eight times the 4K 60 frames per second (fps) video sources per decoder, enabling smooth multi-camera video editing.
    The GeForce RTX 5090 GPU is equipped with three encoders and two decoders, the GeForce RTX 5080 GPU includes two encoders and two decoders, the 5070 Ti GPUs has two encoders with a single decoder, and the GeForce RTX 5070 GPU includes a single encoder and decoder. These multi-encoder and decoder setups, paired with faster GPUs, enable the GeForce RTX 5090 to export video 60% faster than the GeForce RTX 4090 and at 4x speed compared with the GeForce RTX 3090.
    GeForce RTX 50 Series GPUs also feature the ninth-generation NVIDIA video encoder, NVENC, that offers a 5% improvement in video quality on HEVC and AV1 encoding (BD-BR), as well as a new AV1 Ultra Quality mode that achieves 5% more compression at the same quality. They also include the sixth-generation NVIDIA decoder, with 2x the decode speed for H.264 video.
    NVIDIA is collaborating with Adobe Premiere Pro, Blackmagic Design’s DaVinci Resolve, Capcut and Wondershare Filmora to integrate these technologies, starting in February.
    3D video is starting to catch on thanks to the growth of VR, AR and mixed reality headsets. The new RTX 50 Series GPUs also come with support for MV-HEVC codecs to unlock such formats in the near future."

    Tehát a dekóder (NVDEC) 4:2:2 színformátum támogatást kapott és egy darab dekóder blokk 8 darab 4K60 fps streamet képes dekódolni. Az 5090-ben és 5080-ban kettő ilyen dekóder van, azaz 16 db 4K60fps streamet képesek egyszerre dekódolni (a két 70-es kártyában 1 darab blokk van). Ezen felül MV-HEVC támogatás jön 3D videókhoz (VR&AR). Továbbá az ősöreg AVC (H.264) kodekkel történő dekódolás tempóját megduplázták.

    NVENC motor esetén javult a képminőség HEVC és AV1 kodek esetén, illetve AV1 Ultra Quality-nél a tömörítés hatékonysága. Ezen felül itt is érvényes a MV-HEVC támogatás.
    Az 5090-ben három NVENC blokk van, az 5080-ban és 5070Ti-ban kettő, míg a sima 5070-ben egy darab.

    Hát, a tippem nem jött be (VVC), viszont engem nagyon meglepett, hogy még mindig ölnek erőforrást a borzalmasan elavult AVC kodekbe. Reméltem, hogy mihamarabb kihal, de ezzel csak késleltetik a kihalását. :)

  • huskydog17

    addikt

    válasz b. #47318 üzenetére

    Ez megmosolyogtató, ugyanakkor mégis megnéznék egy alapos tesztet egy ilyenről, hogy az 5 venti mit produkál.

  • huskydog17

    addikt

    válasz Quadgame94 #47251 üzenetére

    Nem sikerült értelmezned a hsz-t, nem baj, próbáld meg még egyszer hátha másodjára összejön, másnak sikerült elsőre is. :)

    #47254 hahakocka: Igen, olvastam, itt leírtam róla a véleményem, feltéve, ha erre az interjúra gondolsz.

    "5090 2000 dolcsi valós majd 2400 kb. 4090 1600 dollár msrp melyik dràgàbb?"

    Mit akarsz ezzel mondani?

    "20-25% gyenge RT S gameben amivel sokan következtettek a raszterre nem is volt raszterről egy dia se. Vajon mièrt? Lehet ezèrt csökkentettek èpp. Valós erő lehet elmarad?"

    Január 30-án kapsz részletes teszteket. Addig szerintem kapcsold ki a jósgömbödet, mert már számtalanszor láttuk, hogy az nagyon rosszul működik.

    "FSR 4 driverrel lesz Rdna 2-3 ral , erről is beszèltek az interjún. Eddig is FSR T nem egy genen hasznâltäk"

    Pontosan hol, ki és mikor mondott ilyet? Belinkeled légyszi? Én a fentebb linkelt interjúban ilyen nem látok. Igen, az FSR-t eddig minden arch-on lehetett használni, az FSR 4-et már nem, az RDNA4-exkluzív feature.

    #47312 b.: Na ez gyors volt a Remedy-től, nem vártak/várnak vele. Minden Path Traced játékba kéne a Mega Geometry. Már day 1 jött tehát egy bejelentés, hogy az egyik új NV feature beépítésre kerül és ezzel minden RTX felhasználó jól jár. Csúnya NV, adtak egy gyorsabb eljárást, há hogy képzelik! ;]

  • huskydog17

    addikt

    Sikerült megnéznem és elolvasnom minden információt az NV bejelentésekről, itt leírnám a véleményemet ezzel kapcsolatban (vigyázat, hosszú hsz jön, szóltam!).

    Rögtön a keynote elején Jensen a lényegre tért és megadta a világnak, amire vágyott, az új VGA szériát. Ez az AMD-nek nem sikerült. A zöldek rögtön árat, megjelenési időpontot (január 30.) és az összes technikai specifikációt azonnal elérhetővé tették. A keynote-ban csak a leglényegesebb dolgokat emelte ki Jensen, azaz az új SKU-kat, azok árait és a DLSS 4-et, mint új exkluzív feature, több nem is kell, a nép erre volt kíváncsi. Elég volt 5-10 perc rá (mégis be lehet jelenteni egy új VGA szériát 5-10 percen belül, hát nem érdekes kedves AMD?). A részleteket pedig már lehetett is olvasni a hivatalos oldalon és különböző IT outletek oldalain. Tonna mennyiségű új információt tettek közzé, szinte mindent az új generációról, az AMD-nek sikerült 4 darab "nesze semmi fogd meg jól" diát odaadni a sajtónak, amiből csak annyit lehet leszűrni, hogy most már a nevezetéktant is másolják a zöldektől. Na de vissza a Blackwell-hez. Most már teljesen érthető, hogy Jack miért remegett az előadás közben úgy, mint egy kocsonya. Valszeg ő már akkor tudta, hogy ezt a meccset elveszítették, itt Duck663 kolléga elméletét tartom valószínűnek.

    Voltak okos megmondóemberek, akik a keynote előtt megmondták, hogy xy termék nem lesz bejelentve és hogy az árazás ilyen meg olyan lesz, na most ezekre az embereke a keynote nagyon látványosan rácáfolt, az árazáshoz gbors kolléga megjegyzése tükrözi a legjobban az én véleményemet is:

    "Megkapó az a természetesség, amivel az eddig az arázásra panaszkodók azonnal áttértek a teljesítményre való panaszkodásra - amiről ugye jelenleg elég kevés információ áll rendelkezésre :D"

    Most, hogy az árazás pletykák nem jöttek be, így ezek a megmondó emberek már most elkezdték temetni az 50-e szériát, miközben semmit nem tudunk még a valós teljesítményről, de ők nyilván már pontosan tudják. Gondolom úgy, ahogy tudták az árazást is előre (höhö).
    Az árazás az 5090-et leszámítva nem csak nem emelkedett, hanem még csökkent is az Ada indulásához képest.

    Mivel itt node váltás nem történt (továbbra is 4nm), így nem volt várható jelentős ugrás, én sem vártam nagy csodát, inkább abban reménykedtem, hogy a DLSS 4 hoz majd valami érdekességet. Így is lett. Az szintén teljesen nyilvánvaló és magától értető volt, hogy a DLSS 4 hoz majd egy exkluzív feature-t, ami csak az új szérián fog működni, hiszen az új szériákat csak exkluzív feature-rel lehet eladni (vagy inkább jobban lehet azzal eladni?).
    A multiframe framegen azok számomra nagyon jó és hasznos feature lehet, akik magas sebességen szeretnek játszani. Miután megtapasztaltam, hogy milyen 60 helyett 180 Hz-en játszani, maximálisan megértem azokat a játékososokat és bizony van létjogosultsága a technológiának. Én ezt ugyan nem fogom használni, sőt nem is tudom, de engem ez a legkisebb mértékben sem zavar, hiszen a DLSS 4 olyan további újításokat hozott, amelyek számomra rendkívül fontosak és ebben reménykedtem. Konkrétan a SR, a RR és DLAA masszív fejlődésen esnek át, egy új architektúrát kapnak, aminek hatására jelentősen javul a képminőség. Ez annak fényében ironikus, hogy eddig a DLSS/DLAA adta a legjobb képminősévet játékokban, ezt a lécet most tovább emelik, ráadásul minden RTX kártya megkapja ezen fejlesztéseket. A Reflex 2 csak hab a tortán, arra abszolút nem számítottam, de hogy még azt is minden RTX kártya megkapja, hát mondom ok jöhet, megnézzük majd! Bár nem vagyok esportoló, de ha már megkapom én is a technológiát, egyszer majd talán kipróbálom.

    Na most a másik oldalon emlegetik az FSR 4-et. Röviden: az FSR 4 kizárólag a be nem jelentett RDNA4-en fog működni. A minősége állítólag sokkal jobb lesz, mint a korábbi verzióké, azt mondjuk nem olyan nehéz elérni. Így talán már meg tudja majd közelíteni a DLSS 2.x szintjét, talán, ha a csillagok állása is úgy akarja. Eddig 1 darab játékhoz jelentették be a támogatást (Black Ops 6) és ahhoz is majd valamikor az év folyamán érkezik a patch (Activison: "later this year").
    DLSS 4-el mi a helyzet: day 1, azaz az új generáció megjelenése napján 75 játék fogja támogatni, ez a szám nyilván gyorsan fog nőni majd. Azt hiszem ez elmond mindent a kettő közti különbségről, de van még egy dolog.
    A DLSS 4 esetén az NVIDIA architektúrát váltott, 6 évig úgynevezett CNN-t használt a DLSS, ezt most nyugdíjba küldték a zöldek, mert egyszerűen elérték a határait, szükség volt egy újabb technológiára, ami tovább emeli a minőséget. Ez lett a transformer (itt az NV blog leírás róla), ami jelentősen javítja a képstabilitást, csökkenti a ghostingot és növeli a kép részletességét. Ezt az új transformer modellt az NV szintén sok évig szeretné használni. Ezt az új modellt tehát minden RTX kártya támogatni fogja. Engem már itt meggyőztek a zöldek, de aztán tovább mentek: az új NVIDIA APP-ban majd force-olni lehet a DLAA-t olyan játékokban, ahol csak SR volt, na ez egy nagyon welcomed feature.
    A DLSS nyújtotta újítások számomra már abszolút meggyőzőek és már csak emiatt örülök az RTX 50-es szériának, hiszen a DLSS 4 fejlesztéséből minden RTX kártya profitál. Azt hiszem ennél felhasználóbarátabban nem nagyon lehetne. Hogy is volt az FSR 4? Oh igen, RDNA 4 only. ;] Most hol vannak azok a hangok, amelyek mindig az FSR-t reklámozták, hogy az a régebbi szériákkal is, működik? Most akkor mi van? Mintha megfordult volna a világ. Ja igen még egy dolog itt: a PS5 Pro PSSR-je és az RDNA 4 FSR4-je most kezdik el majd használni a CNN modellt, amit az NV most nyugdíjazott. :DDD

    Még egy dolog van, amire nem számítottam a Blackwell-nél, az pedig az, hogy mindkét multimédia motort (NVDEC, és NVENC) frissítették. A dekódert még megértem, mert az 2 generáció óta változatlan, hiszen az Ada az Amperre dekóderét kapta meg, viszont az számomra váratlan, hogy az enkóder motor (NVENC) is új verziót kapott, hiszen az Ada-ban már az meg lett újítva, akkor kapott AV1 enkódolást. Itt jön a képbe, amit viszont hiányolok. Az ugyan egyértelműen fel van tüntetve, hogy mindkettő új, de sajnos még nem tudni, hogy pontosan mit újítottak rajta. Jelen hsz írásának pillanatában az NVENC és NVDEC mátrix még nincs frissítve, így egyelőre semmit nem tudok arról, hogy milyen újításokat kapott ez a két egység. Egy tippem van: a dekóder szerintem VVC (H.266) támogatást kaphatott, hiszen a Lunar Lake ezt már meglépte tavaly, aztán az Intel a Battlemage-ből kiszedte. Enkóder fronton tippem sincs, viszont az 5090 már három darab NVENC motort kapott, meg se tudom tippelni milyen brutális enkóder sebességre képes.

    Ha már 5090: számomra az is döbbenetes, hogy nagyon sok év után újra 512 bit széles memóriabusz kaptunk konzumer vonalon. Mikor láttunk ilyet utoljára? (GeForce GTX 285?) Ahhoz képest a NYÁK igencsak kis méretű lett. Ez ugyanakkor nem meglepő, hiszen a csúcsterméknél mindent bele kell adni és mivel ugye nem volt node váltás, így a busz szélesítésével lehetett nagy memóriasávszélt elérni.
    Szintén meglepődtem, amikor megmutatták a FE-t, ugyanis sokkal nagyobb hűtésről lehetett olvasni, ehhez képest az 575 W TGP-t az NV megoldotta 2 slotos hűtéssel. Na ez szerintem egy újabb mérnöki bravúr.

    Szóval röviden tömören Blackwell-t nem szándékozom venni, viszont a DLSS 4 újításainak nagyon örülök és alig várom, hogy az új modellt működés közben láthassam. Az 5090-et pedig több szempontból is mérnöki bravúrnak tartom, nagyon kíváncsian várom a január 30-at, akkor majd özönlenek a tesztek.
    A TPU egyik szerkesztőjével maximálisan egyet értek, azt írta:
    "At least someone is pushing the limits for GPUs."

    Ja még 1-2 dolog mindig van, ezeket fura mód a legtóbb sajtó nem nagyon kapta fel, pedig rendkívül hasznos újítások:
    - Neural Rendering in DirectX: Cooperative Vector Support (itt a korábbi Inno3D doboza pontos volt)
    - RTX Mega Geometry
    - RTX Neural Shaders
    - RTX Neural Materials
    - RTX Neural Radiance Cache
    - RTX Neural Texture Compression: ezt a nyáron nagyon eltaláltam (ezért emeltem ki félkövérrel):

    2024-06-22 16:20:40
    "Ha az RTX50-nél tovább tudnák emelni az L2 cache méretét és a NTC production-ready lesz a launch-ra, akkor újra tudnak spórolni a VRAM-mal. :)

    2024-07-29 19:15:14
    "Ahogy azt írtam korábban, én arra tippelek, hogy a DLSS 4 az NTC-t fogja hozni, és ez az új shading cucc majd a következő nagy DLSS dobása lehet."

    Az NTC-re ráhibáztam. ;)

    A fentebb említett fejlesztői feature-ökről (pl.: Mega Geometry) is hosszasan lehetne még beszélni, de helyettem beszéljen az NV blog, ahol ezeket részletezik.

    Szóval mind a a játékosoknak, mind a játékfejlesztőknek számos hasznos szoftverfejlesztést hozott magával a Blackwell bejelentés.

    Ezek után talán most már még jobban, tökéletesen érthető Jack remegése a színpadon. :DDD

  • huskydog17

    addikt

    MSI hivatalos sajtóközleményben kotyogta ki a DLSS 4-et.

    MSI announces GeForce RTX 50 gaming laptops, confirms GeForce RTX 5090 24GB GDDR7 and DLSS4

    Arról viszont semmit nem írnak, hogy milyen újítást fog hozni. Ez mindössze megerősíti, hogy a Blackwell hozza a DLSS 4-et magával.

  • huskydog17

    addikt

    válasz b. #47048 üzenetére

    Pont most olvastam 1 perce a CB-en, viszont a HDMI 2.2 a mostani új VGA-kon biztosan nem lesz, legalábbis a CB azt írja, hogy 2025 első félévben fogják megkapni a különböző partnernek a 2.2-es specifikációkat, azaz a gyakorlatban még várni kell rá, még az is lehet, hogy idén még nem lesz semmilyen 2.2-es eszköz a piacon. Az viszont jó hír, hogy megduplázták a sávszélességet és ezzel ledolgozták a hátrányt a DP-hoz képest. Nekem mondjuk kicsit fura, hogy csak alverziót léptek, mert szerintem sáv duplázásnál simán lehetett volna HDMI 3.0 is.

    Ja a TPU is írja:

    "The new specification will be available to all HDMI 2.x Adopters and they will be notified when it is released in H1 2025."

    Akkor ez majd mehet az RTX 60-as szériára. :D

    Még nem is adták ki a speckókat, így kizártnak tartom, hogy a Blackwell-en ez lesz.

  • huskydog17

    addikt

    VESA introduces DisplayPort 2.1b and DP80LL (Low-Loss) specifications in collaboration with NVIDIA

    Ez alapján akkor nagy valószínűséggel, illetve feltételezhetően DP 2.1 UHBR20-as csatlakozók lesznek a Blackwell kártyákon, legalábbis a VESA fenti bejelentése után igencsak furcsán venné ki magát és eléggé gáz lenne, ha nem így lenne. :)

  • huskydog17

    addikt

    válasz T.Peter #46977 üzenetére

    A stutter közvetlenül roncsolja a játékélményt, nem értem mi az, hogy közvetett performance probléma, amikor látod hogy akad a játék az hogy lehetett közvetett? :F

    A shader compilation akadás az egyik súlyos problémája/tünete a motor működésének. Ezt a tünetet lehet kezelni shader precompilation-nel. A kérdés, hogy a játék fejlesztője foglalkozik-e ezzel a dologgal és ha igen, sikerül-e neki lefedni a szükséges shadereket. Ez olykor sikerül, olykor nem. Az is tény, hogy a legtöbb indie fejlesztő nem foglalkozik ezzel a tünettel, így az UE indie játékok túlnyomó többsége egy stutter fest, ahol az első benyomást teljesen tönkreteszi a shader akadás. Márpedig ez a motor működéséből származó probléma, tehát igenis van köze a motorhoz. On the fly shader fordítás ennél a motornál nem elég jó, ezért ha az adott játék készítője nem foglalkozik ezzel, a játék garantáltan stutterfest lesz (a legtöbb indie cím emiatt sajnos az).
    E mellé társulnak még az úgynevezett traversal akadások, amelyek általában területek betöltésekor jelentkezik, de van, amikor teljesen véletlenszerűen. Ez is a motor működéséből fakad, csakhogy erre a tünetre már sokkal nehezebb gyógyírt talán, pontosabban nem nagyon van a fejlesztők többségének, mert a motor streaming rendszerét kéne átírni, hogy optimális legyen. A legtöbb fejlesztő pedig nem fog belenyúlni a motor kódjába, tehát maradnak a traversal akadások.
    Önmagában külön-külön is nagy probléma mindkét fajta akadás, de együtt a kettő egy totális katasztrófát eredményez, ami teljesen megöli a játékélményt, ráadásul a shader akadás pont az első benyomást teszi tönkre, márpedig pont az első benyomás a legfontosabb.

    Na most vannak olyan motorok, amelyeknél ezek a problémák nem léteznek, az egyszerűség kedvéért ott a korábban említett Anvil és Snowdrop. Ezeknél még shader precompilation-re sincs szükség, még a nélkül sincsenek akadások, mert mind az on the fly shader fordítás mint a streaming rendszer baromi jól működik ebben a két motorban.

    Szerintem meg az nem normális, hogy a motor egy súlyos problémáját a játékfejlesztőkre próbáljuk kenni. A játékfejlesztők csak kezelni tudják az egyik tünetet, de orvosolni nem. Az orvosolásra az Epic már több alverzió óta teszt kísérleteket, folyamatosan próbálják javítani a PSO problémát. Ha nem motor probléma lenne, az Epic nem foglalkozna vele. Sokáig nem is foglalkoztak vele, de szerencsére kellő mértékű sajtóvisszhangot kapott már a dolog és egyre több felhasználót zavar a shader fordítás miatti stutterfest.

    #46976 Komplikato: Nem is állítottam, hogy lényegtelen, hanem, hogy semmire nem garancia. Semmit nem érsz egy 5.4-el se, ha az új feature-ök nem/rosszul működnek vagy nem használja a játék készítője.

    "Jelenlegi problémás játékok multiplatformos, régi bugos verzióval futnak és/vagy UE4 alól rántották át őket a kötelező favágó meló kihagyásával."

    LOL
    Melyik verzió számít neked nem réginek és nem bugosnak?

    # 46992 GeryFlash: Busterftw már megválaszolta, csak megerősíteni tudom őt: idán tavasszal lesz 3 éves az UE5, mert 2022-ben jelent meg.

  • huskydog17

    addikt

    válasz T.Peter #46968 üzenetére

    Az alverzió abszolút semmire nem garancia, főleg nem arra, hogy a játék hogyan fut, láttunk erre példákat, láttunk olyan 5.4-es játékot, ami ugyanúgy akad, mint egy 5.1-es. Nem a verziószám fogja rendbe rakni a játékokat, ha a fejleszt nem foglalkozik a gondokkal.
    Amikor a legújabb drága játék úgy akadozik, hogy tönkreteszi a játékélményt és ezt minden PC-n teszi, az szerintem eléggé botrányos és sajnos nagyon sok UE játékra igaz ez, nem véletlen égett ki Alex a DF-nél a sok stutter game miatt, meg is értem.
    A LOD popin szintén egy olyan dolog, hogy azt az UE neked nem fogja automatikusan megoldani. Rengeteg UE5 game popinol, sokkal jobban, mint az Avatar, utóbbinál pedig csak akkor veszed észre ha magasba repülsz és kizárólag arra figyelsz.
    Rengeteg játékost sokkal jobban zavar a random akadás, mint a popin. Ahogy írtam én is, még nagyon fiatal motor az UE5, még rendbe tehetik a stutteringet, de arra még nagyon sokat kell várni, másrészt nyílt világú játékok esetén a hatékonyságban semmi nem tudja felvenni a versenyt az Anvil és Snowdrop motorokkal, de ez nem csoda, hiszen az Ubi nagyon sok időt és pénzt ölt ezeknek a motoroknak a fejlesztésébe és kifejezetten a nyílt világú dizájn fekszik ezeknek, ezért is iskoláznak le minden más motort a piacon e téren.

  • huskydog17

    addikt

    válasz b. #46946 üzenetére

    "Most is azt gondolom, szükség lenne egy Crysis momentumra a játékiparban, amikor egy 5090 is dadog 30 FPS sel, de nem azért, amiért a mai játékok zöme, mert szarul van megvalósítva, hanem mert olyat tesz le az asztalra fizika, vagy bármi egyéb terén ami egy mérce sok évre előre..."

    Már megtörtént, ott vannak a Path Tracing-et támogató játékok (pl.: Alan Wake 2, Cyberpunk, Star Wars Outlaws, Indiana Jones stb.), de PT nélkül is kaptunk olyan alkotást, ami olyan magasra emeli a grafikai lécet, amit jelenleg semmilyen más játék nem tud megközelíteni és nem véletlen emlegetik páran az új Crysis-nak, ez pedig az Avatar Frontiers of Pandora. Az új Snowdrop olyan szintet képvisel, amit egy UE5 meg sem tud közelíteni, a növényzet pedig egy teljesen új szint, ami évekkel megelőzte korát és korunkat is. UE5 játékokban még hosszú évekig nem fogunk látni ilyen sűrű és interaktív növényzetet.

    Szóval az új Crysis-t szerintem már megkaptuk több játékban is és ezek majdnem mindegyike saját, belső fejlesztésű motort használ (Wukong UE5-öt használ, de ennek a látványvilága szerintem egyáltalán nem kiemelkedő, sőt!).
    Láttuk tehát, hogy az RTGI az Avatar-nél büntet, most februárban pedig az Anvil motor is megkapja az RTGI-t az AC Shadows-ban.
    Az UE5 mindössze még csak bő 2,5 éve van a piacon, így könnyen lehet, hogy azzal is kapunk majd egy új Crysis-t, de kérdéses lesz a performance, ahol közismert tény, hogy az UE5 botrányosan szarul teljesít.

  • huskydog17

    addikt

    válasz deathcrow42 #46888 üzenetére

    Persze, ez nem gond, csak jobb lett volna mindhármat egymás után élőben nézni, de a zöldekét akkor felvételről fogom.

    # 46891 hahakocka: Persze, hiszen a CES Las Vegas-ban van, emiatt 9 óra az időeltolódás.

    Összegezve a három előadás itteni idő szerint:

    AMD: 2025.01.06. 20:00 (CET) - link
    Intel: 2025.01.06. 17:30 (CET) - link
    NVIDIA: 2025.01.07. 03:30 (CET) - link

  • huskydog17

    addikt

    válasz b. #46883 üzenetére

    Ej számunkra nagyon rossz időpontban lesz. Hajnali fél 4-kor biztosan nem fogok fent lenni emiatt, viszont az AMD és az Intel sokkal jobb időpontot találtak, azokat meg tudom nézni, de a zöldeké túl későn lesz.

  • huskydog17

    addikt

    válasz Jacek #46043 üzenetére

    Ezek jelen pillanatban a leghitelesebb tesztek abból a játékból. Mi a baj DLC-vel? Ugyanaz a motor, ugyanaz a kód, mint az alapjátékban, ráadásul ott már egészen biztos, hogy a legfrissebb patch volt rajta.

    A másik alatt gondolom a PCGH tesztjére gondolsz. Nem értem mi a gondod vele. Ott be volt kapcsolva a felskálázás, mert a nélkül kb. minden kártya játszhatatlan sebességet mutatott volna, aminek abszolút semmi értelme nem lenne.

    Természetesen minden sajtónál más a test scene, a CB és PCGH test scene publikusak és bárki lemérheti magának, míg a TPU test scene nem ismert, ők valamiért nem publikálják ezt az infót.

    Persze, hogy kisebb a VRAM fogyasztás felskálázás esetén, hiszen olyankor alacsonyabb a rendering felbontás. Az a lényege azoknak. Frame Gen modul növeli a VRAM fogyasztást, de az nincs a tesztekben, mert annak sincs értelme ilyen alacsony sebességnél.

    Természetesen a két oldal launch idején is lemérte a játékot.

    A PCGH tesztben egyébként találsz natív tesztet is a Raszter grafikonnál. Már ott látszik, hogy ez a játék brutálisan megeszi a VGA-kat natív 4K-n még RT nélkül is, tehát itt sima Raszter, azaz RT nélkül láthatjuk, hogy a natív 4K-hoz így is kell az RTX 4080 és a csúcs Radeon. Ezért nincs értelme PT mellett natív 4K-ban mérni, mert ott kizárólag a 4090 hozna játszható sebességet és nem a VRAM miatt.

  • huskydog17

    addikt

    válasz Jacek #46022 üzenetére

    Van teszt, több is, megjelenéskor is volt, illetve a DLC-kől is. Két aktuális teszt, amiket a DLC-k alapján készítettek, tehát ez már patch-elt verzió.

    CB
    PCGH

    Ahogy láthatod a DLSS/FSR az AMD-n semmit nem segít, ellenben a 12 GB-os Ada kártyák már nem futnak ki a VRAM-ból 4K felbontáson, mert ott is a GPU erős fogy el előbb, ahogy AMD-n, de ez nem számít, hiszen a 12 GB-os kártyák nem 4K-ra valók, nem oda lettek pozícionálva, nem az a célközönség. Ettől függetlenül persze meg lehet próbálni, de nem szabad csodát várni: az Alan Wake 2-ben full maxon, azaz Path Tracing mellett 4K-ban kizárólag az RTX 4080 (Super) és 4090 tud játszható sebességet produkálni.

    Full RT (PT) mellett a natív 4K-nak semmi értelme, mert ott egyik kártya sem lenne képes játszható sebességet hozni, talán esetleg a 4090 képes lenne rá, de ott is nagyon necces lenne.

    A tesztekben tökéletesen láthatod, amit Buster már milliószor leírt: nem a VRAM-mal van gond, hanem a GPU erő fogy el. Értelemszerűen, ha játszható sebességet feltételezünk, mert játszhatatlan sebesség esetén teljesen mindegy, hogy melyik kártya mennyi FPS-t présel ki, amikor a végeredmény ugyanaz mindnél: játszhatatlan a játék.
    Csakhogy még érthetőbb legyen: a 12 GB-al felszerelt 4070-es 60-80%-al gyorsabb, mint a dupla annyi (24GB) VRAM-mal felszerelt csúcs Radeon, de ez önmagában szintén nem jelent semmit, mert a 17-20 fps ugyanúgy játszhatatlan kategória, mint a csúcs Radeonnál a 11 fps. Itt egyébként a 10 GB-al szerelt 3080-al ugyanazt a tempót hozza, mint a 24 GB-os csúcs Radeon, de amint mondtam lényegtelen, mert mindkettővel játszhatatlan.

    Játszható sebességet csak az RTX 4080 és 4090 tud kipréselni magából, de ha itt kikapcsolnád a Quality felskálázást, akkor ezek a kártyák is diavetítésbe váltanak, de NEM a VRAM miatt, hanem mert egyszerűen elfogy a GPU erő. E miatt ebben a játékban a natív 4K-nak semmi értelme.
    A 4070 esetében 4K-ban szintén a GPU erő fogy el, hiszen a 24 GB-os 3090Ti sem gyorsabb, mindkettőn játszhatatlan a 17 fps miatt. Ha 1440p-re váltunk - ahová a 4070 való, ahova szánták -, akkor már játszható sebességet kapunk, megvan a stabil 30 fps. Ez ugyanakkor nem mondható el a 24 GB-os csúcs Radeonról, ami még a 10 GB-os 3080 tempóját sem éri el.

    Jelenleg úgy néz ki a helyzet, hogy játszható sebességet AMD oldalon csak a csúcs kártya képes hozni felskálázott 1080p felbontáson. Ugyanezen beállítások mellett egy 10 GB-os RTX 3080 ugyanazt az élményt fogja adni, sőt jobbat, mert a DLSS jobb képminőséget ad, mint az FSR.

    Tehát összességében az Alan Wake 2-ben sem okoz hátrányt a 12 GB VRAM az Ada kártyákon, mert a GPU erő előbb fogy el. Előbb lesz játszhatatlanul alacsony a sebesség, minthogy elfogyna a VRAM.

  • huskydog17

    addikt

    Power supply maker dismisses RTX 5090 dual 16pin rumors, teases more Info in January

    Egy kínai tápgyártó megcáfolta azokat a pletykákat, melyek dupla 16 pines csatlakozóról szólnak az RTX 5090 esetében.
    Azt hiszem innentől az ilyen jellegű pletykák teljes mértékben alaptalannak tekinthetőek.

    Ezen felül burkoltan megerősítették, hogy januárban lesz az RTX 50 széria bejelentés. Ez egybevág a korábbi pletykával.

  • huskydog17

    addikt

    Ebben a témában már koppantál egy nagyot.

    Mondjuk ahhoz képest, hogy idénre vártad/jósoltad a PCI-E 6.0 lapok megjelenését, most már 1 évvel későbbre várod.
    Jövőre sem lesz 6.0, ahogy idén sem lett. Jövőre az 5.0 éra kezdődik a konzumer vonalon.
    Arch refresh esetén soha nem volt PCI-E váltás, most sem lesz. Érthetetlen számomra honnan jön egyáltalán az ötlet.

    Hiába tud a Blackwell szerver fronton 6.0-t, konzumer vonalon nem lesz, mert teljesen értelmetlen, ugyanis nem létezik olyan platform ami támogatja. Jövőre sem lesz, mert se az Arrow Lake, se a Zen5 nem támogatja, hiába vártad az utóbbinál.

  • huskydog17

    addikt

    Blackwell gyorsítók olyan rekord mennyiségű előrendelést generáltak, hogy 1 évre előre elfogyott az összes, azaz, ha valaki ma ad le előrendelést Blackwell GPU-ra, egy teljes évet kell várnia.
    Amíg a Hopper-t tízezres nagyságrendben vásárolták, addig a Blackwell-re százezres nagyságrendű előrendelés érkezett. Olyan ügyfelek állnak sorban, mint például Amazon, META, Microsoft, Google, Oracle.
    Forrás

    Ez megerősíti Jensen és a Foxconn vezetőjének a kijelentését, miszerint őrült nagy a kereslet a Blackwell-re.

    #45471 M@trixfan: Nem.

  • huskydog17

    addikt

    válasz KRoy19 #45467 üzenetére

    Van értelme. Én is sok játékot így játszottam, amíg az előző monitorom volt.

    "Vagy nem minden játék támogatja a DLAA-t, ami a DLSS-t?"

    Pontosan.

  • huskydog17

    addikt

    válasz b. #45254 üzenetére

    :K

    "The application of generative AI enables creation of a near-perfect inverse mask or inverse solution to account for diffraction of light involved in computational lithography. The final mask is then derived by traditional and physically rigorous methods, speeding up the overall optical proximity correction process by 2x."

    "This enormous speedup of computational lithography accelerates the creation of every single mask in the fab, which speeds the total cycle time for developing a new technology node. More importantly, it makes possible new calculations that were previously impractical."

    Nem csak az aktuális node-okat gyorsítja be (maszkok létrehozása), hanem új node-ok kifejlesztését is felgyorsítja, továbbá olyan új technológiák alkalmazását, ami eddig nem volt praktikus.

    "With accelerated computing, 350 NVIDIA H100 Tensor Core GPU-based systems can now replace 40,000 CPU systems, accelerating production time, while reducing costs, space and power."

    350 db H100 gyorsító 40.000 db CPU feladatát veszi át, csak gyorsabban és hatékonyabban.

    Azon se lepődnék meg, ha esetleg az NV ezzel a lépéssel a TSMC-n belül a saját dedikált node-jukat fejlesztenék elsősorban.

  • huskydog17

    addikt

    NVIDIA’s Jensen Huang CES 2025 keynote confirmed for January 6: possible RTX 50 series reveal

    Ezek fényében én biztos vagyok benne, hogy idén már nem lesz RTX 50 bejelentés. Nem is kell rohanniuk sehova konkurencia hiányában.

  • huskydog17

    addikt

    válasz Abu85 #44760 üzenetére

    Köszi a listát, de egyrészt értelmetlen és felesleges volt ez beraknod, másrészt ebből látszik, hogy nem sikerült értelmezned amit írtam s megint jó szokásodhoz hűen teljesen másról beszélsz, konkrétan a múltról, mert úgy látszik a múltban ragadtál, emiatt ismét tömény bullshitet írtál le és ismét félrevezeted az olvasókat. Legalább egy picit utánajárhattál volna, mert az elmúlt 10 évben sok változás történt.

    Nézzünk néhány gyöngyszemet:

    "Leginkább azért nem használnak ma már GPU-s PhysX-et, mert valójában sosem fizikáról volt szó, hanem grafikáról, és a compute shader kiváltotta ezt."

    A PhysX 5 több dolgot gyorsít GPU-val, mint az elődei. A fizikai szimulációt hogyan adod el játékban? Úgy, ha azt a játékosok látják, így nyilvánvaló, hogy grafikai elemként prezentálták, de ettől szimuláció volt, akár folyadék szimuláció, akár ruha fog köd szimuláció. A kijelentésed tehát nettó bullshit.

    "Persze az sem segít, hogy az NV a rendszert nem fejleszti már a játékok szemszögéből. A 3.4-es volt az utolsó verzió, ami játékhoz készült. A 4-5 már nem igazán."

    A valóság ezzel szemben az, hogy a két legújabb PhysX sokkal jobb játékra, mint a 3.4. A Unity is hülyeségből integrálta a 4.1-et alapértelmezett 3D fizikai motorként 5 évvel ezelőtt. A hivatalos NV doksi szépen leírja, hogy miket hoztak az új főverziók, 4.1-nél meg lehetne említeni a Immediate Mode-ot vagy az 5-nél a sok új GPU gyorsított feature-t. Szóval, de az NV több hasznos dolgot rakott be a friss verziókba, amelyek játékokhoz is rendkívül hasznosak.

    "A PhysX játékokhoz tervezett verziója 2018 óta gyakorlatilag vegetál. Nem tudni, hogy az NVIDIA valaha is újraindítja-e."

    Tehát te nyilván a 3.4-et tekinted az utolsó, játékra alkalmas verziót. Ettől nem is lehetnél messzebb a valóságtól. A PhsyX nem vegetál és a legújabb verzió is kiválóan alkalmas játékra, jobb, mint a 3.4, itt is a múltban ragadtál.

    "Abból kiindulva, hogy már arra is figyelmeztették a fejlesztőket, hogy a PhysX runtime kikerülhet a GeForce driverből, így a GPU-s PhysX effektek a játékokban elszürkülnek majd, arra lehet következtetni, hogy nem jön vissza ez az irány."

    Pontosan melyik fejlesztőt figyelmeztette az NVIDIA és mikor? Az irány el se ment, így nem is tud visszajönni, mindössze most már nem verik nagy dobra, ha a fizikai számítások egy részét GPU gyorsítja. Ma már nincs marketing értéke.

    "A karbantartási költségektől pedig 6-7 év vegetálás után valószínűleg megszabadulna a cég."

    Feltételezem továbbra is a 3.4-ről beszélsz, el kéne azt engedni, az NV és mindenki más is elengedte a piacon, csak te ragaszkodsz hozzá foggal körömmel valamiért. Azóta sok év eltelt, lépjél túl rajta.

    Az utolsó bekezdéshez annyit, hogy az is nettó bullshit, ugyanis fizikai szimulációt lehet GPU-val gyorsítani. Nyilván nem a teljes szimulációt kell itt érteni, hanem részfeladatokat a GPU el tud végezni sokkal gyorsabban, mint a CPU, pont úgy, mint RT esetén. Amíg RT fronton a hardveres gyorsítás igen masszív marketinget kap, addig a GPU gyorsított fizikai szimulációk már nem, pedig él és virul, a PhsyX 5 több dolgot tud gyorsítani GPU-val, mint bármely más korábbi verzió.

    # 44762: "Semelyik motor nem használja azt a modult alapértelmezetten, mert licencköteles. Csak CPU-s PhysX-et használnak a motorok alapból, mert az viszont ingyenes."

    Ahogy mondtam: a múltban élsz, ezt most megerősíttetted, ugyanis a GPU gyorsításnak semmilyen felára nincs a PhysX 4.0-tól kezdve. A valóság így néz ki:

    "PhysX has also become a key reference implementation of the similarly open source Pixar Universal Scene Description (USD) Physics standard available at PixarAnimationStudios/USD on GitHub. This informed the decision to return to the more permissive licensing terms used for PhysX 4. This means that all CPU source code is available under the simple BSD3 open source license, and NVIDIA GPU binaries are included at no cost."

    A többi szóra sem érdemes.

  • huskydog17

    addikt

    válasz Teasüti #44740 üzenetére

    Ez nem ilyen egyszerű. A PhysX régen a 3.4-es verzióval brutál nagyot gyorsult CPU fronton, később viszont, a 4-es és 5-ös verziókban több dologra is használhatsz GPU gyorsítást a CPU számítások mellett tehát, nem úgy van, mint régen, hogy csak CPU vagy csak GPU-t használsz, ma már a hibrid megoldással nem lehet tudni, hogy melyik játék használ GPU gyorsítást a fizikában. Egyrészt sok száz UE és Unity játék alapértelmezetten PhysX-et használ, azt nem tudhatjuk, hogy ezek közül használ-e valamelyik GPU gyorsítást valamilyen fizikai számolásra.

    "Illetve mutass egy olyan húzó címet, ahol a játékmenet szerves része a fizika!
    Kizárólag Havok-ra jött olyan cím, ahol a fizika megkerülhetetlen része volt a játéknak."

    Nem tudom neked mi számít húzócímnek, de szerintem nem is kell annak lennie, de például az X-Morph Defense című játékban a játékmenet szerves részét képezi a fizika és az PhysX 3.4-et használ. Abban a játékban kulcsfontosságú, hogy egy épületet hogyan rombolsz szét, mert attól függően fog ledőlni és nem mindegy merre dől.

    "Több száz használ PhysX SDK-t az igaz. Ezek közül mennyi használ hardveres PhysX-et a CPU helyett?"

    Igazából több száz helyett kb. 10.000 :)
    Ahogy írtam, ma már nincs értelme különbséget tenni, hiszen a PhysX SDK-val több részfeladatot meg lehet oldani GPU gyorsítással, arról nincs információ, hogy mely játékok ezek, hiszen a fejlesztők ezt nem reklámozzák ami logikus, hiszen ez ma már alap dolog. Attól, hogy egy fejlesztő nem reklámozza, lehet hogy használnak némi GPU gyorsítást, nem tudjuk, de nem is fontos. Sokaknak azért fontos, mert akkor régen a GPU gyorsítással értek el látványos fizikai szimulációt, melyeket ma mér a CPU is simán megold, ugyanolyan gyorsan (lásd a korábban említett 3.4-es verzió).
    Egy másik, népszerű indie alkotás a Kerbal Space Program, ami szintén PhysX-et használ, hiszen az a Unity motor alapértelmezett 3D fizikai motorja. Ez csak két kiragadott példa volt, ahol a fizika szerves része a játékmenetnek.

    Nem az a fontos, hogy használja-e valamelyik játék a GPU gyorsítást, mert a 10.000 játékból nagy valószínűséggel sok használja. Inkább az a kérdés, hogy a fejlesztők túlnyomó többsége miért nem használja ki az SDK és egyéb fizikai motorok adottságait. Nem sokat látunk a fizikai motorok képességeiből játékokban. Nyilván van jó néhány, amely fizikára épít játékmenetet szempontból, ezek túlnyomó többsége indie alkotás.

  • huskydog17

    addikt

    NVIDIA Announces Financial Results for Second Quarter Fiscal 2025

    2. negyedévben 30 milliárd dollár összbevétel

    Ebből 26,3 milliárd az adatközpont és 2,9 milliárd a gaming, mindkettő növekedett.

  • huskydog17

    addikt

    válasz -=RelakS=- #44570 üzenetére

    Én 2000 karácsonyán kaptam tesómmal közösen az első PC-met, abban egy Voodoo Velocity 100-as kártya volt. Quake 2-t és Half-Life 1-et szépen vitte (akkori mércével), de a Quake 3 alatt letérdelt (640×480 felbontáson is), amin az utódja a Geforce MX400 sem segített sokat, de aztán 2003-ban vettem új PC-t, abban egy Geforce 4 Ti 4200 volt, ami kiröhögte az id tech3-mat a több száz FPS-el (1024×768-as felbontáson). :) Aztán a Doom 3 alatt a GF 4 Ti már nem röhögött, inkább izzadt. :D

  • huskydog17

    addikt

    válasz D55 #44564 üzenetére

    Rossz embernek válaszoltál. Nem én állítottam, hogy parasztvakítás. Nekem nem szokásom leszólni olyan dolgokat, amikhez nem értek és/vagy nincs vele tapasztalatom.
    Szerintem gainwardgs kollegának akartad címezni.

    Ha majd eljön az idő, hogy olyan játékot fogok tolni, amiben van Frame Gen, nagyon nagy valószínűséggel be fogom kapcsolni, mert már nem 60 Hz-en vagyok. Engem érdekel ez a technológia, mindenképp ki fogom majd próbálni és számomra nem parasztvakítás.

    #44563 -=RelakS=-: Nyilvánvaló, gondoltam ezt nem kell hozzátenni, mert feltételezem mindenki tud grafikont értelmezni és aki kicsit is jártas a témában, annak se kell ezt külön kiemelni. Akkoriban, 20 éve az az 1600×1200 volt kb. az a felbontás, mint ami ma a 4K, az über alles, akkoriban az élsimítás ölte a kártyákat, ma az RT. Mindig van egy új technológia, ami megfekteti a kártyákat. Idővel majd aztán az RT is semmiség lesz, ahogy ma az AA.

  • huskydog17

    addikt

    válasz gainwardgs #44555 üzenetére

    Ahogy KRoy19 is nagyon jól írta, nem kötelező maximális grafikán játszani.
    Nem értem mit értesz az alatt, hogy a Frame Gen parasztvakítás, de azt sem kötelező használni, visszább veheted a presetet is, kikapcsolhatod az RT-t (feltételezem kikapcsolható lesz) és máris nyertél rengeteg sebességet a "parasztvakító" feature nélkül is.

    "Szép új világ"

    Nincs itt semmilyen új világ, mindig is voltak olyan játékok, amelyek térdre kényszerítették az aktuális csúcs hardvereket is. Például 20 évvel ezelőtt a Far Cry 1 és Doom 3 fektette meg az akkori csúcs VGA-kat. Szóval ez nem új dolog.
    (Pl.: az akkori csúcs hardver, a Geforce 6800 Ultra több játékban még csak meg sem tudta közelíteni a 60 fps-t, ha bekapcsoltad a 4× élsimítást)

    Néhány év múlva majd az akkori középkategóriás VGA-k már simán fogják vinni ezt is natívban maxon, mindig is így volt PC-n. Az aktuális csúcstechnológiának mindig ára van, illetve a legjobb minőségnek is mindig felára volt, azt meg kell fizetni, ebben sincs semmi új.
    Aki nem ragaszkodik az abszolút maximumhoz grafikában, az sokkal jobb sebességet fog kapni.

  • huskydog17

    addikt

    Gamescom-on az NVIDIA ismét brutál sok új dolgot jelentett be és hozott, meg se próbálom mindet felsorolni, csak néhányat kiemelnék közülük. Amúgy az NVIDIA oldalán van összefoglaló a bejelentésekről.

    Sok új játék kap RTX támogatást, köztük az új Dragon Age és az Indiana Jones játék, Killing Floor 3 vagy az új Test Drive Unlimited (Solar Crown) is. Új trailer jött a Half-Life 2 RTX projekthez is. Ami engem viszont látványban sokkolóan lenyűgözött, az a Black State, itt olyan elképesztően realisztikus a látvány, hogy ez nekem olyan "túl szép, hogy igaz legyen" szagúnak érződik, csak remélni tudom, hogy ez nem egy újabb "The Day Before" jellegű scam.

    Már sokszor szóba került, hogy a jövő héten startoló Star Wars Outlaws-nak milyen lesz a gépigénye. Erre az NV most adott ki először konkrét adatokat:



    Úgy tűnik frame gen nélkül még a 4090-es is izzadni fog, itt is extrém mértékű a gépigény. 4K natív rendering felbontáson a 4090-es kemény 30 fps-t tud kisajtolni, míg 1080p-ben csak ez képest stabil 60 fps-re (grafikonok szürke része), így borítékolható, hogy a jó sebességhez itt is erősen ajánlott lesz a DLSS.

  • huskydog17

    addikt

    válasz b. #44506 üzenetére

    Inkább ne bízz benne, mert csalódni fogsz. 2 éve jelentették be, hogy a CD Projekt UE5-re vált, ezt 2023-ban a lengyel csapat ismét megerősítette. A Cyberpunk 2077 volt az utolsó nagy játékuk RED Engine-nel.
    Sajnos sok jó motort áldoztak fel a kukában az UE oltárán a játékpiacon. Ugyanazon ok miatt dobták ki a saját motorjukat, mint a Flying Wild Hog 4 éve: idő, azaz UE-el gyorsabban tudnak játékokat csinálni. Nem akarnak már az engine-el foglalkozni (értsd: nem akarnak több pénzt költeni erre), helyette inkább több artist-ot és más embert vesznek majd fel, akik meggyorsítják a játékok elkészültét.
    A Crystal Dynamics is kidobta a saját motorját az UE5-ért.
    Igen, kár érte, ahogy nagy kár a Road Hog motorért is, de hát pénz beszél.

  • huskydog17

    addikt

    válasz b. #44504 üzenetére

    Ezt pont néhány órája láttam, döbbenetes a látvány, több jelenet olyan, mintha egy fényképet nézne az ember. Itt nagyon látszik az RT és Path Tracing ereje.

    Majd elfelejtettem: #ezfakemertnemnatív ;]

  • huskydog17

    addikt

    válasz KRoy19 #44496 üzenetére

    Így van, és pont ez volt az egyik súlyos probléma a Hellblade 2-vel. Na persze Engine.ini-ben valószínűleg le lehet tiltani, de az átlagfelhasználók többsége arról nem tud, így a többség előtt nem tették opcionálissá, ráerőltetik ezt a sok fost a játékosokra, és ha ez nem lett volna elég még a 21:9-es képarányt is forceolták.
    Ezért is mondtam, hogy a készítők ott pályát tévesztettek. Az ilyen fejlesztőknek semmi keresnivalójuk a játékiparban.
    Ha ezek a filmes vírusos sz*rok a játék menüjében teljesen kikapcsolhatóak, akkor semmi gond, de ha nem, akkor a fejlesztők szarjanak süncsaládot minden nap és húzzanak át a filmiparba (Hellblade 2 készítői például).

  • huskydog17

    addikt

    válasz Teasüti #44494 üzenetére

    Remélem egy nap eltűnnek azok a fejlesztők a játékiparból, akik moziélményt akarnak erőltetni egy videojátékba. Az olyanok menjenek a filmiparba, ott nem tudnak kárt tenni és akik mozit akarnak nézni, menjenek moziba.
    A Hellblade 2 fejlesztői pedig pályát tévesztettek. Úgy tűnik az Ubi tanult abból a Ninja Theory hibájából és nem követik el ugyanazt a baklövést.

  • huskydog17

    addikt

    válasz b. #44491 üzenetére

    Abból kb. 1 másodpercet mutattak, ami semmi, két hét múlva kiderül milyen lett.

  • huskydog17

    addikt

    Kijött a hivatalos PC trailer a Star Wars Outlaws-hoz, ami egyszerre vesz részt az NVIDIA és Intel partnerprogramjában.

    Néhány feature:

    - RTGI (Ray Traced Global Illumination)
    - RT Reflections
    - RTXDI (Dynamic Illumation)
    - DLSS Ray Reconstruction
    - DLSS Frame Gen
    - NVIDIA Reflex

    Ebben a trailerben más nem csúnya a játék. :D Kíváncsi leszek a performance-ra, főleg, mert tele van pakolva RT-vel ez is.

    Mondjuk az, hogy külön kiemelik egy PC portnál, hogy lesz lehetőség 16:9-es képaránnyal játszani, hát ez azért elég gáz, ez kb. olyan, mint azt reklámoznák, hogy hé lehet majd felbontást állítani benne. :W

  • huskydog17

    addikt

    válasz Quadgame94 #44411 üzenetére

    Ez már nagyon nagyon VS téma, amihez nem ez a megfelelő topic, de egy válasz talán még belefér.
    Az a gond, hogy rendkívül szűk látókörűen nézed a dolgokat és kizárólag a DIY piacot veszed figyelembe, miközben az a piaci részesedés kis részéért felel, de akkor nézzük először ezt:
    Az NVIDIA vagy 15 éve masszív előnyben van, utoljára talán 2016-2017 környékén tudott az AMD elég jól visszakapaszkodni olyan 35-40% környékére a Polaris-sal, mivel azt pont piac szerzésre tervezték, sikerült is azzal piacot szerezniük, nem is keveset (az most lényegtelen, hogy bányászat vagy sem). Azóta csak lejtmenet van a pirosaknál, jött egy Vega, ami egy vicc volt, de a Polaris előtt is sikerült egy Fury nevű zsákutcába futniuk a pirosaknak. Az R széria is elég harmatos lett főleg a sokadik átnevezgetés után, szóval ott aztán voltak bőven félrefejlesztések, aztán az RDNA-val próbáltak egy resetet nyomni, csakhogy ott masszív driver gondok voltak, továbbá ott volt egy Turing széria, ami ellen semmi esélye nem volt. Az Ampere évében pedig jött a DLSS 2, Broadcast stb. RTX funkciók, melyekkel rengeteg vásárlót tud(ott) az NV magához csábítani, tehát onnan nagyon masszív szoftveres előnyre tett szert a zöld oldal. AMD próbálkozott az RDNA2-vel, az önmagában valóban nem rossz, de túl nagy volt a szoftveres lemaradásuk, nem volt annyival jobb az ár/érték aránya az RDNA2 termékeknek, hogy az emberek tömegesen menjenek át. Ezt utoljára a Polaris-sal (RX 400 széria) sikerült elérniük. A vásárlók nem olyan hülyék, ahogy te azt elképzeled, látják, hogy az AMD folyamatosan lemaradásban van, szoftverben eddig több éves lemaradással próbálnak felzárkózni, de sikertelenül, egyszerűen a zöldeknél többet kapnak a pénzükért. Több feature-t és jobb feature-t. Sok vásárlónak ez sokat számít. Sokan kiadnak picivel többet egy olyan termékért, amivel többet kapnak, ezzel nem értem mi a gondod. Miért akarod lenézni azokat, akik a jobb és gazdagabb szoftveres feature set-re szavaznak? Miért lenne irracionális egy 3060-at választani egy RX 6600 helyett? Nem az. Sokakat nem fog érdekelni az a pár tíz dolláros különbség, ha cserébe megkapják a legjobb technológiákat. Érzelmi döntés lenne több pénzt áldozni több és jobb szolgáltatásért? Nem hiszem. Pont, hogy ez racionális. Az a racionális döntés, amikor olyan terméket veszel, amely kielégíti az igényeidet. Sok millió vásárlónak más igényei vannak, mint neked. Vannak dolgok amelyeket nem is lehet számszerűsíteni. Példa: ha valaki nem akar lemondani a DLSS/DLAA nyújtotta temporális stabilitásról, akkor nincs más választása, mert a többi oldal nem elégíti ki az igényeit. Innentől ő magasról le fogja tojni, hogy egy adott oldal milyen számokat közölt az áér/érték szekcióban és mennyire istenítik a másik oldalt, ha ott egyszerűen nincs olyan feature, ami KELL neki, amire szüksége van. Innentől ennek a vásárlónak nem lesz jó az AMD ár/érték aránya, az ő számára nem, mert egy, számára fontos feature-től elvágná magát. Na pont ez lenne az irracionális döntés.
    Ez csak egy egyszerű példa volt, de lehetne akár a CUDA-t is hozni és sok mást is. Ha pedig már CUDA, akkor van itt egy furcsa és számomra teljesen döbbenetes kijelentésed:

    "És itt most nem arról a kis százalékról beszélek akinek a CUDA meg az NVENC elengedhetetlen. Az vásárlók 80 százaléka azt sem tudja mik ezek."

    Pont erről beszéltem, hogy kizárólag a konzumer DIY piac alapján értetlenkedsz. A CUDA a professzionális piacon PIACVEZETŐ. Az adatközpontokról pedig ne is beszéljünk. A CUDA konzumer vonalon is nagyon elterjedt, rengeteg szoftverbe került beépítésre mondjuk GPU acceleration néven, még az Adobe termékekbe is, márpedig az Adobe termékek nem éppen noname, szűk réteget célzó garázsszoftverek, hanem sok millió felhasználói bázissal rendelkező szoftverek. A GPU gyorsítás hajnalán szinte mindenhol a CUDA volt az első, így onnantól nem volt kérdés a siker, még annak ellenére is, hogy itt a PH-n sokszor néhányan halálra ítélték. A halálra ítélés helyett piacvezető lett. Ehhez vegyük hozzá azt a tényt, hogy a DIY piac a piaci részesedés kis részéért felel. Nagy részt az OEM-ek és a mobil felel, ahol az NV már régóta domináns, de ezek már egy másik történet.

    Sokan tehát nem fogják számolgatni, hogy "hűh ez most 20-30%-al gyengébb, de 7,895837365%-al drágább, akkor ez nekem most annyira nem jó üzlet." E helyett sokan a saját igényeik alapján vásárolnak kártyát. Sokan úgy vannak vele, hogy "a másik oldal tudja ezt és ezt? Nem? akkor nem érdekelnek ott az árak!". Ezt pedig továbbra se tartom irracionálisnak, ha az ember tudja mire van szüksége és azt csak az egyik oldal kapja meg. A képletbe még bel lehetne venni azt is, hogy sokan pedig úgy gondolkodnak, hogy "ha valami bevált, akkor miért cseréljem le?"- itt ugyan lehetne biztosan példát találni arra, hogy márkahűség miatt veszik az emberek, de ezt általánosítani egy teljes GPU családra, ráadásul olyan GPU családra, ami a Steam-en világelső, hát...elég meredek kijelentés.

    A szerinted oly nagyon rossz ár/érték aránnyal rendelkező RTX 3060 első helyen van a Steam hardware survey-ben. A 3060Ti pedig 4. helyen. Ha figyelembe vesszük, hogy a Steam-en júniusban 132 millió aktív felhasználó volt, akkor a két 3060-as széria több millió felhasználót tesz ki. Szerinted ők mind irracionálisan vásároltak ilyen kártyát? Ugye hogy nem! Az RX 6700 XT ha jól számoltam valahol a 39. helyen tanyázik.

    Ha nagy röviden össze szeretném foglalni a fentieket: attól hogy neked egy termék nem vonzó, másnak még az lehet, még ha drágább is, ettől nem lesz feltétlen irracionális a másik döntése, mert lehet mások az igényei.

  • huskydog17

    addikt

    Egy kis érdekesség:

    Half-Life: Alyx NoVR Mod | RTX 4080 8K Ultra Settings

    Vannak benne bőven frametime spike-ok, illetve közeli robbanás effekteknél vannak nagyobb belassulások, viszont ha belegondolunk, hogy egy darab 4080-as 4K felbontás négyszeresén (vagy 1080p 16-szorosán) rendereli a játékot, az azért nem semmi. VRAM használat natív 8K-ban 14 GB körül mozog.

  • huskydog17

    addikt

    válasz hahakocka #44400 üzenetére

    "Szerintem mondjátok továbbra is a NV marketing osztályos mantrátokat engem nem érdekel már unalmas."

    LOL! :D
    Mondja az, aki rendszeresen szétspammeli az NV topicot AMD termékek reklámozásával, ráadásul write only üzemmódban, minden valóságot nélkülöző általánosításokkal.
    Amúgy sokkal unalmasabb a folyamatos AMD-s marketing hadjáratod olvasni az NV-s topicban miközben a valóságtól teljesen elrugaszkodott kijelentéseid próbáljuk meg helyre tenni.

    "Úgy hogy be fejeztem."

    Hatalmasat szívességet tennél ezzel a közösségnek, előre is köszi!

  • huskydog17

    addikt

    válasz Quadgame94 #44390 üzenetére

    "A 3060 Ti-on aztán hatalmas RT gaming megy :D Ja nem."

    Ja de, azon is lehet RT-vel játszani a megfelelő játékban, a megfelelő beállításokkal. Létezik RT-n kívül sok más szempont is, amiért valaki Ampere-t választ(ott) RDNA2 helyett.

    "Ugyanakkor aki 3060-at meg 3060 Ti-t vett az csakis elfogultságból vette."
    Miért is? Ez a kijelentésed ironikus módon pont, hogy elfogultságra (extrém szűk látókörűségre) utal. Szerintem ezt gondold át, főleg mert máris megcáfoltak téged.

  • huskydog17

    addikt

    válasz hahakocka #44384 üzenetére

    MSRP:
    RTX 4080S: $1000
    RX 7900 XTX: $1000

    Raszterben átlagosan 1-4%-al gyorsabb a 7900 XTX, ami semmi, kb. mérési hibahatár, egy szinten van a két kártya. Van azonban egy fontos tényező, amit nem veszel ismét figyelembe: egyre több játék támogatja a RT-t, sőt egyre több játékban lesz kikapcsolhatatlan RT, már most is vannak ilyen játékok a piacon és ezekből több lesz, ott pedig NV előny van. Erre rájön az a tény, hogy sok száz játékban van már DLSS, ami messze a legjobb minőségű és egyben legszélesebb körben elterjedt upscaler PC-n. Ennyi pénzért miért szopatná meg magát egy vásárló azzal, hogy elvágja magát a legjobb képminőségtől? A legtöbb vásárló nem mazochista és ezt a piaci részesedés is tökéletesen alátámasztja.
    A 24 GB VRAM jelenleg semmilyen előnyt nem jelent.

    Azonos áron a 4080S a nobrainer, ha pedig kicsit drágább (itthon kb. 10%-al), akkor is a legtöbb vásárlónak megéri a kb. 10%-os felárat, mivel többet kapsz, több gyakorlati előnyt kap az ember a pénzéért (DLSS/DLAA, Broadcast).

    Az ilyen VS témákat légyszi legközelebb a megfelelő topicba vidd, köszi!

    #44383 Quadgame94:

    "És akkor a fórumon jön a magyarázat, hogy a DLSS, meg a jobb szoftver miatt vesznek NV-t. Nem. Márkahúség miatt. DLSS meg RT előtt is többen vettek NV-t. Szoftver... ugyan már."

    Attól, hogy félkövér betűtípussal írsz, még nem lesz egy hamis állításból automatikusan igaz.
    Akkor biztosan hülyeségből töltötték le tavaly majdnem egymillióan a DLSS mod-ot a Starfield-hez...ugyan már. Sokan nem akarják saját magukat elvágni a legjobb képminőségtől, ezen felül van ott még Broadcast (AMD-nek még mindig nincs erre válasza), Reflex...szóval van ott bőven szoftveres előny. Tehát nem csak a márkahűség miatt vesznek az emberek NV-t, hanem az igen jelentős szoftveres előnyök miatt is.
    Neked is tudom ajánlani a megfelelő topicot.

  • huskydog17

    addikt

    válasz b. #44363 üzenetére

    Na ez egy újabb forradalmi dobás lehet, biztos vagyok benne, hogy valamelyik jövőbeni DLSS fő funkciója lesz, de nem hiszem, hogy a DLSS 4-nél, legalábbis én ahhoz picit korainak érzem főleg miatt, mert egyelőre nincs legacy API (DX11, OGL) támogatás hozzá. Na persze az új AAA címek mind DX12 vagy Vulkan API-t használnak, viszont az indie címek ne, így az indie fejlesztőknek ez egyelőre tárgytalan, őket nem tudnák megszólítani a DLSS 4-el, ha ez lenne a húzó feature benne. Én ezt egy esetleges DLSS 4.5 vagy DLSS 5.0-nál látom reálisnak. Itt már csak az lesz a kérdés, hogy ezzel mennyi melójuk lenne a játék készítőknek.
    Na persze nyilván a Nixxes ráugrana, de ők egyedül évente 1-2 PC portot tudnak kihozni, az pedig édes kevés egy új DLSS marketingjéhez.
    Ahogy azt írtam korábban, én arra tippelek, hogy a DLSS 4 az NTC-t fogja hozni, és ez az új shading cucc majd a következő nagy DLSS dobása lehet.

    Végül is a kettő nem zárja ki egymást, így ha jövő évben a DLSS 4 mindkettőt hozza, az egy újabb erős fegyver lehet a zöldeknél. Én viszont még kicsit korainak érzem.

    #44364: Felnőnie a többinek? Ugyan már, ne nevettess, egy másik topicban meg lett mondva, hogy az FSR 3.1 a legjobb, szóval a DLSS-nek és XeSS-nek kell felnőnie az FSR-hez. Most már tudjuk, hogy az a jó, ha eltűnnek a részletek, mint mondjuk a különböző részecske effektek.
    (Trololololol!) ;] :D
    /Irónia off

  • huskydog17

    addikt

    válasz Teasüti #44296 üzenetére

    "AV1 dekóder már volt a 30-asokon is. Az enkóder került bele a 40-esekbe."

    Igen, tudom, nem állítottam az ellenkezőjét.

    Én nem használok videó felskálázást, de igen, az nyilván jobban terheli a GPU-t.

Új hozzászólás Aktív témák