- Mobil flották
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Ilyen lesz a CMF Phone 1
- A hátsó raktárból érkezhet a Galaxy S24 FE főkamerája
- Google Pixel topik
- Samsung Galaxy A54 - türelemjáték
- Android alkalmazások - szoftver kibeszélő topik
- Az Apple is mesterséges intelligenciával turbózza fel a teljes kínálatot
- Samsung Galaxy S22 és S22+ - a kis vagány meg a bátyja
- Telekom mobilszolgáltatások
Hirdetés
-
Destiny 2: The Final Shape - Mi vár ránk a jövőben?
gp A készítők egy rövid videóban beszéltek a rövid- és hosszútávú terveikről.
-
Két marokkal szórja a Realme a GT 6 infómorzsáit
ma Valóban egy másik Realme átirata érkezhet június 20-án geek power tuninggal.
-
Spyra: nagynyomású, akkus, automata vízipuska
lo Type-C port, egy töltéssel 2200 lövés, több, mint 2 kg-os súly, automata víz felszívás... Start the epic! :)
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Petykemano
veterán
Igaz, ez a Graviton3
Elnézést a téves fellelkesülésért.Azért mondanál pár szót arról, hogy a Graviton3 esetén a chipletek miként kapcsolódnak egymáshoz? Ez ugyanolyan MCM, mint amit az AMD csinált eddig is, csak trükkösen közel teszik egymáshoz, vagy van valami speciális kapcsolat, mint amilyen az EFB? Interposert nem látok.
Az AMD miért nem használ ilyet? Vagy az RDNA3/zen4 esetén már fog?Köszi
Találgatunk, aztán majd úgyis kiderül..
-
GeryFlash
veterán
Tehat ha jol ertem eddig 4 SIMD32 volt 4 skalarral, most meg lesz 8 SIMD32 es a kerdes hogy 4 vagy 8 skalar lesz (illetve ha 4 akkor regisztar az hogy lesz). Erre van vmi adat, hogy mennyire tranzizsztor/koltseg/fogyasztas koltseges plusz skalar egysegeket berakni?
Valoban realis lehet hogy mondjuk a 6900XT 300wattbol tudott 23TFLOPS-ot most meg a 7900XT 92TFLOPS-ot hozna 500 wattbol? Ez kereken 2.5szeresen jobb FP32/watt arany lenne.
Tudom hogy ez nem valthato at valos teljesitmennye, de ez egy mernoki csoda lenne ha egy generacion belul 2.5szeres perf/watt ertek lenne. Ezert gyanakszom ra hogy az AMD-nel is ez egy ,,trukkozes" lesz, tulszep hogy altalanos esetekben ez az ertek igaz legyen.Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Petykemano
veterán
Ezt írtad, amikor fitymáltam a várható 3-4%-os teljesÍtménynövekedést, ami mentségükre legyen mondva lehet, hogy akár 8-10% is van.
"Nem véletlenül lesznek akkorra időzítve amikorra. Többet nem mondhatok, de nem igazán a hardver a fontos. Régen állítólag legendák szóltak róla, valami wundertreiberizé."
Akkor most végülis a hardver volt a fontos?
Vagy Te ezeknek a kártyáknak a kijövetelére csak októberben számítottál a 22.10-es driverrel?
Vagy mit értek félre?Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
"AMD's new DX11 driver seems to be spreading the load across multi-cores better, in games that were primary thread bound. Interesting, I had thought they gave up on DX11.. 6 years late but better than never."
[link]
Szóval állítólag megcsinálták végre, hogy a DX11-es driverük jobban skálázódjon több magra.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Ismert a fejlesztés háttere? Tudod, olyasmire gondolok, mint amit a Mantle-nél mondtál, hogy mondták nekik, hogy írjátok meg és megírták. Itt mi a sztory?
Illetve bocsánat, még egy:
Ezzel a jelenleg még nem látható - DX12-ben 5-13%, míg DX11-ben 3-30% - előrelépéssel indokolja az AMD az áremelést - az új vásárlókra nézve?[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Ez egy a régi kártyák elavultatását célzó, a régi kártyák tulajdonosait vásárlásra ösztönző és persze esetleg költségtakarékossági lépés, vagy van valami olyan újítás az RDNA/2 architektúrában, ami kifejezetten lehetővé tette a ezt a driver fejlesztést, különös tekintettel a DX11 többmagos skálázódására?
Találgatunk, aztán majd úgyis kiderül..
-
-
huskydog17
addikt
"Az OpenGL-be már senki sem öl erőforrást"
Hm..ezt már hallottuk sok éve a D3D11-ről is aztán beütött a valóság. Amúgy úgy tűnik, hogy mégis megéri egy 8 fős csapatot foglalkoztatni érte, szóval de, még mindig ölnek bele erőforrást (a 8 fős csapat nem ingyen dolgozik).
"mivel a Microsoft azon dolgozik, hogy kizárja az API-nak a támogatását a Windows operációs rendszeren"
Ezt a MS pontosan mikor és hol nyilatkozta? Forrást please!
Én csak annyit találtam, hogy a MS és a Collabora egy új futtatási lehetőséget kínálnak majd OGL-hez D3D12 alatt azok PC-kre, ahol nincs OGL driver telepítve, a hivatalos compatiblity pack is pontosan ezt mondja:
"This compatibility pack allows more of your favorite OpenCL™ and OpenGL® apps to run on a Windows 10 PC that doesn't have OpenCL and OpenGL hardware drivers installed by default."
A Collabora egyik programozója is ezt erősíti meg, ezt mondta:
"Vendors can still build native GL/CL drivers if they want - as you noted, many of them do."Szóval én sehol nem látok infót,m utalást arra, hogy az OGL ki lenne majd zárva, a Collabora féle D3D12 mapping layer ahogy a fejlesztők is és a MS is írják azoknak készül, akiknek nincs natív driver supportjuk, márpedig az AMD, Intel és NV rendelkezik natív OGL supporttal.
Szóval légyszi linkeld be azt a kijelentést a MS-tól, hogy Windows-on lehetetlen lesz natív OGL app futtatása, mert én csak ezzel ellentétes infókat találtam!
"Ezzel egyébként rákényszerítik a szoftverfejlesztőket is arra, hogy javítsák ki a nem szabványos OpenGL kódjaikat, mert a gyártók innentől kezdve nem tudják megtenni drivermachinálással. Amelyik cég nem csinálja meg, annak az alkalmazása futtathatatlan lesz."
Az applikáció fejlesztőjének ehhez semmi köze, mindössze a drivereket kell jól összerakni, nem is várható el, hogy a régi játékokat patcheljék. Ha erre gondolsz, akkor ellentétesen sikerült értelmezni a bejegyzést.
"This means our sources of issues are:
OpenGL driver
D3D12 run-time
D3D12 vendor-driver
Hardware "Tehát ahogy írják is, az applikáció fejlesztője nincs benne a képletben, ez nem is várható el, nincs is értelme, mert natívan továbbra is futni fognak.
"Annyit tudni még, hogy a Microsoft OpenGL 3.3-ig implementálja le az API-t."
Igen, most már biztosan erre gondolsz. Egész pontosan eddig kizárólag az NVIDIA driverek mentek át az OGL 3.3 teszteken.
"Right now, the only configurations we're cleanly passing the OpenGL 3.3 CTS on are WARP (which became conformant on November 24th, 2020), and NVIDIA (which became conformant on February 26th, 2021)."Tehát ki és hol írja azt hogy az OGL programok nem fognak futni natívan Windows-on? Hol ír ilyet a MS?
"This work is all part of Microsoft's effort for getting OpenGL (and OpenCL) working atop Direct3D 12 for use on Windows when lacking native OpenGL/OpenCL driver support as well as with use under WSL." ( [link] )
#57501 Isobutane : Nem kell minden hülyeséget elhinni. Ajánlom figyelmedbe a fentebb taglaltakat.
[ Szerkesztve ]
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
huskydog17
addikt
Ahogy gondoltam, nem tudsz adni forrást, ennyit erről.
Érdekes a régi D3D játékoknál nálam mindig az eredeti D3D verziót írja (amelyik natívan fut) és egyiknél se ír DX11, érdekes is lenne, ha a MS csak úgy az összes több ezer régi játékot átírna DX11-re.
Nyilván sok régi D3D verzióhoz ma már wrapper kell, de nem is azokról van szó, hanem azon állításodról, hogy a natív OGL programok nem fognak elindulni. Erről kértem hivatalos forrást, nem adtál. Amint a MS doksi is írja, natív OGL támogatást nem fogják tiltani, továbbá a Collabora féle cucc nem is a játékokról szól, ezt is leírták.
Az OGL supportot a D3D-vel ellentétben a driver adja, tehát az MS nem is tudná blokkolni a natív futtatást, de miért is akarná. Szólnak az AMD, Intel, NVIDIA triónak, hogy "figyu má, ne rakjatok a driver package-be OGL modult, köszi!", vagy hogy?Szóval hol írja a MS azt, hogy el akarják lehetetleníteni az OGL programok natív futtatását Windows-on? Miért tenné és hogyan?
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
huskydog17
addikt
Most hosszasan leírtad a te saját nyelveden, hogy az AMD valamiért képtelen volt normális OGL drivert írni, ezt tudjuk, látjuk másfél évtizede.
Ha annyira szar a performance, akkor az NV-nél miért nem volt soha gond a nagyságrendekkel nagyobb teljesítménnyel?
2004-ben kezdték újraírni? Na akkor ott k*rták el az egészet. 2004-ben még jó volt a teljesítmény, 2007-től nagyjából fos lett, szóval jó munkát végeztek, a performance-t kinyírták, de 15 évvel később úgy tűnik visszahozzák.
Ha annyira bugos a performance mód, akkor miért hozzák most vissza 15 évvel később?
Hogy lehet az NV-nek nem voltak gondjai a jó teljesítménnyel?Állandóan azt szajkózod, hogy a programok a sárosak így meg úgy és nem szabványosak. Érdekes, hogy az NV-nek nem okozott gondot, minden OGL programmal gond nélkül működött jó teljesítménnyel, viszont az AMD-nél nagyon súlyos problémák voltak az elmúlt bő évtizedben (személyesen is tapasztaltam elég sokszor), de az alkalmazások a szarok, ezzel egyidőben azt is állítod, hogy minden fejlesztő, aki OGL-re programozott, hülye volt és nem vette figyelembe a szabványt és szándékosan úgy írta meg a játékot, hogy AMD-n szarul fusson.
VAAAGY
van egy olyan lehetőség is, hogy a fejlesztők megtettek mindent, hogy mindenen jól fusson, szabványos kódot írtak, de az AMD fos driverével nem tudnak mit kezdeni.
Ez utóbbi sokkal valószínűbbnek tűnik nekem.
Ha pedig figyelembe veszem, hogy például a Teardown fejlesztői hónapokat, rengeteg időt és pénzt égettek el arra, hogy AMD-n valahogy értelmes teljesítményt érjenek el (külön kódutat írtak), hogy valamennyire megközelítsék az NV driver out of the box tempóját, akkor pláne őrültségnek hangzik az elméleted.A legvalószínűbb inkább az, hogy az NV csinált szabványos drivert, míg az AMD valami fost odahányt 2007-ben, amihez nem nyúltak hozzá 15 évig. Ja de hozzányúltak, mert a A Doom 4 OGL teljesítményt is az AMD k*rta el driverből. Gondolom Tiago Sousa és az id Software is figyelmen kívül hagyták a szabványt.
Ha szerinted az AMD annyira szabványos, akkor miért módosítják most 15 évvel később és miért akarnak kismillió bugot (ahogy te írtad)?
Adj légyszi egy linkeket, ahol programozók írásban megerősítik az elméleted. Ha nem tudsz ilyeneket adni, akkor csak egy újabb őrültséget olvashattunk tőled és akkor részemről bejeztem ezt a diskurzust.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Hellwhatever
aktív tag
Hogy lehet az hogy egy szabványt nem a specifikáció szerint implementálnak (hiszen ettől szabvány), illetve alkalmazás szintjén hol és hogyan lehet hibázni? Tényleg érdekel a dolog, akár egy külön cikket is szívesen olvasnék a témában úgyis uborkaszezon van hardver fronton.
Nagyon leegyszerűsítve gondolom megvannak az OGL interface-ek, ezeket kell megvalósítani majd a megfelelő értékkel visszatérni.
Alkalmazás szintjén pedig ezeket a függvényeket hívják.
[ Szerkesztve ]
-
félisten
Egyszer érném meg hogy így érvelsz Intel és Nvidia oldalán....( nem fogom)
Ott általában azt olvassuk mért szar amit csinálnak még ha jónak is tűnik,( lásd eza hozzászólás) itt meg azt hogy azért szar valami az AMD től mert közben jó, mint mindig. Egyszerűen nem tudnak hibázni náluk, na.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Petykemano
veterán
Hogyan küzdötték le a hősűrűséget?
Pár éve még azt mondogatták minden csövön, hogy a sűrűség növekedésével degradálódni fog az elérhető frekvencia. Lényegében ez volt anno a 20nm problémája is.(Ha tippelnem kéne arra tippelnék, amit az Intel 4-nél is lehet olvasni, hogy a rézről kobaltra váltás ugyan nem vált be, de valamilyen kobalt-réz ötvözet, vagy Kobalt bevonatú réz viszont nagyonis [link] )
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
mi az oka, hogy az AMD (és az Intel is) a szűkebb, de magas órajelen működő architektúra irányába megy és nem követi az Apple-t a széles, alacsony órajelen és alacsony fogyasztással való működés felé?
Nyilván az IPC (architektúra szélesítése) nem egyszerű, azért azt kimondhatjuk, hogy az AMD és az Intel is egy nagyon (egy évtized óta) bejáratott ösvényen halad a processzoraik jelenlegi felépítésével kapcsolatban és toldozgatás-foltozgatás, bufferek, pufferek, cache-ek kisebb-nagyobb bővítése volt (manapság főleg inkább az intelnél) de az alapvető felépítés nem nagyon változott.
Nyilván a magasabb IPC elérése széles architektúrával jelentékeny tranzisztorköltséggel jár. De mint mondod, a magas frekvenciát elérni képes architektúra sincs ingyen tranzisztor szempontjából. Nem is beszélve arról, hogy a magas frekvenciához magas feszültség kell, ami növeli a tranzisztorok melegedését, a hősűrűséget ez pedig azt eredményezheti, hogy az architektúra tranzisztorsűrűsége messze elmarad a névlegestől.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
-
félisten
Gondolom Nvidiáról beszélsz, természetesen. ( Tudtam amúgy hogy ezt fogod írni ha hozzászólsz) Nagyon béna egy cég, semmihez nem értenek. Az elpazarolt tensor és RT magok miatt vannak lemaradásban mindenben is.
Amúgy az íróniát félretéve, nem a gaming vonalra gondoltam a tensor vonal nem tudom mennyire értelmezhető még a továbbiakban illetve fognak e rá építeni valamit.
Amúgy Semmi kivetni valót nem látok a gyártóspecifikus dolgokban. Az hogy tesztekben nem kapcsoljak be a cikkírók nem jelenti azt hogy otthon ezt ne tenné meg egy felhasználó de sok esetben volt és van értelme a dedikált hardvernek lásd RT. Az IFC is egy dedikált hardver, még ha megkerülhetetlen is de helyet foglal költséget emel a teljesítmény céljából biztos vagyok benne hogy sok szoftver jobban kihasználja ha direkt optimalizáljak rá a szoftvert vagy a játékot meg sok esetben nincs előnye abból az RDNA 2 nek, hogy van benne nagy cache.[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Pakmara
őstag
Konnektornal a hw környezet ugyanúgy bejön mint torzító hatás: táp hatásfok, akt. kapacitas kihasználtsága, milyen cpu. Szvsz Igornál pont ez volt a lényeg, hogy a megmutatta a kettő közötti (fogyasztas mérő felöl vs sw felöl) értéket, és azt, hogyan aranylik a felhasználó által legkönnyebben elérhető sw-es adatokhoz a kártya tényleges fogyasztasa.
-
félisten
Bocs de nem bírom ki.
Tehát megint az van hogy ez az AMD valamiben úgy rosszabb hogy közben sokkal jobb.( aka Raytracing, RT mag, Tensor core, fogyasztás monitoring stb.)[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
vezeralmos2
senior tag
Sziasztok.
Akármilyen architektúrával és akármilyen memóriával számolunk, szerintem egyenesen SZÁNALMAS hogy fél KILOWATT lesz egy csúcs videókártya áramigénye.
Könyörgöm, hova süllyedt az ipar?
2011-ben, a 45nm es HD 6990 a 375 wattos TDP-jével ufónak számított, az más kérdés hogy valóságban nem vesz fel annyit.
De az utóbbi pár évben csak azt látom hogy a teljesítményigény megy fel az egekbe mind intel mind nvidia téren, csak nem tudom hogy milyen réteget kívánnak ezzel megcélozni, akiknek biztosan van pénze nagy teljesítményű klímára is ami kompenzálja a gamer kártya által termelt rohadt sok hőt.
Nem tudom erről mi a véleményetek, nem is olyan régen még 250 watt elég soknak számított, most pedig már egy kisebb hegesztő teljesítményével vetekszünk gamer téren.
Nem jó irányba halad az ipar.A Sandy Bridge legendája
-
félisten
Ettől függetlenül ez Ray tracing. Nem lehetett észre venni hogy a sugarak rövid távon mennek, igazából az összehasonlításban jobban néz ki az RT verzió még DLSS-sel is.
Minden jó ami itt születik. ( Ettől függetlenül elhiszem hogy jó lesz)[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
imi123
őstag
Szia Abu!
Inkább VS-be tartozik de megkérdezem itt.
Intel RT-s video-ban láttam pár diát ahol a traversal RT-t említik.
Ez vajon a Traversal shading megfelelője?DXR1.1 vajon tudja ezt kezelni. Gondolom RDNA3-ban is fogunk valami hasonlót látni.Srácok bocsi az off-ért
Tévedni emberi dolog, de állati kellemetlen.
-
Petykemano
veterán
Hja', mégiscsak kellett volna az a 256GB-os RDNA3...
(ami persze nem 256GB GDDR6 ramot jelent, hanem a VRAM mögött/mellett pl egy 256GB-os SSD-t, amit a GPU DirecStorage és/vagy CXL segítségével elér és sajátjaként kezel, mintha csak VRAM lenne, aminek a valódi VRAM a puffere, mint ahogy azt a Vega esetén láttuk a HBCC esetén a HBM és a rendszermemória között.)
Találgatunk, aztán majd úgyis kiderül..
-
Yutani
nagyúr
Egyszerűen keveset ad nagyon drágán.
Nem értek egyet a "keveset ad" megfogalmazásoddal. Kisfiam sok Minecraft videót néz(ett, de letiltottam róla), és baromi sokat számít, hogy van-e RT vagy nincs a felvett videóban. Ennél az egyszerű játéknál olyan sokat ad hozzá az RT a látványhoz, hogy elképesztő.
#tarcsad
-
GeryFlash
veterán
Milyen szerencse hogy a gyartok nem kepesek HBM memoriakat hasznalni helyette megy a szenvedes a GDDR-rel
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Petykemano
veterán
"Hiányzik a programozhatóság"
Bocsánat, gondoltam, belekérdezek, hátha csak én nem tudom, mit kell ez alatt érteni pontosan.
A játék motor nem eléggé programozható?
Vagy a Sugárkövetés implementációja? (fekete doboz effektus)
Vagy a DXR?Kinek és mit kéne tennie a megfelelő eredményért?
(Elnézést kérek a tisztelt közönségtől, légyszi harapjatok rá egy gumikacsára, ha most az következne, hogy mit rontott el az Nvidia)
[ Szerkesztve ]
Találgatunk, aztán majd úgyis kiderül..
-
félisten
Csak ez nem azt jelenti, hogy nincs RT és eddig nem láthattunk.Ez egy más dolog amiről beszélsz.
Ez azt jelenti, hogy erőforrás igényes ,mert mindenre számol és közben szerinted azért nem igazi RT mert nem a végtelenbe számol ütközést csak megadott távolságig vagy megadott ütközés számig.
Ezen állítás szerint akkor az sem igazi RT, ami nem számol azokra a felületekre ütközést ami nem látszik. tehát pont ugyan úgy ráfordítható erre is a dolog.
Egy játékos nem igazán látja meddig van kilőve az a sugár, legalább is én egy Metroban vagy BF-ben vagy Controlban nem vettem észre hogy jah ez a sugár csak addig ment.
Amíg normális látótávolság volt és számított az árnyék vagy a tükröződés addig működött az RT is, kivéve PÓkemberben és CP2077 ben városi területeken eljött azért már ez a dolog, de nem volt zavaró. Egy programozó sem hülye hogy ezt ne így oldotta volna meg.
Ennek az ára az erőforrás igény volt API nélkül. szükséges hozzá a hardver vagy nagy mennyiségű számítási teljesítmény.( mindegy hogy dedikált vagy sem, ez gyártói megközelítés kérdése)
Amúgy BF5 ben sem volt ütközés minden felületen ,csak ami látszott, hisz ezt már 4 éve promózták [link] pedig akkor sem volt hozzá API.
Ezek szerint ezt meg lehetne oldani játékmotoron belül is bizonyos szintig, persze az lenne a jó ha az API-ban működne már alapból és a kettő, Nvidia szerint három ötvözete adná a jó és gyors megoldást.( Dinamikus LOD + Látható felületekre particionálás + Nvidia szerint egyelőre Dedikált hardver.)[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
Szerintem nem szabad ezt így gondolni, vagy nem annak tartani, mert az RT nek nem igazán van határa.
Elég megnézni a Filmeket. Ha lesz erőforrás majd akár ilyen LOD vagy látható terület spórolással, akkor növelik az ütközések számát vagy rátolják a hangzásra, effektekre, a maradék erőforrást vagy több látványosabb textúra lesz majd ami növeli az RT számítási igényét.
Legalább is ha látványos előrelépést akarnak akkor egyelőre nem biztos, hogy a mostani effektekkel megfelelő sebeséggel is elég az RT látványvilága, miközben sokkal de sokkal több van benne. Most már ilyesmit látnának szívesen az emberek azt gondolom: [link][ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
A hardveres sebesség is probléma , elég megnézni hogy Hány filmstúdió van korlátok közé szorítva brutális szerverparkokkal.
Jelenleg a Pixar tud megfelelő de a valós és szükséges maximális sebességű rendereléstől még így is elmaradó szerverparkkal dolgozni. Ahhoz hogy nagyot lépjünk előre a mostaniaknál többszörösen gyors hardverek kellenek megfelelő mennyiségű memóriával az otthoni gépekbe, pl V100 x4.Na pont én is ezt írtam
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
Pixarnak van legfejlettebb studiója raytracing területen - ŐK GPU és CPU hibrid renderelést használnak Nvidia kártyákkal XEON és most már TR CPU--kal.
Mondjuk jah brutál szörnyek az biztos de hát ott aztán van miből vissza hozni az árát[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
paprobert
senior tag
Szerintem a hardvergyártók ennél többet nem is akarnak egyelőre, sőt, örülnek is a jelen állapotnak. Azért, mert
1. Működik (valamennyire).
2. Nagyobb, új hardver -> jobban működik. (skálázhatóság)
3. Csak az elméleti hatásfok a probléma, amelyet a 2. pont tud idővel tökéletesíteni.Így legalább lesz értelme az RX5700 erősségű konzolokat meghaladva 3-4-5x-ös GPU erőt elkölteni valamire.
A gyártók nem akarnak a jelenkor hardverével tökéletes rélytrélyszinget. Nekik megfelel 10-20 évre előre kimérve, generációnként egyre több dolgot átvinni a hibrid renderből az RT irányába.
Illetve nem ártana megemlíteni, hogy a programozhatósággal két dolog is jár:
1. sebességvesztés, hardverből. (vagyis annak hiányából)
2. a low level API-ra(DX12, Vulkan) váltáshoz hasonló "hogy a f*szba csináljam" programozói fejfájás is.[ Szerkesztve ]
640 KB mindenre elég. - Steve Jobs
-
T.Peter
őstag
"Ezért sincs az UE5-ben alapból RT."
Ez igy azert ebben a formaban nem pontos, de ezzel te is tisztaban vagy, olvastad a dokumentaciot.
Van rt, csak nem haromszogekkel szamol, hanem sdf-fel. Ha pedig bekapcsolod hogy haromszogekkel szamoljon, akkor a nanite mesh helyett egy proxy mesh-t hasznal, de ezzel is tisztaban vagy mar.
Amellett, amit irtal, hogy miert nem megvalosithato az rt abban a formaban ahogy jo lenne, tekintve, hogy az egyik oldalon 2, a masik oldalon csak 1 generacio tamogatja a dxr-t a jelenlegi formajaban, semmi ertelme nem volt nekik tobb energiat fektetni ebbe. Konzolon igy is orulnek ha a lumen-t megcsinaljak 60 fps-re ugy, hogy sdf-re szamol utkozest. Majd a pc-k izzadhatnak ha rakapcsoljuk az osszes haromszoges rt feature-t.Itt amugy meg lehet nezni honnan indult az egesz nanite otlete:
HPG 2022 Keynote: The Journey to Nanite - Brian Karis, Epic Games
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- ASUS ROG STRIX 3080 10GB V2 White/fehér LHR
- MSI GeForce GTX 1050 Ti 4GB GDDR5 128bit videókártya
- 2025.11.04. Garancia! MSI RTX 3080 12GB GDDR6X TRIO PLUS Videokártya! BeszámítOK
- EVGA RTX 3070 8GB GDDR6 FTW3 ULTRA GAMING Eladó! 125.000.-
- ASRock Challenger D RX 6600 8GB - garancia 2024 november - eladó!
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen