- Samsung Galaxy A56 - megbízható középszerűség
- Fotók, videók mobillal
- Samsung Galaxy Watch6 Classic - tekerd!
- Xiaomi 15 - kicsi telefon nagy energiával
- Samsung Galaxy Watch7 - kötelező kör
- iPhone topik
- Milyen okostelefont vegyek?
- Google Pixel topik
- Magisk
- Android alkalmazások - szoftver kibeszélő topik
Új hozzászólás Aktív témák
-
Raymond
titán
válasz
Cobra652 #313 üzenetére
Csakhogy frissitsem az emlekezeted:
(#171) Cobra652:
"Bf1 high ultra között volt one x. Kötve hiszem hogy itt most hirtelen low med."Tehat egyalatalan nem High es Ultra kozott van, hanem Low es Medium kozott, ha akarod akkor legyen Medium, de szerinted a "Low-Medium" vagy a "High-Ultra" all kozelebb a valosaghoz? Ami egyebkent a kepen nincs rajta az hogy az SSR teljesen hianyzig, tehat OFF es hogy a felbontas se 4K, hanem 3360x1890 es 3840x2160 kozott mozog ugy hogy ahogy a videoban is mondjak - "very rare to see it go to true 4K".
-
Raymond
titán
-
E.Kaufmann
veterán
válasz
K.Andras.Vfx #306 üzenetére
Szerintem arra gondolt, van olyan lassú jelenet, ahol jobban fel kell venni a minőséget és oda ok, de gyorsabb pörgésű jelenetnél lejjebb lehet venni a minőséget.
A másik, hogy párhuzamosan több jeleneten is dolgozhatnak több csapattal több farmon és akkor megint kevesebb idő. -
K0vasz
aktív tag
válasz
#45185024 #292 üzenetére
Nem terjed el nincs bázisa
ennyike. amúgy szvsz azért is elbaltázott ez az egész irány, mert az RT-t nem is maga a GPU számolja, hanem külön, dedikált magok, amik miatt egyrészt sokkal több tranyó/terület kell a lapkának, másrészt ezt a részt majd külön kell fejleszteniük, ami nyilván nekik is plusz költség
-
PuMbA
titán
válasz
K.Andras.Vfx #301 üzenetére
Igen, ez gondolom valami átszámítással jött ki, de ez csak egy 3 perces rész
A többi jelenetben, ahol van 1-2 vagy semennyi robot, ott gondolom gyorsan megvannak. Egyébként az első Transformers nem igazán sok CGI-s film, mert 700 CGI-s jelenet van benne, egy mai szuperhős filmben meg 1500-2000db. Szerencsére vannak még filmek, ahol az igazi effekteket preferálják és próbálnak minél kevesebb CGI-t használni, mert a sok CGI még mindig bénán néz ki.
-
válasz
K.Andras.Vfx #301 üzenetére
Mondok neked valami egészen elképesztőt: több képkockát is lehet egyszerre renderelni. A több nap/frame bevett szokás, mivel egy képkockát egy node-on hatékony renderelni. Egy node-ban van 2 szerver cpu és annyi ram amennyi belefér.
-
Tian66
senior tag
válasz
K.Andras.Vfx #299 üzenetére
Korai az biztos.
-
K.Andras.Vfx
tag
Akármilyen jelenet is volt az kizárt, hogy egy napig rendereljenek/frame. Több ezer magos renderfarmok azért kicsit gyorsabbak ennél. Másrészt meg a mai filmek többség cgi látványelemekből épül fel, gondoljon bele, hogy egy másodperc 24 frame, egy percben van 1440 frame, egy órában 86400 és egy majd két órás filmben meg kb a duplája vagyis 172800 képkocka van. Na most ha egy napig tartana egy kockát lerenderelni akkor azért pont 473 évig tartana megcsinálni egy két órás CGI filmet.
-
PuMbA
titán
válasz
K.Andras.Vfx #295 üzenetére
"Dehogy fér bele az egy nap egy frame-re, az idő pénz... "
Gondolom a kivételes esetekre gondolt, mert amikor a 2007-es Transformers filmben megérkeznek a Földre az Autobotok, akkor annyiba telt 1 képkocka renderelése, hiszen sok robot a képernyőn van és ez 30,000 alkatrészt jelentett, 6 millió poligonnal és erre ment rá a RenderMan raytracing-je.
-
Tian66
senior tag
válasz
K.Andras.Vfx #295 üzenetére
Mivel a filmes szakmában dolgozol, tudod hogy az RT mint eljárás jó. Én a magam részéről Vray-t használok render programként, ezért én is tudom miben és miért jó az RT leképező. Arra értettem hogy szent Grál, persze nem szó szerint, hogy ha lenne egy valós időben működő RT program kissebb erőforrás igénnyel annak kézzel fogható előnyei lennének. És annak mindenki örülne. Az Nvidia belekezdett ebbe a dologba. Hogy jó irányba próbálkoznak e azt nem tudom. Amit tudok, hogy az árazást nagyon elszabták. Durván. Ez még be is tehet a dolognak csökkentve a felhasználói bázist. Ez a hiba szerintem.
-
Tian66
senior tag
válasz
Dr. Akula #289 üzenetére
Írtam én olyat hogy a filmek realtime-ban készülnek? Nem is értem ezt mire írtad. Pont arról beszélek, hogy az eljárás nagyon jó eredményt ad csak eddig ezt semmi sem tudta valós időben kiszámolni. Ahogy azt is mondtam hogy ez se tökéletes még, nagyon nem, de valahol el kell kezdeni.
-
K.Andras.Vfx
tag
válasz
Dr. Akula #289 üzenetére
Dehogy fér bele az egy nap egy frame-re, az idő pénz...
A rövid határidős produkcióknál pedig még fontosabb, hogy gyorsan lehessen renderelni.
Oké, hogy ez játék de mondom a probléma az, hogy nincs valami eget verő szignifikáns különbség a látvány javára ellenben mellette iszonyatosan előforrásigényes. Nem ér ennyit a "realtime" reflection. Ráadásul ahogy nőni fog folyamatosan a modellek komplexitása úgy fog egyre nagyobb gépigényt kérni ez az effekt a többi mellé. Szóval szerintem nem több az egész egy rosszul elsült üzleti és marketing fogásnál. Kapsz egy "forradalmi" technikát amit amúgy szinte semmi nem támogat, ami igen ott sincs látványos változás, cserébe kérnek közel 100% felárat... Marha jó...
-
#45185024
törölt tag
válasz
K.Andras.Vfx #282 üzenetére
Egyetértek Andrással.
"szinte tökéletesen működött a fake reflection a játékokban " Pl nálam a bards tale 4-ben is van a pocsolyában tükröződés és lángoszlop is látszik, de nem 2080TI-n játszom.
Nem azt kellett volna csinálni hogy az 1080TIhez képest beleöntök 80%al több szilíciumot a 2080TI-be
Ez csak sznobság , azt kellett volna hogy kihoz egy 240 ezer ft-os új kártyát és arra szénné optimalizálja.
Ez jelenleg user error. Fel kellene mérni mire van szükség, mit tud a kártya és olyan effektekkel machinálni ami hoz láthatóan a konyhára... és szépen fokozatosan ráengedni a RT újdonságokat...
De nem ,kell a 60% haszonkulcs a 440 ezres kártyából egy töredék elit számára...
Nem terjed el nincs bázisa, ezt remélem fogja mindenki... -
K.Andras.Vfx
tag
"Nem véletlenül használja a teljes filmipar meg az összes vizualizacioval foglalkozó cég"
Mivel én konkrétan filmeken meg reklámokon dolgozom nekem nem kell bemutatni a sugár követést, azt meg pláne nem, hogy milyen erőforrás igényes még gpu renderekkel is.
Mellesleg pedig nem, még véletlenül sem ez a szent Grál, nincs semmiféle szent Grál a képalkotásban, bármi megoldható már nagyon régóta csak erőforrás igényes eljárásokról van szó. 8 darab gpu-val már akár fél perc alatt is lehet nagyszerű képeket renderelni, ellenben 60 jó képet renderelni másodpercenként az kb ma hallva született ötlet...
Szóval én arról beszélek, hogy ez a játékok esetén a mai hardverekkel bizony hallva született ötlet... Több ok miatt is, egyrészt van erre egy fake eljárás ami nagyon jó eredményt ad viszonylag kis erőforrás igénnyel, ellenben nvidia RTX alig add szebb eredményt cserébe meg elviszi az összes számítási teljesítmény kétharmadát...
-
Szabi®
addikt
Ó itt még békésen van megtárgyalva,,"bizonyos" fórumokon ahol az Rt-t tárgyalják ott nem is vagy ember ha nem akarsz 2080-at venni miatta
Eljön itt még az az idő is amikor már külön játék lesz külön hárdverre irva,,és az nv-nek csak annyit kell elsütnie "másképp nem tudod oda húzni a gémet" És már veszi is mindeki
Hasonlót már lőnek jól megfizetett szaklapok
-
Tian66
senior tag
válasz
K.Andras.Vfx #282 üzenetére
Ó, a sugár követés nem annyira halva született. Nem véletlenül használja a teljes filmipar meg az összes vizualizacioval foglalkozó cég. Render minőségben a Szent Grál csak eddig ezt semmi sem tudta realtime kiszámolni. Még ez se teljesen az , de egy elég nagy lépés ebbe az irányba. Ez az amiben az Nvidia nagyot tett. És mindez rendben is lenne ha az árcédula is a helyén lenne. De az sajnos nagyon nem ott van.
-
Jack@l
veterán
válasz
K.Andras.Vfx #282 üzenetére
Tessék egy nagyító
-
K.Andras.Vfx
tag
Gyakorlatilag nagyítóval kell keresni a különbséget az RTX On-Off között. Ember nem lesz, aki menet közben játékra koncentrálva bármit észrevenne belőle, a másik meg, hogy szinte tökéletesen működött a fake reflection a játékokban eddig is. Szóval kb feltaláltak valamit, ami csak picivel hoz szebb eredményt, cserébe konkrétan elviszi a kétharmadát a számítási teljesítménynek.
Szóval senki nem szitkozódik csak észrevételezik a tényeket, hogy abszolút nincs arányban a látvány fejlődése azzal az erőforrás igénnyel amellyel párosul. Persze az nvidia marketingesei forradalmat kiváltva próbálják eladni a hallva született ötletet.
-
Tian66
senior tag
Sajnos ez is igaz. Ha olcsóbb lenne , többen vennék. Például én is. De hogy mennyi az induló ár az az Nvidia döntése. Hogy ezt az árat mennyire lehet levinni az még a piac döntése lesz. Nehéz igazságot tenni. Arany középút lenne a megoldás, de általában nem sikerül eltalálni.
-
industrial
tag
Csak szerintem nézki szarul
-
Tian66
senior tag
A vásárló a pénztárcájával szavaz. Akinek ez a fejlesztés nem tetszik az ne vegye meg. Én jónak tartom az RT-t, de ennyit nem adok VGA-ra. Viszont köszönöm azoknak akik igen mert így lehet jövője a dolognak, aminek az eredménye az lesz, hogy egyszer én is veszek RT képes VGA-t értelmes áron. Ezért ne birkazzuk le azokat akik hajlandóak fizetni egy kiforratlan de jövőbe mutató dologért.
-
hokuszpk
nagyúr
"a videon a pocsolyas reszek azert sokkal elethubbek a raytracen. mindenki dontse el, kinek mi a fontos - a sebesseg, vagy a latvany.
"
hat nemtom. szerintem a jatek attol is jatek, hogy nem pont ugy nez ki, mint a valosag. de kinek mi.
mondjuk ebbol a szempontbol ez a ray megvalositas johet, mert meg mindig nem jar a kozeleben sem a valos latvanynak. -- felteve, hogy nem a matrixban elunk. -- -
PuMbA
titán
Így van
Ha megnézel egy boltban egy 1 milliós HDR-es és egy 200 ezres HDR TV-t maximális fényerővel és simán látni fogod a különbséget, mert a 200 ezres TV alig jobb, mint egy HDR nélküli megjelenítő, hiszen csak marketing miatt írják rá, hogy HDR, de valójában nem igazán tudja. Bár én nem szeretem a nagy fényerőt, szóval nem mindenkinek kell a HDR.
-
PuMbA
titán
Én is érzékeltem, de ez csak egy kamu effekt volt, amitől a fények köré! még több fényt csináltak, de ettől maga a fény erőssége nem változott a monitorod adott pontján, ha megmérted volna fényerősség mérővel, hiszen minden megjelenítőnek van egy maximális fényereje, aminél többet nem tud
Amit látsz a boltban ma, az más, mert egy HDR-es paneltől már hunyorogni is lehet olyan erős fényt csinál, míg régen te akármit csináltál, nem bírtál akkora fényerőt kihozni otthon.
-
Szabi®
addikt
Irtam fentebb hogy nem ugy fest mint a mai hdr,,azért akkoribban nem panaszkodtunk arra sem
Egyébként az elmult 21 év alatt én is össze dobtam pár gépet,,ez idő alatt nem találkoztam olyannal hogy egyetlen "effektért" fél milliós hardver kellene,nyilván itt az üzleti modell gondosan vázolja a gémereknek miért kell kidobniuk a gtx 1080ti-ukat és váltani 2080-akra,,gondosan szintetikus tesztek számainak alá mantrázásávalPuMbA "nem láttál semmit" ezzel nem tudok egyet érteni,vagy te tényleg nem érzékelted az akkori játékokban Pl. az Oblivion-ba,,,nem történt egyébként semmi extra a mai hdr-el sem,,nem a spanyol viaszt találták fel,,csupán megjelenitöhöz kötik,ami a saját felületén szabályozza a fényerösséget
-
PuMbA
titán
"Ugyan úgy a fehér fény nit erejét szabályozta az akkori high dynamic range is ,ráadásul nem kelett hozzá spec monitor,"
Ha a monitor nem tudja megjeleníteni, akkor feleslegesen szabályozza. HDR-hez olyan panel kell, ami tud minimum 600cd/m2-es fényerőt és 10 bites színt és a sima monitorok tudnak 200cd/m2-et, szóval hiába szabályozta 500cd/m2-re a fényerőt, nem láttál belőle semmit.
-
Szabi®
addikt
Ugyan úgy a fehér fény nit erejét szabályozta az akkori high dynamic range is ,ráadásul nem kelett hozzá spec monitor,ha megnézed a demonstrációt láthatod,,nyilván akkoriban nem társult mellé ambient occlusion,god rays,depth of field...ezért nem is úgy fest mint a mai hdr.
wolfman Paraszt vakítás.....
-
Szabi®
addikt
válasz
hackeeeee #260 üzenetére
Igen de a hdr amikor megjelent Pc fronton mondjuk a Half Life Lost Coast 2005 ben már jól használta,nem kelett hozzá fél millás hardver,egy mezei Radeon 9600 SE vel vigan ment,,,manapság meg "furcsa" módon ezek a új feature-ök csak az épp legmagasabb áron levő vgak-nál jön ki.
-
hackeeeee
Jómunkásember
Ez szép és jó.. De annak idején azért volt szokás pc oldalról szapulni a konzolokat, mert nem lehetett velük 1080p, 60 fps fölé menni.. Most ugye 4K 60 fps van (tudom, már ahol), és eljutottunk olyan szintre a PC vonalon, hogy "nem tesztelünk 1080p felett, mert felesleges?"
Azért ez elég ironikus. Számomra ez a fícsör is olyan, mint a HDR.. Tök jó, hogy van, és nagyjából ennyi.. Ilyen szintű teljesítményvesztésért..
Ha már teszt, nekem eddig ez jött be a legjobban:
Battlefield V Ray Tracing Tested, So Is Nvidia RTX Worth It?
-
arn
félisten
egy jatek grafikajan mi legyen a haszon? nezzen ki jobban...
jobban nez ki? igen. ha lassunak talalod, kapcsold ki. regen teljesen altalanos volt, a csucskonfigokat is megfektette vmi (nem 4k60fpsrol beszelunk, hanem atlagos felbontasban 30fpsrol). gyakran csak egyket generacioval kesobb valt normalisan jatszhatova, ha mindent feltoltal.
ez az egesz most kezd olyba tunni, hogy a kartyagyarto felelos azert, mert a swfejleszto annyi mindent rapakolt, hogy megfekteti a kartyat. regen is az ati/nv tehetett arrol, hogy a crysis lassu volt? vagy a doom, quake? mindenki leterdelt, hogy milyen jol nez ki, de senki sem mondta, hogy vacak az aktualis generacio, mert lassan fut. beallitottak kisebb reszletessegre es kesz.
jelenleg ennyit tud a technologia ezen a latvanyszinten. en tenyleg nem ertem a puffogast - max az aron lehet lehet hobologni. en sem veszem meg, mert ennyit nem er meg, de ettol szerintem tisztesseges elorelepes maga az uj generacio.
-
wolfman
veterán
Van ennek bármi értelme vagy kifejezett haszna, mikor minden 3. játék így is eléggé optimalizálatlanul jön ki?
-
arn
félisten
aktualisan ennek a latvanynak ez az ara... amugy meg minden kozepszar kartyan lehet csinalni 4k60fpst.
-
Jack@l
veterán
hát még ultrán, szóval lehet fanyalogni a 35-50 fps-en...
https://www.youtube.com/watch?v=KYUrwynJPX8 -
arn
félisten
itt van egy sokkal alaposabb teszt a nemetektol: [link]
a videon a pocsolyas reszek azert sokkal elethubbek a raytracen. mindenki dontse el, kinek mi a fontos - a sebesseg, vagy a latvany.
-
arn
félisten
válasz
Kristof93 #249 üzenetére
Nyers rt nelkuli teljesitmenyben is jocskan ralicital az elozo generaciora es a konkurenciara. A rtel pedig meg jobban megkulonbozteti magat.
Az rtxel egy gond van (ha eltekintunk a meghibasodasi fiaskotol), az ara. Ha 300-500-700 eur lenne, mindenki rohanna venni egyet, es orulne, mint majom a farkanak.
-
válasz
Kristof93 #249 üzenetére
kisebb lenne a GPU, ekkora méretben nem lehet gazdaságosan gyártani. Illetve látod lehet, milyen áron. +fogyasztás se szállhat el az egekbe, a tranyókat etetni kell. Mennyi lenne a fogyasztása, 500 watt? azt ki szolgálni memóriával, kellene rá + xGB , itt nincs HBCC. Nem hinném, hogy ez működhetne hétköznapi áron, max ilyen Volta kaliberű, 3000 dolláros kártyáknál, ahol van pénz kitesztelni a példányokat. Annyit meg szerintem nem sok emberke perkálna egy gamer kártyáért.legalább is én nem
-
BerserkGuts
addikt
válasz
GodGamer5 #201 üzenetére
Majd 3 év múlva csinálnak hozzá rendes vga-t ami 4k-n is képes lesz elvinni a játékot full grafikán WoW
Most a szoftver előzte be a hardvert van ilyen is(Csak azért mert idáig semmi extra nem volt dx 9, 10, 11, 12, ugyan úgy néz ki maximum ha nagyon kukacoskodni akar valaki nagyítóval talál különbséget az effekteken. de amúgy semmi látványos de most ez a dx raytracing szupi tükröződő effekt tényleg szép
csak kár hogy nem láthatom xD )
-
Néha muszáj 0-ról újrakezdeni a dolgokat, csakhát fájdalmas. Azt meg teljesen megértem, ha nem verik nagy dobra, mert minden ilyen próbálkozás erősen kétesélyes.
A privát egyéni véleményem meg az, hogy a piacnak ideje lenne dobnia a M$ függő DX-et úgy, ahogy van, és ráállni a platformfüggetlen API-kra, ami most éppen a Vulkan. Persze a M$ ezt minden áron el akarja kerülni, mert a winfosch halálát jelentené. A hardvergyártóknak meg feladná a leckét, hogy rá kell gyúrni a linux/android/stb támogatásra.
-
Abu85
HÁZIGAZDA
A Vulkan API-val eleve nem volt annyi gondjuk, mint a DX12-vel. A Vulkan nem bindless API. De itt nem egy API egy architektúrára írt specifikus implementációjáról van szó, hanem arról, hogy mennyire sok befektetés a teljes termékskálára optimális támogatást adni több explicit API-hoz. És ez itt anyagi szintű, illetve erőforrás-menedzsmentre (humán szempontból) vonatkozó probléma. Az már önmagában egy gond, hogy az API-k teljes termékskálán keresztüli támogatását többször annyi erőforrás befektetésével tudod biztosítani. Egy programozót és pénzt csak azért égetsz, mert a múltban hozni kellett egy döntést, és az nem sült el jól. Nyilván itt megjegyzendő, hogy az AMD pattoghat azzal, hogy ők jól döntöttek, mert a pénzüket és az embereiket most ráállíthatják mindenféle olyan fícsőrre, mint a Chill, az Overlay, a Link, az új vezérlőpult, meg a következő aktuális lófaszjancsiság, amit kitalálnak, amikor nem tudnak mit kezdeni a szabad kapacitásukkal, de azért úgy marha könnyű ám jól dönteni, hogy az éles bevetés előtt két évig egy saját API-n teszteled, hogy mi a jó.
Nem függ a host CPU-tól ez. Itt az volt a gond, hogy az NV-nek hiányzott a tapasztalat egy saját explicit API-n. Ez nem az ő hibájuk, nyilván átgondolták, hogy mit csinálnak, de nem ugyanaz fejben lejátszani, vagy konkrétan lemérni a gyakorlatban. Az AMD ezt meg tudta tenni, ők nem. Mivel az Intel is ugyanarra indult, így nyilván ez tűnt papíron logikusnak. Na most ha beleöltél egy implementációba több évet, sokszázezer dollárt, és az az implementáció alapvetően működik, akkor van egy olyan íratlan szabály, hogy ne írd újra. Erre jó példák vannak az iparágon belül is, amikor az ATI még 2005 körül úgy döntött, hogy a nulláról újraírják az OpenGL meghajtót. Megtették, 2006-ra be is vetették, és javult-javult, csak hát elvertek egy rakás pénzt és erőforrást igen kevés extráért, eközben az újraírás időszakában még a régi meghajtót sem fejlesztették, mert ugye minek, az úgyis kuka lesz. Szóval alapvetően ha önteni is kell bele a pénzt, vagy akár fel is kell azt gyújtani, akkor is nagyon megfontolandó nulláról újrakezdeni. Főleg úgy, hogy igazából nem látni félelmetesen nagy problémákat a GeForce Vulkan és DX12 implementációin. Aztán persze lehet, hogy a háttérben már megkezdték a váltást, ahogy az Intel, csak nem verik nagy dobra.
-
jelenleg mondjuk Vulkanon pont nem látszik ez a hátrány például Turingon, hisz nv kiemelte a teljesítményét, meg hát látszik is hogy hasít benne.
Gondolom nem leplek meg vele hogy csak felületesen értettem meg mit írtál, de anno azért olvastam arról, hogy a Parker SOC az ARM miatt és a specifikus felhasználás miatt szintén rétegezett implementációt tartalmazott, amit kamatoztatni akartak desktop fronton és a voltában már ez állítólag vissza köszönt. Most akkor még sem így lett?vagy ez X86 vonalon nekik nem járható út annyira specifikus az ARM ilyen formában történő támogatása? -
Abu85
HÁZIGAZDA
Sajnos nem nagyon tesztelnek Threadripperekkel. Még az van belevésődve az agyba, hogy a kevesebb, de nagyobb órajelű mag a nyerő, de ez már nem univerzális igazság. Esetenként pont a több mag a jobb.
Alapvetően DX12/Vulkan API mellett jót tesz mindennek a több mag, csak abban a környezetben, amit a Forza Horizon 4 használ fontosabb az NV-nek a több mag, mert nagyon más a terhelés a többi explicit API-t használó játékhoz képest. De ez nagyrészt az implementációjukból adódik. Azért mégis kb. három év különbség van az AMD és az NV implementációja között, és az a három év sokat ér ám, hiszen amíg az NV még csak tervezte a meghajtóját, addig az AMD már javában tesztelt. Nyilván az AMD meghajtója sem volt jobb három évvel korábban.
Az a fő különbség egyébként, hogy nem túl jó irányt választott az Intel és az NV. Józan paraszti ésszel elvileg az a jó, ha minél kevesebb rétegből áll a meghajtó, így gyakorlatilag az API-hoz natív támogatást írsz. Az AMD ezzel szemben furcsa dolgot csinált még 2014-ben. Már akkor úgy épült fel a Mantle implementációjuk, hogy volt egy PAL, illetve ezen egy Mantle ICD, tehát a meghajtón belül rétegezett volt az implementáció. Józan paraszti ésszel ez hülyeség, mert teljesítményt vesztesz vele, viszont az AMD úgy tapasztalta a Mantle tervezése során, hogy ez a teljesítményveszteség elhanyagolható amellett, amennyi tempót lehet nyerni a PAL folyamatos optimalizálásán. Emiatt a DX12-t és a Vulkan API-t úgy támogatják, hogy raktak a PAL fölé még egy-egy ICD-t. Tehát minden erőforrást beleölnek a PAL optimalizálásába, és abból nyer a Vulkan, a Mantle és a DX12 meghajtó is. Az Intel és az NV natív támogatást írt eredetileg ezekre az API-kra, vagyis nekik egy optimalizálási munka dupla erőforrás és pénz, mert nincs rétegezve az explicit API-k támogatása. Azóta az Intel már megindult a rétegezés felé, így később olyan meghajtójuk lesz, mint az AMD-nek. Az NV-nek az a gondja, hogy nekik azért a DX12 meghajtójuk extrém bonyolult a binding emuláció miatt, tehát most azt újrakezdeni nem valami költségkímélő megoldás, így valószínűleg maradnak egy darabig a natív implementációnál, még akkor is, ha ma már úgy gondolják, hogy jobb a rétegezett. Innen már nehéz visszafordulni, így is változtattak az implementáción nemrég, és eléggé logikátlan lenne megint belenyúlni, mert lassan az Intel is izomból fog optimalizálni, az AMD pedig régóta ezt csinálja, szóval le kell nyelni, hogy nekik ez drágább lesz, és csinálni a meghajtó kigyúrását.
Egyébként valószínűleg az NV és az Intel nem hibázott, amikor erre mentek. Azért az AMD-nek ott volt a Mantle, amin élesben tesztelni tudták még a legextrémebb meglátásaikat is. Akkor nem vállaltak nagy kockázatot, hiszen hasonló API még a kanyarban sem volt. Az Intel és az NV jóval később kezdte meg ezt a munkát, és ott már valószínűleg nem volt idő minden eshetőséget aprólékosan letesztelni. Na most ilyenkor azért jóval nehezebb jól dönteni. Nagy hátrány egyébként nem éri így az Intelt és az NV-t. Alapvetően több pénzt égetnek el, és lassabban tudnak dolgozni, de működni működik így is a meghajtó.
-
-
Bandit79
aktív tag
Ha ez a kártya mondjuk 10-15%-kkal lenne drágább, mint a 1080Ti, akkor csak simán azt mondaná az ember, hogy nem biztos, hogy megéri váltani az előző generációról. De így, hogy majd duplája, színtiszta legalizált rablás
Na , akkor vedd ki a képletből az Rtx-et, még akkor is hol láttál vagy mikor olyat ,hogy egy következő generációs csúcs vga 10-15% drágabb csak , főleg úgy hogy nem kicsivel erősebb az előző csúca vga-nál. Szóval ne nézd ennyire sarkosan azokat a vga árakat. És még nemnis beszéltünk arról, hogy olyan időszakot élünk amikor szinte minden hardver árát felkúrták az égig ,a gyártósorok gyengélkedése(habár ez sokszór csak kifogás szerintem) és a jó kis bányászláz miatt. Ugye AMD oldalon is brutal arakat kérnek ahhoz képest mi volt 1-2 éve. -
Abu85
HÁZIGAZDA
válasz
t72killer #231 üzenetére
Ezért írtam, hogy nem teljesen a hardverben van az előny a Forza Horizon 4-nél, hanem az AMD drivere működik hatékonyabban, viszont a driver előnye, ahogy kezeli a CPU-t, az 4K-nál már nem látszik annyira, mint Full HD-ben. A Forza Horizon 4-ben csak ez jön ki. De egyébként, ha raksz a GeForce mellé egy 16-magos Threadrippert, akkor az AMD driverelőnye csökken Full HD-ben is.
A Turing hardverben feljött. Az NV-nek a gondja az explicit API-k szoftveres támogatása. Ebben van még tartalékjuk, mert ugye egy időben félreterveztek, illetve később is kezdték a munkát.
-
Még itt se egyértelmű a dolog, a 2070-nél tényleg jobb kb 8%-al - csak ugyebár ez kb 100 játékból 1db. A sima 2080-hoz képest viszont minden felbontáson lemarad a vízhűtéses Vega64 is.
Szval továbbra is várom az indokot, miért kéne Vegát venni. Saját szemszögből meg ugye ez van, igaz kicsit szerényebb procival (a resolve-ra sokmindent lehet mondani, csak azt nem, hogy nem radeon-barát...):
Nekem teljesen az jött le, hogy az Nvidia végre felnőtt a modern grafikus API-khoz és a compute-hoz. Ami még hiányzik belőle, az a double precision, bár olyan munkám egyelőre nincs/ha lesz, akkor tuti nem radeonnak v geforce-nak fogják hívni a vasat, ami számolja.
-
Abu85
HÁZIGAZDA
válasz
t72killer #228 üzenetére
Lehet ilyet találni. Azok a motorok, ahol már nincs DX11 path, így nem szükséges a régi API korlátjait betartani az erőforrások bekötése során. Ilyen például a Forza Horizon 4. [link] - de amúgy ez sem 100%-ban a hardver eredménye, hanem az AMD explicit API-khoz tervezett drivere sokkal kiforrottabb. Egyszerűen előny, hogy három évvel hamarabb megkezdték a munkát az explicit API-k szempontjából. Nyilván hiába önti ebbe az Intel és az NV a pénzt, időt nem tud vásárolni, márpedig az explicit API implementációjánál ez a kritikus tényező.
-
válasz
Carlos Padre #223 üzenetére
Akkor tudsz mutatni olyan DX12 tesztet, ahol a Vega 64 a 2080Ti közelébe ér, vagy legalább a 2070-et (!!) érdemben(10%+) legyúrja?
...
-
FLATRONW
őstag
válasz
Carlos Padre #223 üzenetére
Márpedig ez az általános.
-
válasz
Carlos Padre #223 üzenetére
Wow , ezt pont nem mi zöld vérüek szoktuk, de mindegy is.
Várom a Forza linket. -
válasz
Carlos Padre #213 üzenetére
No offense,de természetesen nem értek egyet veled
Szerintem kevered a Dx12-.t és konzolok architekturális natív lehetőségeit.
Dx12 igazából pont a másik nagy mumus céged érdekeit képviseli, a Microsoftét és az Xboxét így természetesen. Egy PS4 linux alapon is ugyan ezt a szép grafikai teljesítményt hozza,a natív hardver elérés ugyan úgy adott. A Dx12 semmi mást nem próbál csak a konzolok által nyújtott limitless funkciókat próbálja közelebb hozni a PC limitált funkcióihoz ezzel megkönnyítve a fejlesztők portolási lehetőségeit, munkáját, átjárhatóságot talál a PC és a konzol között kevesebb melóval. Lásd play Anywehere címek. és ez a jövő Microsoft szerint, hogy megírnak egy játékot Boxra majd egy fordító segítségével kisebb melóval lesz belőle PC port. És ebben a sorrendben, nem fordítva, mert Nvidia kicsi falatka ma már az össz gaming szegmensben, hisz a konzolokra kb 10x annyi játék kel el, mint PC re.Természetesen PC frontos nagy hal.Nem tartom kizártnak egyébként az erős ARM támogatás szorgalmazás miatt egy ARM- X86 mobil PC féle 3. platfrom megjelenését.
Egyébként azt is jobb ha látod, hogy ez a Dx 12- limitless szorgalmazás AMD nél kizárólag Vega-n míg NV-n kizárólag Turingon hoz számottevő előrelépést. RX ugyan úgy megszenvedi pl Forza alatt ezt a dolgot.Míg vega és turing megtáltosodik, addig a többi kártya lassul vagy egy helyben topog. szóval jah.Fel kell nőni minden szempontból a dx 12 höz, de nem biztos, hogy az a jó és helyes út, mert az Microsoft érdekeit szolgálja szerintem. Vulkan jobb next gen API lenne, ha lenne, és nem ,egy Vulkan cím nem elég ,hanem sokkal több játék kellene belőle.És igen ez AMD érdeme, nem tagadom, hisz ha nincs mantle, nincs VUlkan, csak elég anyátlan gyermek. Pontosan ez miatt remélem, hogy Nvidia oda áll erősebben a pénzével a Vulkan mellé, mert Dx 12 nek ott van tőkének a Microsoft és kényszernek a Windows. -
Nartaas
tag
Szerintem PS5 tulaj leszek. Merem remelni, hogy eszuk agaban sincs ezt az RT dolgot a kovetkezo generacioba betenni. Legyen csak inkabb a 4k60fps a cel, sot en a 1080p-re szavaznek mert cserebe sokkal reszletesebb es effektdusabb grafikat kaphatnank. Ez a 4k dolog is csak tul van hype-olva. Egyaltalan nem ad annyi pluszt mint amennyi eroforrast felemeszt.
-
fanti
addikt
Mondjuk ebben teljesen igazad is van, egy magot terhel, de azt betyárosan. (i7-6700K @4.5GHz)
Na jó, de ugye régi motor már nagyon.
Egyébként iszonyat jó pakkok jöttek ki hozzájuk, mindhárom részhez, úgyhogy kell is alájuk az RX480 vagy a GTX1060 1080p-hez a stabil 60fps minimumhoz.
Anno az alapjátékhoz is alig volt elég egy 4890-es Radeon.... -
Kr/\toS
senior tag
Megint kellett valami használhatatlan szar, amivel kártyákat lehet eladni.
-
-
arn
félisten
Onnan, hogy az amd azt nyilatkozta.
azt irtak, hogy addig az amd nem tervezi a tamogatasat, amig a kozepkategorias kartyak nem birkoznak meg vele, es konzolokba se jon.
De amugy mit is nyilatkoztak volna? A jelenlegi architekturajuknal meg nagyobb lenne az ollo... mert barmire irhatnak raytracert, csak az a kerdes, hogy milyen sebesseggel fog futni. Most egy otod akkora sebesseg eleg ego lenne, mint a konkurenciae. Plane nehez lenne ezt belepakolni egy socba, ami cakkpakk is kevesebbet fogyaszt, mint egy videokartya - szerintem a tizedet sem tudna rtben egy rtxnek.
-
válasz
Carlos Padre #213 üzenetére
"ha a domináns gyártó nem egy csúcs DX11es kártyával jött volna ki megint 2018 végén, ami még mindig nem teljesen DX12 kompatibilis és a Vegák szintjét hozza. 2018 végén, érted? "
He? Mi baj van a DX12/Vulkan teljesítménnyel
?
A vega szintjén egy vega árazású VGA áll, sőt, kicsit jobban is teljesít a vegánál. Van még kérdés?
-
Carlos Padre
veterán
válasz
GodGamer5 #198 üzenetére
A konzolok, hogyne. Nézd már meg mire képesek az alap ps4 konzolok is egy Uncharted 4 vagy egy HZD alatt és sem a gép sem a játékok nem most jöttek ki. Ugyanezt tudná az Xbox is, onnan meg már egy lépés a DX12, szóval minden adott lenne a brutális grafikához pécén, ha a domináns gyártó nem egy csúcs DX11es kártyával jött volna ki megint 2018 végén, ami még mindig nem teljesen DX12 kompatibilis és a Vegák szintjét hozza. 2018 végén, érted? De azért szidjuk csak konzolokat.
-
K0vasz
aktív tag
szerintem minden attól függ, hogy a következő generációs konzolokban (kb. 2 év múlva) megjelenik-e ez a ray tracing vagy sem. ha nem, akkor ez is kb. arra a sorsra fog jutni, mint a PhysX: lesz pár játék, ami használja, de ennyi.
senki sem fogja megerőltetni magát azért, hogy az eleve a játékos piac egy kis részének (=PC) egy még kisebb szeletét (RTX kártya tulajok) kitevő rétegnek pluszba lefejlesszenek valamit.amúgy meg amellett, hogy iszonyatos erőforrásokat elvisz, ráadásul csak a renderelés egy részét érinti (tükröződések és árnyékok), és szvsz. ott se volt olyan egetverő a különbség (annyira legalábbis semmiképp, hogy igazolja az RTX kártyák árát)
(szerk.: pedig azért az idők során volt jópár álleejtős effekt (god rays stb.), de ez nekem nagyon nem az)
-
Ribi
nagyúr
válasz
#25068288 #206 üzenetére
Agyhalott emberek képtelenek értelmezni amit itt sokan mondanak.
Mégpedig, hogy az NV hozott valami újat.
SENKI sem védi a kártyát. Itt a technológia amit védenek páran és hogy léptek valamerre.
Sok kártya szar? Igen. Kigyulladt? Igen. Ezeket itt az agyhalott embereken kívül senki sem hozza fel.
Az a vicc, hogy ezzel jön a sok agyhalott, hogy szar a ray tracing, mert szar a kártya?
Ez az érv ... ez siralmas... -
Szabi®
addikt
Sajnos ahogy elnéztem bizonyos oldalak ray tracing-es bemutatóját nagyon is "ópium"-ként hat a gémerek körében,16-20 közötti kissrácok dobálják ki a GTX 1080-jaikat hogy össze jöjjön a félmillió,hogy legyen 2080ti
Pedig ez csak egy "feature" ami nélkül is voltak szép játékok,meg lesznek is.De nem is ezen effekt az ami meghatározó,inkább a presztizs vonzata "a nekem van" birtoklási elégedettség. -
mikej95
aktív tag
Fél milla, 1080p@60fps, ingyen space invaders. Kihagytam valamit?
-
#25068288
törölt tag
....legyen, de akkor sem ér ennyit!
Ne gondoljuk már azt folyton, hogy akinek van erre pénze, az meg is veszi, mert NAGYON nincs így!
Rengetegen vannak olyanok, akik akár kettőt is tudnának rögtön vásárolni, de NEM VESZIK meg, mert annál több eszük van, mintsem egy kiforratlan, jelen állapotában sz.r techre költsék a pénzüket! -
#25068288
törölt tag
válasz
Lifer092 #203 üzenetére
....és a kártya ráadásul hemzseg a hibáktól.
-fagyások, kékhalál, fps droppok ott ahol nincs rá magyarázat, a "Space Invaders" -es hiba, ami teleszórja a képernyőt sz.rral, melegedési gondok, stb.
Ez mellé jön, hogy amire tervezték, még arra se jó és iszonyat drága.Mindezek ellenére egyes, elvakult emberkék agyon védik a kártyát, meg az nVidiát.
Pláne úgy, hogy még kezükben sem volt, de soha nem is lesz.
...döbbenet.
AgyhalottakCsak nVidia kártyám volt évekig, de a sok bullshitből elég, váltottam és meg vagyok teljesen elégedve.
-
leviske
veterán
Azt honnan tudjuk, hogy nem terveztek RT-et az új konzolokban? A szakma már a RTX sorozat bejelentése előtt zsongott a témától. Nagyon meglennék lepve, ha a Sony nem lenne tisztában azzal, hogy a vásárlói igényeinek RT alapon történő kielégítéséhez mekkora memóriasávszélességre és mekkora számítási teljesítményre lenne szüksége.
Arról persze lehetne vitatkozni, hogy a memória sávszélességet tekintve a Navi kapcsán pletykált 2TB/s mennyire idiotizmus kategória, mikor az nVidia állítása szerint nincs ekkora hatása a memória sávszélességnek (és azért akad kutatás, ami bizonyítja is, hogy megfelelő algoritmusok alkalmazásával a sávszélesség igény nem száll el). Na meg a Battlefield V sem mutat különösebben memsávszél érzékenységet.
A Sony-nak egyedül az lenne a dolga, hogy a játékosokkal megértesse a tényt, miszerint választaniuk kell a 4K és a RT között. Amennyiben ez sikerül, valószínűleg már 7 nm-en tudnának olyan, ésszerű méretű lapkával jönni, ami "RT Ready". Sőt, merészelek olyat is mondani, hogy egy képességeit tekintve butított Vega20 GPU már megfelelne a feladatnak 300mm^2 alatt.
Szóval én nem fogadnék nagy összegben arra, hogy az új konzolokban nem lesz hívó szó a RT.
-
Lifer092
senior tag
válasz
E.Kaufmann #189 üzenetére
Ki fikázza?
Nekem is NV kártyám van, és szinte mindig is NV-m volt. De ez akkor is jelen állapotában egy nagy marketingfogás, semmi más.
Lássuk már a fától az erdőt, nem kell letérdelni ettől az egésztől. Kivágnak egy kártyát ami egy autó ára, és a saját technológiájában jelenleg egy rakás fos. Ettől kéne hasra esni?
Ezzel az egésszel még bőven lehetett volna várni úgy érzem, eddig is megvolt a PC-s társadalom az RT nélkül úgy gondolom. ... vagy csak én vagyok ilyen maradi.
-
arn
félisten
a nextgen konzolokban sem tervezik a raytracet - innentol meg erdekes huzavona lesz. mert ugye ez megerositi a pcs grafika dominanciajat, de ugyanakkor nem fognak annyian beleinvesztalni, mert minek, ha a jatekosok jelentos resze ugyse latja.
Új hozzászólás Aktív témák
Hirdetés
- Tarr Kft. kábeltv, internet, telefon
- Autós topik
- Radeon RX 9060 XT: Ezt aztán jól meghúzták
- Samsung Galaxy A56 - megbízható középszerűség
- Háztartási gépek
- Medence topik
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Kávé kezdőknek - amatőr koffeinisták anonim klubja
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Konzolokról KULTURÁLT módon
- További aktív témák...
- BESZÁMÍTÁS! Asus B760M i7 12700KF 32GB DDR4 512GB SSD RX 6800 16GB Rampage SHIVA FSP 700W
- AKCIÓ! Gigabyte B450M R7 2700X 16GB DDR4 512GB SSD RX VEGA64 8GB CM 690 III FSP 600W
- Intel Core i7-8700, i7-9700 CPU, processzor - Számla, garancia
- Fujitsu USB Port Replicator PR09 docking station (1x5K vagy 2x4K felbontás) (DisplayLink)
- Xiaomi Redmi 13128GB Kártyafüggetlen 1Év Garanciával
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest