- iPhone topik
- Motorola Edge 40 - jó bőr
- Magyarországon is kapható a Moto G85 5G
- Motorola Razr 60 Ultra - ez a kagyló könnyen megfő
- Milyen okostelefont vegyek?
- Samsung Galaxy A54 - türelemjáték
- Ilyen lesz a Fairphone 6
- 45 wattos vezeték nélküli töltés jön az új iPhone-ba
- Karaktere biztos lesz az első Nothing fejhallgatónak
- Netfone
Új hozzászólás Aktív témák
-
-
Abu85
HÁZIGAZDA
A Vulkan az 1.2 óta eleve támogatja a HLSL-t. A shader modell 6.2-ig minden le van fedve a SPIR-V 1.5-ben. [link]
Egyébként új hardver nem kell. Az új DXR fejlesztések minden tudnak szoftveresen futtatni, ha az új lépcsőknek nincs hardveres háttere. Az egész DXR-nek meg van írva a teljes fallback compute shaderre. Ugyanígy a Vulkan API-ban is lesz egy compute shader fallback, ha a hardver nem alkalmas az egyes lépcsők gyorsítására. Vagy azért, mert nincs benne megfelelő célhardver, vagy mert az elavulttá vált.
-
Z_A_P
addikt
Lehet nem jol tudom, de a Mellanox-ot meg nem okezta le a kinai hatosag, es mar lejart a hatarido, ujra benyujtottak ,de ezt is huzzak.
Feb. 19, 2020
Nvidia and Mellanox refiled merger paperwork with China's State Administration for Market Regulation, according to Dealreporter sources.
The companies refiled after the 180-day review period expired earlier this month.
SAMR had already started testing remedies for potential antitrust concerns.
The deal has an outside date of March 10 with a possible extension to June 10. -
Abu85
HÁZIGAZDA
Ennél sokkal több kell az exascale szintű skálázhatósághoz. Nem véletlen, hogy háromból egyben sincs NVIDIA. Ilyen méretben óriási hátránnyá válik a gyártók keverése, amíg nincs egy igazán jól működő szabványos megoldás a skálázhatóság problémájára.
Az IBM-mel pedig azért gyorsabb az NV, mert máshogy lehet összekötni a gyorsítókat ilyen formában, de ez nagyon kevés az exascale rendszerekhez. Ilyet tudni fog a Milan+CDNA is az AMD-nél, de mégsem erre építi a DoE az exascale megrendeléseit, mert úgy kell kialakítani a konfigurációt, hogy minden gyorsító össze legyen kötve a procival, és a gyorsítók is legalább egy gyűrűs kapcsolatra fel legyenek fűzve.
Ha tényleg csak annyi lenne, ahogy leírod, akkor a sok CUDA kód nyerné az NV-nek a tendereket, de baromira bonyolultabb a probléma ekkora méretben, ami más hardveres dizájnt követel, és ezért bevállalják a kódkonverziót is. Ugye nincs más választásuk. Nyilván nekik is sokkal egyszerűbb lenne az Intel és AMD procik mellé NV gyorsítókat kérni, csak a tervezett méretben sajnos nem működik.
-
Abu85
HÁZIGAZDA
Sajnos nem. Az exascale skálázhatósághoz nem elég csupán a GPU-kat összekötni egy gyors memóriakoherens interfésszel. Szükséges az is, hogy a CPU-kkal is meglegyen ez a kapcsolat. Na most a szuperszámítógépekbe használatos node-oknál nem igazán használnak ilyen megoldást, mert például az IBM-nek nincs nagy haszna abból, ha csak egy gyorsítóra korlátozza le a processzoraik használhatóságát, annyira általánosra tervezik a procit, amennyire lehet. Az Intel és az AMD azért tudja ezt megcsinálni, mert saját maguk csinálnak CPU-t és GPU-t is. Egyszerűen arra koncentrálnak, hogy legyen meg az általános gyorsító használatának a lehetősége, de azért hoznak kompromisszumokat, hogy a saját interfészeik előny élvezzenek. Ráadásul a többséget az is akadályozza, hogy a piac nagyon-nagyon-nagy része x86/AMD64.
Ha annyira egyszerű lenne ez, hogy mehetne az IBM/NV, akkor nem maradtak volna ki háromból három exascale projektból. Azért korábban ezeket az SC tendereket rendre behúzták. Ehhez képest az egyik projekt konkrétan kockáztat az Intel GPU-val, nincs más választás, ha a CPU is Intel.
-
-
Abu85
HÁZIGAZDA
Nem csak. Ott van még más is tárolva, például a geometria.
De fog fejlődni a grafika. Ma már eleve nem férnek bele a mai tipikus VRAM mennyiségbe a játékok. Emiatt a motorok régóta streaminget alkalmaznak. A töltés itt nem annyira fontos, az nem csak ettől függ, de a nagyobb részletességhez a több VRAM, vagy ennek a hatékonyabb kihasználása hozzájárul.
A konzolon nem az alacsonyabb API miatt jobb a memória felhasználása, hanem amiatt, hogy az alkalmazások memóriaelérése közvetlen. PC-n ez nem lehetséges, mert nincs két ugyanolyan rendszer, de konzolon mindegyik gép ugyanaz, tehát az alkalmazás bátran hozzáférhet fizikai szinten is a memóriához. A PC-n ezt mindig az OS fogja kezelni, az alkalmazás csak fölötte tud menedzselni. Ez olyan nagy hátrányt egyébként nem okoz, mert veszel a PC-be kétszer-háromszor több memóriát, mint ami a konzolban van, és nem baj, ha az OS pazarol.
(#40746) b. : Most ha a konzolt mindenképpen idekeverjük, akkor a next-gen fő attrakciója az a szupergyors SSD. A PS5-nek van egy olyan módja, hogy maga az alkalmazás lesz a memória. Úgy veszi a rendszer, hogy az SSD-n elfoglalt hely a fizikai memória, és onnan cache-sel a valós fizikai memóriába, ami alapvetően gyorsítótárként működik. Ennek egy része leválasztható, így az valóban gyorsan elérhető memóriaként funkciónál. Ennek az egyetlen haszna, hogy olyan világokat lehet létrehozni, amelyek a mostaninál sokkal-sokkal nagyobbak, de mégsem lesz egyetlen töltőképernyő sem a játék kezdetétől a végéig. De a PC-ben ez sem jelent problémát, mert a streaming rendszerek nem újdonságok, annyi fog történni, hogy a PC-s port időközönként bedob egy loading feliratot, tölt egy-két percig, majd mehet a játék tovább. Ez igazából a konzolon is előfordulhatna, csak úgy tervezik meg az alkalmazást, hogy ismerik a gép adottságait, lényegében tudják, hogy milyen gyors az SSD és a memória, és ehhez tudják tervezni az egész játékot. A PC-n is előhozható ez a működés, ha beledobsz egy mondjuk egy 6-7 GB/s-os SSD-t a proci vezérlőjére kötve, plusz jó sok memóriát használsz. Valószínűleg ilyenkor egy PC-s portnál is eléggé minimális lenne a loading felirat.
(#40749) Ragnar_: Annyira sok VRAM annak nem kell. Az lényegében ugyanazokból a tartalmakból él, mint a raszterizáció. A létrehozott pufferek, amik fogyasztják extraként a VRAM-ot.
(#40755) b. : A mostani és az új konzoloknak is lesz olyan módja, amikor az OS fog babáskodni a memória felett, ahogy ez PC-n is működik. A legtöbb kis gépigényű cím konzolokon is így működik, mert ez a legegyszerűbb fejlesztői szempontból. A jövőben sem lesz ez másképp. A többi mód igényelhető. A PS5-nek megmarad a közvetlen hozzáférésre vonatkozó módja, ahogy ilyen a PS4-ben is van (5,x GB-ot kaphat közvetlenül az app és a maradékon ott az OS), illetve lesz még egy új mód, ami a memória egy részét cache-ként használja, és az SSD-n lévő tartalmat is memóriának tekinti. Valószínűleg az új Xboxban is lesz hasonló. Utóbbi egyébként úgy leszimulálható PC-n, hogy SSD-t raksz a VGA-ra, lásd a Radeon Pro SSG. Ha nagyon nagy adatmennyiségről lenne szó, és túlzottan sok lesz a loading felirat, akkor lehet, hogy elmennek erre a cégek.
-
GodGamer5
addikt
Szerintem a kevesebb töltőképernyő, nagyobb részletesebb, több objektumból álló világ így már reálisabbnak tűnik.
Emlékszem anno ps3-on az Uncharted 3-ban a legvége fele volt egy rész, ahol a jelenet ketté lett vágva egy loading képernyővel, mert nem fért a ramba.Ilyen régebben konzoloknál többször is előfordult. Mostmár főleg ezzel az újfajta ssd+ram kombóval úgy gondolom, hogy megoldhatják az igazi részletgazdag, töltőképernyők nélküli nyílt világokat, ráadásul a harmatgyenge limitekkel teli régi procit is végre leváltják.
-
Callisto
őstag
Aki forgatja a pénzt, azt nem az érdekli, hogy szépen lassan nő a részvény ára évek alatt, hanem az, hogy forgassa a pénzt. NV-nél volt egy alkalom 5 éven belül, amikor sokat lehetett keresni rajta rövid idő alatt. Most a Teslánál pl. 3 ilyen alkalom volt egy év hónap. Én sem akkor vettem a Teslát és adtam el, amikor csak stagnált. Ugyanarról beszélünk és épp ezért az NV részvény középszerű.
Tesla az pukkani fog. Nem kérdés. Ez a különbség hosszú táv és rövid táv között: "tudni" kell mikor mit vegyen és adjon az ember. -
Callisto
őstag
Olvastam én is nyugi, de tudod én keményen tőzsdézek már lassan egy évtizede. NAGYON sok pénzzel. Az én ismereteim, ellentétben veled nem csak olvasás, hanem gyakorlat és tapasztalat alapján születnek napi szinten követve minden részvényt és kereskedve.
Igen. NV-nek jók az eredményei, de itt tőzsdéről beszéltünk. Az pedig, hogy NV részvényen mennyit lehetett nyerni más kérdés és itt erről volt szó.
Sehol sincs ahhoz, hogy a Tesla részvényen 4 hónap alatt 3x-ozták (vagy 1 hét alatt 2x) a befektetést egyesek vagy hogy AMD részvényen 5 év alatt 17x-ték. Vagy pl. Beyond Meat-en lehetett rengeteget szakítani 1 hét alatt. Hasonló az Applied Materials. Iszonyat sokat lehetett fogni rajta.
Ha valaki követi a dolgokat és belefolyik rendesen a tőzsdézésbe, akkor az NV messze van ezektől. NV szépen lassan ment felfelé, de nem lehetett vele sokat fogni, "játszani".
Fogadd el, még ha fáj is. Hosszú távú biztos befektetésnek jók (voltak?) a részvényei, de kaszálni, "játszadozni" már csak középvonal. -
paprobert
őstag
Így van, nem okoz forradalmi javulást az extra VRAM, de mindig van valamennyi pozitív hatása.
A base PS4-hez képest a jelenlegi leakek alapján így fog gyorsulni a next-gen:
GPU: 4x
VRAM: ~2.5x
CPU: 4xAz SSD-s memory mapping ennek a nem arányos növekedésnek a kiegyenlítésére lehet egy kerülőút. Érdekes lesz látni hogy mennyire lesz elterjedt a használata, és milyen limitációi vannak.
-
Ahol a VRAM kvázi "ajándék", az a nagyobb felbontású textúrák esete. Csaknem mindegy, hogy 256x256 vagy 4096x4096 pixeles textúrákkal dolgozol a számolás szempontjából, de a VRAM igény exponenciálisan ugrik. Mivel pedig egyre nagyobb felbontásban nézzük, ezért a egyre jobban szükséges a nagy textúrák használata. Így hirtelen két játék van, ahol ez látványos, az Resident Evil 2: Remake és a Red Dead Redemption 2. Előbbi érdekessége, hogy a 8GB VRAM-os kártyákkal nem is célszerű beállítani a max. textúraméretet (ahhoz 11GB-os kártya kellene).
Vagyis ahol a több VRAM jelentős előny, az a sokkal élethűbb és részletesebb textúrákat lehet használni...
-
-
Z_A_P
addikt
Állítólag olyan osztalék várható most
Haaaatooo, mivel most (ha jol latom) 0.24% az osztalek, ezert ha 10 szeresere (azaz 1000%!!) novelik , meg az is KEVES lenne magas osztaleknak (2.4%). Talan egy 20* emeles mar abba a kategoriaba lokne
Magyarul, az nvidia minden csak nem osztalek reszveny. -
Devid_81
félisten
Megiscsak ugyesen huz le minket a borkabatos.
Ahhoz kepest, hogy javareszt 'csak' GPU fejlesztessel foglalkoznak durva ahogy allnak.
Kivancsi leszek mikor ugranak be a CPU gyartasba, az lenne am a kanaan nekunk par even belulAMD-nek kellene mar osszeszedni magat vegre, lassan van ertelmes hw de sw szinten most gyalazat amit csinalnak a Navi-val
-
-
paprobert
őstag
Sok a selejt, pénzt csinálnak belőle. Az viszont meglepőbb, hogy a GN szerint ez a későbbiekben általános lesz, tehát nem csak ideiglenes a váltás szerintük.
Szerintem egy olyan belső busz vagy cache lehet felelős a gyorsulásért, ami nem tiltható a CUDA magokkal, ellenben az adat-intenzív feladatok így a chipen tudnak maradni.
-
-
-
paprobert
őstag
Egyetértek, szubjektíven a 3-5% tempóelőny engem nem "vesz meg", a driverek miatti instabilitás viszont tényező egyelőre. Ráadásul a 2060 húzva egy hajszállal, de gyorsabb mint a szintén húzott 5600XT.
Durva belegondolni, de ha a Navi kb. 3 éves életciklusát nézem, akkor ez idáig az élettartama 1/6-át labilis driverek kíséretében töltötte, és hol van még a vége...
-
-
GeryFlash
veterán
Hát ha valóban 3070 lenne (ami abból a szempontból elképzelhető, hogy laptopokba x80-as számú kártya nem gyakran szokott jönni) akkor az állati komoly.Ezek alapján a 3060 valahol félúton lenen a 2080 és 2080TI között. Ez kb 60%+ előrelépés lenne, igazából tényleg nem lenne elképzelhetetlen, egy normális cég csak 7nm-re való ugrással tud hozni egy 25-30%-ot, és akkor még ott van az architektúrában lévő tartalék. Arról nem beszélve, hogy még mindig nem tudjuk biztosra min jön az Ampere, ha Samsungon akkor bizony ott van szabad kapacitás EUV nodera is. És talán még az árak sincsenek elszállva, lévén a Samu elég nagyokat szenved hogy bérbe tudja adni a gyártástechnológiáját, mindenki a TSMC-re viszi. Kérdés hogy a Samu EUV 7nm-je milyen.
Yutani: Szerintem nincs hova. Ampere leghamarabb nyárra jön ki, addigra már sokan keményen next-gen konzol generáció lázban égnek. Azt tudom elképzelni hogy esetleg az induló ár magas lesz, de kijönnek a konzolok és körberöhögik a 2xxx széria árait. Ergo a 2xxx szériát iszonyat módon le kell árazni hogy készlet kisöprés meglegyen, viszont ez fogja magával húzni a 3xxx árait is. Bízok benne hogy akkora lesz a konzol boom hogy az Nvidiának ahhoz kelljen árazni. Árszint emelkedést szerintem nem engedhet(ne) meg magának, hiába 50-60%-os ugrás. Aztán persze bármi lehetséges, hogy a jól fejhető PC gamerek most is kifizetik az évről évre magasabb felárat
-
GeryFlash
veterán
Igen ezt a szoftverfejlesztőknek meg tesztelésre készült maszlagot több helyen leírták az Intel védően.
2 dolog ezzel kapcsolatban:
1.) Specifikáld mit jelent ez hogy szoftver fejlesztőknek készült VGA. Ez pontosan mit takar? Értem, nem játékokban erős hanem...? Mi a f*szhoz kéne egy c++/java/python fejlesztőnek dVGA? Ha meg más szoftverfejlesztőkről van itt szó akkor miért csak egy AMD APU IGP szintjét hozó dedikált kártya kell? Mi az amit ez tud ezen a fronton de a másik gyártó hasonló árazású és TDP keretű kártyái nem?
2.) Ha nem játékra készült (hanem sZoFtVeRfEjLeSzTőKnEk) akkor miért játékokkal demózták? -
Az előadásra én is nagyon kíváncsi vagyok, csak hát... tudod ilyenkor előtörnek az emlékek.
Intel Larrabee? AMD HSA jövőkép? Soroljam tovább?Az elképzelés szép, de van bőven buktatója, ettől függetlenül drukkolok nekik, jó lenne végre valami normális versenyhelyzet a dVGA piacon (mondom az után, hogy most kb. 2-3 évre én a jelenlegi tervek szerint már nem akarok fejleszteni, örülök a 2070 Supernek...
).
-
-
-
GodGamer5
addikt
"Az 5700 és a 2060 között kb 10-15% van az 5700 előnyére"
Dehát pont ez írtam én is, hogy mivel az 5700 ennyit tud, ezért jó eséllyel,- közel azonos specifikációkkal- az 5600xt is hasonló teljesítményt fog nyújtani, az meg kb 2060-as szint.
Viszont az előzetes mérések meg kimondottan gyengék lettek a specifikációk tudatában, ami számomra nem tűnik túl hitelesnek, de majd meglátjuk ha megjelennek végre a kártyák a végleges optimalizált driverrel. -
"Mondjuk azért a Switch kb annyi eladást produkált az Nvidiának fele annyi idő alatt,mint az Xbox One az összes verziójával az mellett elkelt jó pár millió shield is."
És a PS-t ilyenkor direkt nem említed? Pedig mint tudjuk ezt a gent az vitte magasan."Ráadásul egy meg sem jelent konzolgenerációt magasztalunk rengeteg ismeretlennel ,aminek a kijöveteléig valószínűleg Nvidia a piacra dobja az Ampere generáció és ha tartják a szokásukat akkor a 3060 kb 2080 erősségű kártya lesz....."
Ki magasztalja? Pusztán az korábbi generációkról kialakult képet visszük tovább. És ha már itt tartunk, akkor a 3060 mennyibe fog kerülni? Mert olcsóbbak továbbra sem lesznek ezek a vga-k. Meddig mehet el az NV árban amiért még megveszik? Itt az AMD is egykutya, tehát nem akarom én védeni őket. Olyan gyönyörű világ lesz, amikor egy középkategóriás VGA is drágább lesz mint a konzol, bár már mintha most is itt tartanánk.. -
Kolbi_30
őstag
Hinni lehet a nyúlban is meg a Mikulás a is. De egy kB 600 dolláros konzolt egy 1200+ (2080ti)dolláros vgahoz hasonlítani értelmetlen. Persze hogy erősebb, csak ugye a vga magában nem megy kell alá meg ennyiért ami kitolja a belét. A konzolon meg el fog futni minden, szép grafikával, 5-6 évig, azon a vegan meg jövőre már az új játékok lehet akadni fognak.
-
keIdor
titán
Ha egy 5700XT, vagy ahhoz nagyon hasonló GPU-t kap a nextgen, akkor igen, tudja mindenki, hogy igaza van. A konzol lényege a fix hardver és az, hogy közös memória van és nincs PCI-E.
Ezek mind visszafogják a PC-t is, konzolon sokkal többet ki tudnak hozni a hardverből.Az égeti a bőrkabátját, hogy már megint a konkurencia hardvere lesz az új gépekben, ezáltal ők rengeteg pénztől esnek el. Ezért nyilatkozik ilyeneket, ugyanez volt 2013-ban.
-
GodGamer5
addikt
A komoly fizikához pedig nagyon is a hardver és a szoftver is akadály volt eddig. Dx11-en nagyon rossz a többszálú processzorok kihasználtsága és a négy mag sem volt eddig túl combos a különböző fizikai szimulációkhoz, főleg ha még a grafikát is ütősre tervezik hozzá.
A Zelda egyébkén nem tartalmaz víz, particle stb és egyéb hardverigényes szimulációkat és a grafikája sem éppen egy krájzisz... -
GodGamer5
addikt
Az xt verzió elvileg azt jelenti, hogy 8 gigás lesz, a sima pedig 6.
A kezdeti árazás biztos tragikus lesz, de pár hónap múlva beáll az ára. Mondjuk engem csak a dx12-es teljesítménye érdekel, ha az hozza az 1080-as szintet, akkor esélyes egy váltás, ha nem, marad a jókis 1070.
-
Simid
senior tag
Szerintem érdemes mindegyik kártyánál azt nézni amelyikben jobb (NV ebben a tesztben DX11-gyel sokkal jobb).
Így 130 vs 122 a 5600 javára. Ez már elég jó lenne, főleg ha fölé még jönne egy ténylegesen erősebb XT (nem úgy mint az 5500 esetében...).
Mivel 1660Ti nem nagyon játszik a super megjelenése óta, így azért van egy elég nagy szakadék NV esetében ~$230 és a ~$400 2060S között . Ha sikerülne érezhetően a 1660Super/Ti felé lőniük a teljesítményt, akkor akár egész érdekes is lehet.
-
-
DudeHUN
senior tag
Most is le fogja lépni 2 év alatt grafikailag. Ezt el kell fogadni. Majd jön egy Pro verzió, azzal még 3 évet tolnak a dolgon. Egy kis dobozba szánt, a tévé alá kitalált eszköz amúgy sem tud versenyezni azzal, ha PC-n csak a VGA többet fogyaszthat, mint az egész konzol.
A másik meg a Nintendon kívül (de már ök sem) a konzol gyártók bekerülési összegben, vagy bukóval árulják a gépeket és a játékok, szolgáltatások hozzák vissza az árat.
Más piac a konzolos. Ott ha csak egy 7-800 dolláros modelled lesz sosem.adod el. Főleg, ha mellette a konkurencia mondjuk 500-ért árulja a masináját.A PS4 Pro, amit tud 1440p-ben, annál kategóriákkal többet fog tudni grafikailag 4K-ban a PS5 egy RX 5700 erejű GPU-val.
Btw. engem nem zavarna, ha AVR méretű konzolok lennének 1000 dolláros áron. Az odaverne. De ez nem fog megtörténni. Az embereknek egy 500 dollár körüli gép kell, ami elfér az Ikea tévé állványon, ahogy a PS4 tette.
-
Petykemano
veterán
én komoly dilemmát sejtek.
4K 60fps - jelenleg - biztos komolyabb hardvert igényelne. Mondjuk $800.
Meg itt van az SSD kérdése is.
Oda akarok kilyukadni, hogy biztos dilemmát okoz, hogy ha egy konzol nem tud 4K 60fps-t, akkor miért venné meg valaki? Hiszen 1080p-re képest hardver a Stadián ingyenesen elérhető. Ha tehát a konzolgyártó szeretné magát megkülönböztetni a Stadiától, akkor a konzol kell hogy tudjon 4K 60fps-t, de nyilván ehhez meg csak pont annyit kérhetnek el, hogy mondjuk az ne legyen több, mint 2-3 évnyi előfizetés a 4K Stadiára.
A másik út az, hogy lemondanak a helyi géperőről és azt mondják a vásárlónak: vedd meg ezt az olcsó visszafelé kompatibilis konzolt és a mi stream szolgáltatásunkra fizess elő. Ekkor viszont a stream szolgáltatásnak kell versenyképesnek lennie a Stadiával.Szerintem ez még nincs teljesen eldöntve. Az a kérdés, hogy tudhatnak-e a játékok olyan dolgot, ami feltétlenül szükségessé teszi a helyi erőforrásokat (a VR-ról ezt gondoltuk, de végül ebből nem lett olyan nagy durranás), vagy olyat, amivel a felhőben elérhető kapacitás mondjuk nem tud lépést tartani.
(A hardvergyártók nyilván utóbbiban érdekeltek.) -
DudeHUN
senior tag
A konzol piacon nem lesz 800 eurós induló gép ár. Az még elképzelhető, hogy lesz egy alap verzió 499-ért és egy Pro verzió 599-649 környékén, de a 7-800 dolláros konzol nem fog fogyni. Már a PS3-ba is majdnem belebukott a Sony. Többször nem rizikózzák meg. 499. Reális és még magasabb is lenne, mint a PS4 nyitó ára (399$). Abban is a hardver (soc) költsége 200 dollár alatt volt.
-
keIdor
titán
Nem lesz bukta, 2022-ben már akciózni fogják, addig a "szegény ember konzolja" marad a régi generáció.
1000-1200€ telefonokból több tízmillió/modell megy el évente. Gondolok itt az iPhone, Galaxy S stb. modellekre, egy fele/kétharmad ennyibe kerülő konzol, ami évekig jó az fogyni fog.
700-800€-ért is vinnék mint a cukrot. 2013-ban többet ért 500€/USD, mint manapság.
Nézni kell az inflációt is, valamint drágább ma hardvert gyártani, mint akkor. -
keIdor
titán
Pedig ez a mostani komolyabb generációváltásnak tűnik egyelőre. 2013-ban spóroltak a CPU-n.
Q6600 szint egy magot nézve, Digital Foundry kb. kimérte, hogy akörüli teljesítménye van a konzolokban lévő Jaguarnak. Most nem azért, de egy 2x Core 2 Quad Q6600 ---> Ryzen 3700X marha nagy ugrás lesz. Még ha alulórajelezik a CPU-t akkor is +600-700%-okról beszélünk csak a CPU oldalról.
-
huskydog17
addikt
Rengeteg kártya jó még a mai napig, csak a fent említett játék lett iszonyatosan elb*szva technikai szempontból. Szóval a Borderlands 3 alapján véletlen se ajánlott bárminemű következtetést levonni.
Az is vicces, hogy a Polaris-ok nem voltak hajlandóak működni (Crash felirat), még a 8 GB-os verzióknál is, vagyis nem a VRAM mennyiség volt ott a probléma, hanem a DX12 mód egy rakás trágyadomb ebben a játékban.
A performance mindkét leképzőnél egy rossz vicc. Vega64/GTX1080 kell a FullHD/60fps-hez? Ez az iskolapéldája hogy hogyan nem szabad PC portot csinálni. -
Abu85
HÁZIGAZDA
Igazából, ha HDMI 2.1 van a kijelzőn, akkor működnie kell, mert a HDMI 2.1 VRR az szabványos, és a szoftver, amit az NV csinált az ezt célozza. Persze nem mondhatják rá, hogy tutibiztos, de mivel nem HDMI-s FreeSync-féle zárt rendszerről van szó, így egyik gyártó sem csinál eltérő dolgokat, amelyeket külön le kellene kezelni.
-
Abu85
HÁZIGAZDA
Ami rossz az rossz, ami jó az jó. Ennyire egyszerű. Itt nincsenek oldalak.
Az, hogy a kiadó sürgeti őket már önmagában egy probléma, mert ettől a végeredmény sokszor lesz rossz. És a kiadó számára nem egy opcionálisan bekapcsolható effekt lesz a fontos, hanem a játék maga. Ehhez tényleg kellenek a konzolok, mert ott akár az is előfordulhat, hogy maga a játék van úgy felépítve, hogy az AI upscaling a leképezés fontos eleme, és akkor az nem csak úgy lesz kezelve, hogy meh... hanem rászánják az időt, hogy jó is legyen, és arra már a kiadó sem mondhatja, hogy baszki nincs több idő, adjátok ki, mert dizájnból úgy tervezték a játékot, hogy az AI upscaling nélkül nem jó a sebesség és a végeredmény. Tehát a Microsoft megoldása nem azért más, mert másképp csinálják, hanem egyrészt ott az Azure, amely összesített számítási kapacitásban mérföldekkel több, mint ami az NV-nek van, és ennek egy jó részét pusztán oda tudják adni a fejlesztőknek, hogy Xboxra jól megcsinálják. Aztán persze lehet ezt hozni PC-re, valószínűleg a Microsoftot nem fogja érdekelni, de mivel a DirectML ugyanaz lesz a következő Xboxon, mint PC-n, ezért az egész fejlesztés egy az egyben másolható.
Az NV megoldása is lehetne jó, csak láthatóan nem érdekeltek abban, hogy ebbe pénzt fektessenek, mert ha azok lennének, akkor teleszórnák a fejlesztőket szerverekkel, hogy csinálják a neuronhálót, de nem csinálják ezt. A DLSS szerintem egy nagyon gyors ötlet volt arra, hogy van egy rakás sötét szilícium a hardverben a Tensor magok által, és azokat nem tudták mire használni. Kitalálták, hogy jó lesz az AI upscalingra, meg is csinálták, mert nem nagy művészet ennek a szoftveres háttere, csak azzal nem számoltak, hogy itt a minőség kulcsa nem a hardveren műlik, ami nálad van, hanem azon, hogy mekkora erőforrást hajlandó a minőségért befektetni a játék fejlesztője. Jelen állás szerint nem sokat, mert a DLSS minősége a játékokban a ritka ronda és a - jó szándékkal - közepes szint között van. És ez ellen nem tud tenni az NVIDIA, mert nem érdekeltek abban a fejlesztők, hogy a legalább jó szinthez szükséges erőforrást belefektessék. Szóval ez alapvetően nem az NVIDIA hibája, látható, hogy a 3DMark DLSS tesztje jól működik (sőt kiválóan), csak az egy 3 perces jelenet, arra nem művészet ezt megcsinálni. Egy 10-20 órás játékra már sokkal körülményesebb. Úgy mondanám ezt, hogy a 3DMark bemutatta, hogy maga a DLSS alapvetően tudja azt, amire tervezték, csak a játékoknál fejlesztők szarnak bele, hogy ezt kihozzák, egyszerűen se erőforrásuk, se pénzük rá, hogy egy korlátozott usernél bekapcsolható fícsőrre koncentráljanak. Emiatt lesz más a konzolnál, mert ott aztán minden usernél működni fog, tehát megéri ebbe pénzt és erőforrást rakni, mert optimalizálásként lehet majd felfogni, és ha már működik, akkor mehet copy-paste PC-re is.
-
huskydog17
addikt
Igen, gondolom azért, mert mindhárom felbontást engedi az összes RTX kártyán DLSS alatt, viszont sajnos DX12-ben grafikai hibák jelenhetnek meg, így járt a CB is, de még Gronkh is emiatt használta a DX11-et. Egyébként érdekes az is, hogy ez is egy olyan cím, ahol a DX11 leképző jobban működik, mint a DX12, egyrészt a régi API alatt nem csak gyorsabb a játék, de a grafikai hibák is eltűnnek.
AMD esetén alapértelmezetten DX11-ben indul a játék, nem véletlen, Navi alatt akár 13%-al is gyorsabban fut így.A CB esetén is a DLSS csak felerősítette a hibákat, illetve 1080p alatt erősen mosott lesz a kép, mivel a játék alapból nem túl éles képet ad (kikapcsolhatatlan élsimítás).
A játék meglehetősen lassú alapból is, ugyanis 1080p alatt az RX580 és GTX 1060 csak minimális grafikán hoz jó sebességet, de mindent elmondanak a grafikonok.
A brutális gépigényt a Hardwareluxx és PCGH tesztjei is megerősítik.
Összességében azért nem vagyok elájulva ettől, mert a játék látványa szerintem messze nem olyan, hogy ekkora gépigényt igényeljen, az meg, hogy a DX11-es leképző jobban működik, mint a DX12-es, nos láttunk már ennél sokkal jobb PC portokat is. Northlight motoron bőven van még mit reszelni.
-
Abu85
HÁZIGAZDA
Viszonyítás kérdése. Ahhoz képest jó, hogy pár játék milyen szar képet rak eléd DLSS-sel, de az elvárható minőségtől fényévekre van.
Ugyanaz a probléma mindig. A jó eredményhez jó neuronháló kell, de mivel alapvetően ez csak egy kikapcsolható fícsőr, így nincs értelme belerakni a gépidőt. És itt elcsúszik az egész, mert nem úgy tekintenek rá a fejlesztők, hogy ezzel optimalizálnak, hanem csak megvásárolja tőlük a funkció beépítését az NVIDIA, de eközben a fejlesztői oldalon kb. semmi kedvük arra, hogy ebbe erőforrást rakjanak. A pénz jól jön, aztán szarnak az egészre, miközben a probléma megoldása kellően bonyolult ahhoz, hogy ha ehhez így állnak hozzá a fejlesztők, akkor annak nagyon felemás eredményei lesznek.
Ezen az segíthetne, ha a Microsoft beállnak az egész mögé a következő generációs Xboxnál, és kb. odatolná az Azure-t a fejlesztők segge alá. Tessék ott egy rakás ingyen számítási kapacitás a felhőben, és csináljátok meg az Xboxra jóra, aztán az a neuronháló vihető PC-re is. Az NV-nél ugye a számítási kapacitás nincs ingyen, hiába a reklámszerződés a funkcióra. Ha kifogy az erre szánt büdzsé, akkor ez van, otthagyják szarul a funkciót. Szóval az iszonyatosan sokat jelentene, ha a fejlesztőknek a Microsoft adna ingyen gépidőt.
-
Nem tudom, nekem valahogy tiszta, hogy a szilícium chip belsejének hőmérséklete és a VGA kártya PCB-jének felületi hőmérséklete nem ugyanaz.
Mindenesetre a chip belsejében mérhető 110°C ijesztő, ebben egyetértünk, és remélhetőleg a custom 5700-akban nem tapasztalunk majd ilyet. Most, hogy már tudjuk mérni.
-
Abu85
HÁZIGAZDA
Nagyjából azt jelentené, igen. Bár itt számít az is, hogy mennyire van közel a dióda a legforróbb ponthoz. Általában nem a lapka közepére szokás rakni, hanem valamelyik shader tömbbe, méghozzá abba a tömbbe, amely közel van az egyes multimédiás blokkokhoz. De ettől persze bőven elképzelhető, hogy a lapka másik végében jóval nagyobb a hőmérséklet egy specifikus munkafolyamat miatt. A Navi 10-nél ez mindegy, ott már teljes hőtérkép van, tehát konkrétan meg tudja mondani a rendszer, hogy hol van a legforróbb pont, és az milyen hőmérsékletű.
Az órajel-szabályozáshoz nem elég, ha csinálsz egy ilyen rendszert, azt is el kell érned, hogy finom szemcsézettségű legyen a paraméterezhetőség. Ezért jött a finomszemcsés DPM mechanizmus és a hőtérképes mérés együtt. Külön-külön nem sokat érnek.
-
Abu85
HÁZIGAZDA
Minden eladott hardver úgy van beállítva, hogy bírja a terhelést. Az hogy képes-e kimérni a szilícium legforróbb pontját, vagy nem lényegében csak azt befolyásolja, hogy képes-e minden pillanatban beállítani a lehetséges legmagasabb órajelet, vagy nem. Tehát attól sincs igazából gond, ha egy hardver nem képes meghatározni a lapka legforróbb pontját, hanem esetleg 10-15°C-szal kisebb hőmérsékletet mér a diódával, mert a tesztek során be lett állítva erre a helyzetre is, és stabilan, a hardver károsodása nélkül átvészeli az egészet. Csak nem akkora órajelen fog futni, mint amekkorával futhatna, ha pontosabb lenne a mérés.
-
Raggie
őstag
Pontosan kimérte a külső felületük hőmérsékletét. De nem azt, hogy belül mennyire voltak melegek.
A VRM-nél ez jóval egyszerűbb, mert ott ha nincs rajta hűtés, akkor kvázi a chip felületét nézed ami kis kiterjedésű és konkrétan pár tized mm-el alatta melegszik.
A GPU-nál ez közel sincs így... -
Abu85
HÁZIGAZDA
A szilícium hőmérsékletét ezzel nem fogod látni.
Az órajel-szabályozás esetében tipikusan az jelenti a problémát, hogy a szilícium nem minden pontján ugyanolyan hőmérsékletű, viszonylag nagy különbség is lehet két pont között, és egy-egy ponton, akár egy másodperc alatt hevülhet vagy hűlhet ~10-15°C-t. Ezeket sehogy sem lehetett eddig mérni. Teszttapasztalatok alapján lehetett rá következtetni, de gyakorlatban mérhetetlenek voltak. A Navi 10 az első GPU, ami mérni tudja ezeket. Valószínűleg nem az utolsó GPU, mert a legnagyobb teljesítményt akkor tudod kihozni a GPU-kból, ha a beépített rendszer tényleg kiméri a legforróbb pontot.
-
Egon
nagyúr
Jaja, PoorVolta 2.0...
Úgy látszik, az AMD-nél nem csak Raja volt az, aki "rajkodik"...Neki legalább nomen est omen, de a többieknek...
Egyébként a konkurenciánál legalább van belőle hír: [link] Úgy látszik Abu kezd óvatos lenni: a beégésre alkalmas hírek inkább nem jelennek meg (elég neki ha a be nem teljesült jóslatai miatt ég...).
-
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ÁRGARANCIA! Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RTX 5090 32GB GAMER PC termékbeszámítással
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RTX 5070Ti 16GB GAMER PC termékbeszámítással
- Lenovo Thinkpad P1 gen1, gen2, P52s FHD, 4K oled touch
- Apple iPhone SE 2020 64GB, Yettel függő, 1 Év Garanciával
- Canon imagePrograf PRO-6100S plotter - szinte új, 500m2 nyomat
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged