- Apple Watch
- Bemutatkozott a Poco X7 és X7 Pro
- Csak semmi szimmetria: flegma dizájnnal készül a Nothing Phone (3)
- Google Pixel 9a - a lapos munka
- Apple iPhone 16 Pro - rutinvizsga
- One mobilszolgáltatások
- Okosóra és okoskiegészítő topik
- CMF Buds Pro 2 - feltekerheted a hangerőt
- Milyen okostelefont vegyek?
- A Galaxy Z Fold7, minden színben és oldalról
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
HSM
félisten
válasz
Jack@l #26268 üzenetére
A 480-nál az utolsó centig kicentizett költségek (NYÁK-méret korlát) és az utolsó pillanatban kb. 150Mhz-el megemelt órajelek eredménye volt ez. Eredeti órajeleivel simán befért volna a keretbe. (Ahogy eredetileg a mérnökök megtervezték.) A Vega mostani állapota még bőven az a stádium, amikor éppen tervezhetik az órajeleket, kialakítást, hűtést, feszültségeket. A Polarisnál nem itt hoztak rossz döntést, hanem amikor ez már rég kész volt, akkor még belenyúltak utólag valamiért (management?), annak lett az eredménye, ami. De ennek semmi köze ahhoz, hogy a Vega-n még bármi lehet a végleges változaton. Egyszerűen ez még nem releváns állapot ebből a szempontból. Gondolhatod, hogy a NYÁK is még messze van a véglegestől, ha mindenféle jel ki van még vezetve arra az USB mérőeszközre a kártya végén...
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25852 üzenetére
Hát akkor meg is vagyunk. Ha ezeket nem olvasod, akkor nem tudod, hogy miket vásárolnak a gyártók, és mely platformnak mekkora a piaci részesedése.
Azt is jelzem, hogy ha az NV az automotive piacon akkora sztár lenne, akkor a Qualcomm a Tegra üzletágért fizetne ~40 milliárd dollárt és nem az NXP-ért. De a Qualcomm elsődlegesen nem üzletágra vagy technológiára vágyik, hanem a nyers piaci részesedést, és a kiépített üzleti csatornának akarja megvásárolni ennyi pénzért.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25847 üzenetére
Mert nem kapsz embedded JPR jelentéseket erről. Nem vagy előfizető. Innentől kezdve csak arról hallasz, amiről a média ír, és nem arról, amit el is adnak. Az NV ennek az automotive dolognak nem a kitalálója, csak beugrókról van szó. Valójában a piacot az NXP uralja. Az IP szempontjából pedig a VeriSilicon az első, de ők is azért, mert megvették a Vivantét.
Az NXP-t is most akarja felvásárolni a Qualcomm, mert egyszerűen be akarja vásárolni magát a piacba. Sokkal egyszerűbb így bekerülni, mint nulláról fejleszteni, mint ahogy azt teszi az NV. -
Abu85
HÁZIGAZDA
válasz
Jack@l #25842 üzenetére
Az önvezető autók nagyrészt VeriSilicon IP-vel furikáznak. Az NV-nek ez azért nem látszik igazán a bevételein, mert a sok reklám ellenére ezen a piacon még mindig 10% alatt van a részesedésük, és elég nehéz növelni ezt olyan versenytársakkal szemben, mint a VeriSilicon.
De a tréningnek csak olyan területei vannak. Ezért használnak Xeon CPU-kat tréninghez és a gyorsítók igazából csak a dedukcióhoz jók.
A Xeon azért erős itt, mert rakhatsz mellé 1+ TB rendszermemóriát. Ennyi. Valójában se a CPU, se a GPU nem túl ideális ide, mert leszámítva az extrém memóriaigényt a futtatott kódok 95%-a GEMM, tehát a legjobb egy erre kialakított célhardver.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25839 üzenetére
A Deep Learninget az Intel tarolja folyamatosan. A gyorsítók még csak most kezdenek bejönni, de egyelőre a teljes piac egy nagyon kis szeletéig jutottak el. A GPU-k nem is igazán alkalmasak tréningre, mert nagyon kevés a memóriájuk hozzá. Úgy 1 TB-nál kezdődik az a memória, ami alkalmassá tenné őket erre. Akár lassú memória is jó, csak legyen ott a kapacitás. Ahol a GPU-k jók az csak a dedukció.
-
füles_
őstag
válasz
Jack@l #25790 üzenetére
Ha ennyire nyomják az LLAPI-kat meg a 4K-t akkor miért egy DX11 vagy esetleg egy OpenGL API-s játékban mutassák meg a Vega teljesítményét?Na meg FullHD-ban,385595 FPS-el nem?
Nem értem ezen mi olyan meglepő hogy egy olyan játékban és olyan beállításokkal mutatják be az új kártyát,ami annak fekszik és elsősorban arra lett tervezve.(#25791)
Ezt szerintem nem nekem szántad -
Abu85
HÁZIGAZDA
válasz
Jack@l #25726 üzenetére
130-an voltak részei a Mantle Access programnak. 100 volt ismert, de többen voltak, viszont a harmadik kört nem nyitották meg, ugyanis akkor már tudta az AMD, hogy a Mantle-t odaadják a Khronosnak, hogy Vulkánt csináljanak belőle. Viszont ezek a csapatok megcsinálták magát a leképezőt, amiből nagyon könnyen tudnak DX12 és Vulkan leképezőt csinálni. Nem az API-k közötti váltás jelenti a gondot, a legtöbb motor kezeli majdnem mindet. De nem mindegyik API igényli ugyanazt a motorstruktúrát. A DX11 és OGL hasonlót követel, míg a Mantle/DX12/Vulkan mást. De utóbbi három API-ban az a különleges, hogy ugyanazok az igényeik a motorstruktúrára. Tehát aki részt vett a Mantle Access programban már új struktúrájú motort használ. Ezek a fejlesztői programok nagyon fontosak a gyors terjedéshez. Máig ugye 27 explicit API-t támogató játék jelent meg, és jövőre egy egészen friss adat szerint 50+-t várunk csak DX12-ből. Ha most állnának neki a cégek a motorstruktúra átírásának, akkor 10-et nem várhatnánk jövőre.
Egyébként nem valószínű, hogy a Nitroust valaha is odaadják egy konzorciumnak, hogy csináljon belőle egy nyílt rendszert. A Mantle esetében ez logikus volt, mert a Khronosnak kellett valami a Vulkan megvalósításához, de a Nitrous egy üzleti konstrukció. Ezt licencelni lehet pénzért, nem kevés pénzért.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25723 üzenetére
Nyilván nem rövidtávú befektetés ez. A Nitrous az első motor, ami arra épül, hogy valósítson meg valós időben egy Reyes-szerű leképezést. Ezzel tulajdonképpen közelebb kerülhet a valós idejű grafika a trükkmentes CGI-hoz. Nem kell eltérő fényforrásokat kreálni, nem kellenek trükkök százai a jó eredményhez, hanem a rendszer egyszerűen csak jót számol, és nem csak jól, hanem nagyon gyorsan is. Ennek a megtérülési ideje cirka 10 év minimum. Emellett a gyártók maguk is licencelők, tehát házon belül megvan a Nitrous, és ezt akárhogy módosíthatják, illetve hozzáigazíthatják a jövőben érkező hardvereiket. Tipikus win-win szituáció mindenkinek.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25685 üzenetére
Nem lehet kikapcsolni DX12-ben az aszinkron compute-ot. A Microsoft szándékosan építette fel így a rendszert, ugyanis ilyen formában az API sokkal hibatűrőbb. A Vulkan is át lesz dolgozva ilyen modellre az 1.1-ben, mert a normál támogat-nem támogat modell nagyon kedvezőtlen.
-
Z10N
veterán
válasz
Jack@l #25646 üzenetére
Azt akartam hangsulyozni, hogy a negyedik iteraciora mar csak elertek odaig, hogy ez kivitelezheto legyen. Ilyen szempontbol a cGPU jelzot csak gyujtonevnek hasznaltam. Lehet eddig ugyan ugy hallgattak rola, mint a tonga 6x64bit memvezerlorol vagy a 285X-rol. Lehet erre kellett meg fel ev, hogy kivalogassak az alacsony fogysztasu lapkakat, ezt a hw szintu osszekapcsolast es a sw-s reteget megirjak hozza. Pusztan spekulcaio.
-
füles_
őstag
válasz
Jack@l #25658 üzenetére
Szerintem ez a kisebb lesz.Ha jól emlékszem a nagyra 16GB HBM2-t pletykáltak,kizártnak tartom hogy ezt küldjék a GTX 1080 ellen.
Így képzelem el:
RX 580-full Vega11 (kisebb),GTX 1070-1080 közötti perf. (Ez lenne az amit linkeltél)
RX 570-csonkított Vega11,GTX 1070 perf.A Vega10-ből meg lesznek a presztízs VGA-k (mint a Furyk és a Nano volt)
Az egész Polaris széria meg lehet kap egy rev. 2-őt
-
Petykemano
veterán
válasz
Jack@l #25658 üzenetére
Abu (hiányzó) válaszaiból erre lehet következtetni:
- dual polaris virtuálisan 1 GPU-nak láttatva magát.
(- Csodálatos szoftveres teljesítmény)
- be fogják mutatni élőben: dec 13-án ezt fogja hajtani a Zen.Alapvetően elfogadható magyarázat lenne, hogy ennek értelmes összerakásához meg kellett várni és/vagy ki kellett válogatni megfelelően alacsony fogyasztású chipeket. A P10 bemutatóján demózott CF RX 480-nel is összecsengene. Ugyanakkor egy ilyen kártyát szerintem nem lehetne $399-nál drágábban eladni.
Nagy vegának (4k shader) meglepően gyenge. Persze attól még nem lehet kizárni: ha a gfx9 sok előrelépést nem jelent, akkor egy shrinkelt fiji GFX9 alapra áthelyezve, de a polarishoz hasonlóan alacsony órajellel, szűkre vett spórolós sávszélességgel (2x1024bit + 2 4GB stack @ 1Ghz) nagyjából ezt a teljesítményt hozná.
Kis vegának (~2.5-3k shader) meglepően erős lenne. (Ez az optimista ág)
2816 shaderrel (ami 22%-kal nagyobb, mint a P10), 1500Mhz-cel (amit a GP107 is elér 14LPP-n és ami 18%-kal magasabb, mint a csiszolatlan P10@14LPP) és a 256 helyett 512MB/s sávszéleségnövekedésből a többi rész arányos növekedése feletti rész felével történő skálázódással számolva (512/(256*1,22*1,18) =1.4 => 20%) nagyjából teljesíthető lenne. De ez a kézbilibelógatós történet.Abu válaszaiból erre biztosan lehet következtetni:
- akármelyik is áll közel a valósághoz a fentiekből - vagy akármelyik nem - azt be fogják mutatni dec 13-án. -
Abu85
HÁZIGAZDA
válasz
Jack@l #25651 üzenetére
Akkor leírom részletesebben. Az NV a cGPU-t a Fermi megjelenésekor definiálta. A definíció szerint azok a GPU-k tartoznak ide, amelyeknél egy tömbnyi szálcsoport ugyanazt a kernelt futtatja, és az adatokat a globális memóriából olvassa és a globális memóriába írja.
Az AMD definíciója tulajdonképpen ugyanez, de ki van egészítve azzal, hogy az erőforrások kezelésére a teljes elérhető címtartományt fel lehet használni.
Az Intel definíciója a Larrabee esetében ezeknél annyiban eltérő, hogy nem ennyire architektúraspecifikus, hanem sokkal inkább egy általános leírást ad meg. Nevezetesen egy futtatott kernel, akármilyen körülmény között tudjon olvasni a globális memóriából és írni oda, illetve a multiprocesszor erőforrás-kezelése legyen teljesen programozható. -
Abu85
HÁZIGAZDA
válasz
Jack@l #25648 üzenetére
Nem kell megmagyarázni. A gyártóknak joguk van saját definíciót írni a cGPU-ra. Az NV definíciója jóval engedékenyebb, míg az AMD-é például nagyon szigorú, ugyanis az AMD konkrétan csak azt tekinti cGPU-nak, ahol a teljes címtartomány feltölthető erőforrásokkal. Nyilvánvaló, hogy ezzel a definícióval csak a GCN a cGPU.
A legelfogadottabb definíció azonban az Intelé még a Larrabee időszakából. -
Abu85
HÁZIGAZDA
válasz
Jack@l #25646 üzenetére
Nem igazán. A compute gpu igazából arra vonatkozik, hogy a GPU bekötése teljesen programozható, vagyis a rendszer egy memóriaalapú architektúra. Nincsenek benne fix slotok, hanem egy programozható egység gondoskodik arról, hogy minden API-hoz tökéletesen igazodhasson. Ezt eredetileg az Intel hozta fel még a Larrabee kapcsán, amikor a magokon belül erről a skalárfeldolgozó gondoskodott. Ma ilyen rendszer az AMD GCN, illetve az ARM Bifrost.
-
Ren Hoek
veterán
válasz
Jack@l #25635 üzenetére
Nekem inkább az a félelmem, ha túlerőltetik a felsőkategóriát, akkor majd tényleg nem lehet akkorát vágni, hogy 1070 legyen belőle.
150-170 alatt lehet nem is jönne Vega, csak majd sokkal később? Az lenne a baj.
Márpedig az 100%, hogy egy dollárral se fogják kevesebbért adni, mint NV. HBM2, profithiány stb... Fury is szinte picit drágább is volt.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25582 üzenetére
Ezért is remélem, hogy ráperecelnek, és nem a DX12-re mennek a fejlesztők, hanem a Vulkan API-ra. Sokkal kiszámíthatóbb a piac, ha a Microsoftnak nincs ekkora kontrollja felette. És a Vulkan már nem is olyan fos, mint az OpenGL. A DX12-t csak azoknak kellene megfontolniuk, akiknek tényleg kell valami olyan funkció belőle, ami a Vulkan API-ban nincs.
(#25583) gyiku: hülyék lennének utána.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25579 üzenetére
Mantle-ből kaptunk egy Vulkan API-t. Azzal mi a baj?
A HSA már létezik. Az AMD-nél ROCm néven fut. Egy éve elérhető a meghajtó.
TrueAudio 2 nincs. Csak TrueAudio van, de az valóban nem futott be, mivel nem nyitották meg. Sajnos a Sony-é volt a rendszer. Ugyanakkor a TrueAudio Next már szabványos API, ami akármilyen OpenCL 1.1-es hardveren fut, és máris bele van integrálva az Unreal Engine 4-be és a Unity 5-be.A DX12 terjedése egyébként nem hiszem, hogy a fejlesztőkön múlik. Sokkal inkább annak a következménye, hogy a Microsoft kihúzza a talajt a DX11 alól, és a fejlesztőeszközeiknél átrakják legacy státuszba. Ilyenkor már akkora többletköltség egy API, hogy megéri továbblépni. Ez egy kikényszerített átállás.
-
leviske
veterán
válasz
Jack@l #25545 üzenetére
Szerintem bevételre gondol, nem árrésre. Egy GTX1050-ből elmehet 100x annyi is, mint a GTX1080-ból. DE NEM ERRŐL VOLT SZÓ A HOZZÁSZÓLÁSOMBAN.
(#25546) cain69: Szerintem a Vega 10 és a Greenland elég nagy területet le fog fedni a workstation piacon, nem hiszem, hogy feltétlen kell az esetlegesen megjelenő kisebbik Vega-ból is 32GB-os verzió.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25470 üzenetére
Mert a HDR10 formátum, ami nem köthető az aljzathoz.
Maga a Polaris sorozat HDMI 2.0b és DisplayPort 1.4a kimenetekkel rendelkezik. Ezek közül a HDMI 2.0b alatt a határ 4K-60Hz-10 bit-4:2:2. A DisplayPort 1.4a interfészen a határ 4K-96Hz-10 bit-4:4:4.
Az már amúgy egy másik kérdés, hogy amikor a játékok tonemaping futószalagját eleve nem HDR-re tervezik, akkor mennyire éri meg 10 bitet használni, mert bőven lehet, hogy a mai tapasztalatot nélkülöző futószalagon többet ér a 4:4:4 8 bit, mint a 4:2:2 10 bit.
A konkurencia is ugyanezektől a limitektől függ. Az NV is 8 bittel dolgozik jelenleg, ezért nem volt különbség az RX400 és a GTX1000 HDR képminősége között a Heise.de szerint. De nyilván az NV is képes lenne beállítani 10 bitet 4:2:2-vel, csak ma annyira rossz a tonemaping futószalagra vonatkozó tapasztalat, hogy nem lenne a legjobb döntés. Inkább romlana, mint javulna tőle a képminőség. Majd fél év múlva sokkal jobb tonemaping futószalagokat kapnak a játékok, mert folyamatosan gyűlik a tapasztalat.
A legtöbb játékos egyébként HDR monitort fog venni, mert ott a DisplayPort 1.4a miatt nem kell meghozni a HDMI2.0b áldozatait.A Heise.de tesztjében az egész azért merült fel, mert a HDR-től az RX400 szinte nem veszít semennyi sebességet, míg a GTX1000 igen, ráadásul viszonylag sokat. De ennek az oka pusztán hardveres. A Polaris tartalmaz pár fast path futószalagot HDR-re, így alig kell sebességvesztéssel számolni, míg a Pascalban ilyen trükkök nincsenek.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25465 üzenetére
Semmi baj a kábelekkel és az AMD-vel. A gond a HDMI 2.0a sávszélessége. Ennyi. Nem tud vele senki sem mit kezdeni. Majd jön a következő aljzat és megoldja. De mint írtam ez nem újdonság. Az AMD már a nyáron elmondta, hogy minden, amit a HDR-re megosztottak az a DisplayPort 1.4-re vont igaz. A HDMI 2.0-n limitáltan fog működni a kevés sávszélesség miatt.
A tévégyártók mozizásra dolgoznak és nem játékra. Nekik megfelel a HDMI 2.0, mert a probléma a 30 Hz fölötti frissítéshez kapcsolódik. Csak 4K 60 Hz-en kell trükközni, mert akkor lesz szűkös a sávszél. -
-
HSM
félisten
válasz
Jack@l #25465 üzenetére
A guru-n azt írják: "In a test at heise they checked out Shadow Warrior 2 in HDR a Radeon RX 480 which showed similar visual results towards a GeForce GTX 1080. So it seems this is the case for Nvidia as well and likely Nvidia is using a similar trick at 8-bit also. Nvidia has not yet shared info on this though."
Szval talán kicsit korai kijelenteni, hogy ők csúsztak volna el valamin.... -
Abu85
HÁZIGAZDA
válasz
Jack@l #25459 üzenetére
Ez minden HDMI 2.0-s kártyára igaz. Nincs elég sávszál a HDMI 2.0a-ban, hogy kinyomja a 10 bitet 4K-ban. Ahhoz DisplayPort 1.4 kell. Ezt lassan egy éve lehet tudni.
Ezt az AMD kihangsúlyozta a Polaris megjelenésekor is, hogy a 4K HDR HDMI 2.0a-n keresztül limitált, mert az interfész nem elég gyors. DisplayPort 1.4-re adtak meg minden HDR-re vonatkozó specifikációt.
-
huskydog17
addikt
válasz
Jack@l #25459 üzenetére
Erről sem született hír:
PS4 Pro Suffering Widespread TV Connection Failures -
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25388 üzenetére
A DXdiag mindig a friss API-hoz van igazítva.
(#25389) namaste: A részleteket a gyártók nagyon titkolják, mert elég egyszerű a koncepciókat lemásolni. Ezeket a dolgokat is onnan tudom, hogy az AMD és az NV is néha csinál olyan briefinget, ahol közvetlenül lehet kérdezni technikai embereket, akik tényleg ezen dolgoznak. Az explicit API-k miatt a memóriamenedzsment fő téma volt ezeken, mert ebben különböznek a legjobban az új API-k a régitől. Voltak egyébként olyan kérdések, amelyekre nem válaszolnak a cégek, mert ha közzétennék az eredményeiket, akkor azzal segítenének a másiknak, hogy az erőforrásukat milyen irányba fordítsák.
Az új API-kkal ez sokkal egyszerűbbé válik, mert sokkal gyorsabban lehet adatot törölni a memóriából. Ott más problémák vannak. -
Abu85
HÁZIGAZDA
válasz
Jack@l #25370 üzenetére
Ez pont jól jelzi, hogy mennyire félremérnek a programok. A Fury nem használ 3,5 GB-nál több VRAM-ot direkten címzésre, mert 512 MB a gyorsítótárként használt terület.
(#25371) do3om: Ellenkezőleg. Pont én védtem őket azzal, hogy a 970 valóban 4 GB-os, míg a közvélemény szerint csak 3,5. [link] - még a teszteket is kielemeztem, hogy nem úgy van az, ahogy azt a többi média hinni akarja.
-
Ren Hoek
veterán
válasz
Jack@l #25233 üzenetére
Arra gondolok, ha ugyan azt megy mint egy 1070, akkor milyen alapon adhatnák többért, (130-140K)?
Ki a rosseb veszi meg többért ugyan azt? Csak mert HBM? Furyn se jelent semmit kb...
És itt van a probléma... NV kétszer húzta be a profitot ezeken. Első körben a Founders, aztán a konkurencia nélküli árak... és most kezd normalizálódni 130-140 körük. AMD ezt az extra profitot bukta... és még benne van, hogy csökkent egy kis árat NV és már meg is fojtotta a Vegát. Ne feledjük, hogy baromi sokan megvették az 1070-1080-at, szóval szűkül a piac rendesen. Senki nem olyan türelmes mint mi, akik fél évig szopunk IGP-vel.
-
Ren Hoek
veterán
válasz
Jack@l #25121 üzenetére
+ vagy már megvolt augusztusra a full készlet, de Huang Zsen-hszün Józsi bácsi, a Fab 3 gyártósori takarítójának bal nagylábujjkörméről átugrott egy szilíciumevő csiperke faj... és begombáltak a csippek. Sajnos újra le kellett gyártani bekenve egy kis Canesten Kombival.
(Viccen kívül, volt valami délamerikából származó CD evő gombafaj, ami pont az adatréteget ette meg, és nyekk vége is volt a jó kis Red Alert CD-dnek:d)
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25097 üzenetére
A latency azért más fogalom, mert lehet eltérő a flip-queue méret, és akkor máris jelentősen módosult a késleltetés annak ellenére, hogy az fps minden paraméterrel ugyanaz. Ezért nem szabad a késleltetést belekeverni a CPU fps-be és a GPU fps-be. A VR esetében azért egyszerű a történet, mert a flip-queue méret mindig 1, illetve a pufferelés is közvetlen, front bufferes megoldás. Egy nem VR játékban azért számos lehetőség van még ezeken kívül.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #25093 üzenetére
A Doomban a programba épített statisztikában csak GPU fps-t ír ki. Valószínűleg képes lenne egyébként CPU fps-t is kiírni, csak a fejlesztők nem tartották fontosnak a kijelzését, mivel sokat trükköznek.
A kérdésedből egyébként rosszul értelmezed már magát a fogalmakat is. A CPU fps az a presentek között eltelt idő, míg a GPU fps a bemeneti adatok megérkezésétől a kimeneti kép elkészültéig eltelt idő. Ilyet régebben is csak maga a motor tudott mérni, mert egy 3rd party program nem kapott hozzáférést az alkalmazáshoz és az alkalmazás által lefoglalt erőforráshoz, amit a driver vezérelt. -
HSM
félisten
válasz
Jack@l #25075 üzenetére
Másfél hónap elég sok idő, ha csak annyi a dolgod, hogy rázd gatyába a DX12 kódot.... Nyilván csodát sem lehet ennyi idő alatt tenni. Majd meglátjuk. A sebesség amúgy DX11 alatt is pocsék volt, szval lesz mit csináljanak.
Ez inkább állhat a DX12 optimalizálgatás útjába.... Ahogy annak idején is a DX11 gatyába rázás kellett a prioritás legyen, és csak utána rázták gatyába a Mantle-t.
-
Jack@l
veterán
válasz
Jack@l #25068 üzenetére
UI: a link lemaradt
http://www.pcgameshardware.de/Battlefield-1-2016-Spiel-54981/Specials/Technik-Systemanforderungen-Benchmarks-1206197/Abu: Akkor majd az évek óta mantle-el mesteri szintre fejlődött Frostbite motor most megmutathatja.
-
Yany
addikt
válasz
Jack@l #25063 üzenetére
Az nagyon durva, orbitális blama lenne mind az AMD felé, mind a DX12 felé. Gyakorlatilag a DX12-be vetett hitet és az AMD egész jövőképét kérdőjelezné meg... hogy akkor most mire is ez a nagy áldozás?
Miért írom ezt? Minden AMD vásárló a megjelenés előtt álló játékoktól várja a megváltást és a manifesztálódó ígéreteket, miszerint azért jobbak ár/teljesítmény/fogyasztás mutatói a GeForce-nak, mert csak az aktuális/elavult játékok meghajtására koncentrál, de szépen lemaradnak, amint az új gémek jelennek meg. De ha a BF1 képtelen jobbat mutatni DX12-n, mint DX11-en, az Vulkan-os Doom ide vagy oda, le fogja húzni csúnyán a DX és a GCN imidzsét is egy DX11 only BF, vagy egy azonos/rosszabb tempójú DX12 mód.
-
HSM
félisten
válasz
Jack@l #25033 üzenetére
Azért ne bohóckodjunk már... Egy 7850 lepkefing egy 390/Fury kaliberű kártya mellett....Talán ezek sebességének a harmadát tudja, jó esetben....
Itt arról volt szó, hogy ezekkel a kártyákkal a legtöbb játékban valószínűleg már találni olyan beállítást, amivel kis kompromisszummal (FPS, képminőség) már játszhatóak elfogadható sebességgel 4K-n. A 7850-en erre vajmi kevés esélyt látok. -
Abu85
HÁZIGAZDA
válasz
Jack@l #24951 üzenetére
A Doomra válaszoltak a többiek.
A GDDR5X-et az AMD nem utasítja el, de nincsenek mellette. Ezt a memóriát a szabványosítás ellenére sem fogja átvenni a Hynix és a Samsung, ezért pokolian drága marad. Jelenleg ugyanazzal a kapacitással egy GDDR5X memóriachip 5x drágább a GDDR5-nél. A HBM2 ára gyakorlatilag majdnem ugynannyi, mintha GDDR5X-re építenének, és HBM2-ből lesz verseny, mert csinál a Hynix és a Samsung is ilyen memóriát. A következő év elejére a HBM2-t jobban megéri választani, mint GDDR5X-et, mert olcsóbb lesz a kiépítési költsége. A GDDR5X ugyanabba a problémába esett bele, amibe a GDDR5M. Senki sem akarta gyártani a kitalálóján kívül, így nem volt esély arra, hogy valaha is értékelhető ára lesz.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #24922 üzenetére
És az AMD-nek a bérgyártója a 7 nm-es node-ra a GlobalFoundries lesz, ahogy egyébként az IBM-nek is.
Nem értem minek a régi pletykákat nézni, amikor a GlobalFoundries hivatalosan bejelentette az elmúlt héten, hogy 2018Q2-ben kezdik a tömeggyártást. A TSMC 7 nm-es node-jának 2018Q1-ben, míg a Samsung 7 nm-es node-jának 2018H2-ben kezdődik a tömeggyártása. -
Abu85
HÁZIGAZDA
válasz
Jack@l #24918 üzenetére
Az Intel bármikor rendelhet lapkát 7 nm-es node-on a GlobalFoundriestól. Ez az ő döntésük. De most attól a GlobalFoundries nem vár a 7 nm-es node-jának a bevezetésével addig, amíg az Intel is bevezeti az így számozott node-ját. Nekik a TSMC a lényeg, mert ők is 2018-ra vezetik be a 7 nm-t, és a Samsung sincs nagyon lemaradva, mivel még 2019 előtt elkészül a saját 7 nm-es node-juk.
Az Intel ma még nem fenyegető mint bérgyártó, mert például nincs ARM POP IP-jük, ami sok ARM-os cégnek számít, és hasonló alapvető hiányosságok, amiket csak idővel lehet pótolni.Mint írtam a VEGA20 egyelőre egy szerverterméknek van felírva. A fő újításai is a szerverpiacot célozzák. Nem is biztos, hogy lesz belőle asztali verzió, ahogy például a GP100-ból sincs.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #24912 üzenetére
A VEGA20 az 2018Q2, akkor kezdődik a 7 nm-es Glofo node tömeggyártása. Arra három termék van jelenleg előirányozva. Egy IBM CPU, egy AMD CPU és egy AMD GPU. Ez az AMD CPU és GPU egy nagyobb projekt része lesz a szerverpiacon, mivel lesz olyan termék ide, ahol ez a két lapka egy tokozásba kerül. [link] - ebből lesz kísérleti verzió, de a 7 nm-en fog valós termékként megjelenni. A kísérleti verzió az olyan lesz, mint most az SSG. Rendelhető és használható, de nem valós termék. Nem biztos egyébként, hogy a valós termék hagyományos GPU is lesz, tehát lehet, hogy kihagyják belőle a grafikai feldolgozókat.
-
Malibutomi
nagyúr
válasz
Jack@l #24882 üzenetére
En nem irtam hogy az AMD javult, de hogy a csokkeno tortabol most nagyobb resz az ovek mint elotte volt az teny.
De egyebkent vicces hogy kerdezed, hisz az altalad emlitet szuper cikkben ott vannak ugyanezek a szamok a tablazatban, csak ott a darabszam is.
UI: pedig a téma pont idevaló, elég durván körvonalazódik a jövő, ha folytatják a minimális fejlesztést, évi 1 kiadott kártyával és vágott tesóival
Akkor marad ez a tendencia mint az elmult evben, hogy minden negyedevben visszaszereznek nemi piaci reszesedest? Vagy mire gondolsz?
-
-
stratova
veterán
válasz
Jack@l #24797 üzenetére
Szvsz ez erősen függ attól milyen órajelre lövik be a kártyát, hiszen egy Fury X [8,6 TFLOPs] TDP kerete 275 W míg egy Fury Nano [8,19 TFLOPs] 175 W* (hivatalosan).
Másrészt ez korábban egy elméleti maximális számítási teljesítmény volt, amit komoly ALU terhelés alatt nyilván nem fog hozni (emiatt is veszi vissza Fury Nano az órajelét pl FurMark alatt).Bár Nano compute teljesítménye még így is derék, ez alapján nem lehet következtetni általánosságban a játékok alatt mutatott teljesítményére.
Egyébként ezen a téren is fejlődött Polaris pl. Tongához mérten.
Épp a mobil Polarisoknál került szóba, hogy a beállított TDP-kerethet igazodik az elérhető órajel/profil, szerintem ezt simán megjátsszák "asztaliban", ha tartani kell a 225 W-os keretet a professzionális szegmens miatt.
-
stratova
veterán
válasz
Jack@l #24690 üzenetére
Egy dolog, hogy mikor demóznak egy terméket és egy másik mikor kerül piacra. Egyébként itt a szokásos oldalon elérhető a teljes pdf, de a híroldalak többsége az érdekesebb részeket már kitette.
Szubjektív, de szvsz:
GTX Titan X/(GTX 1080 Ti) csúcs
GTX 1080/1070 felső
GTX 1060/(1050?) közép RX 480/470
[GTX 960/950] alsó-belépő RX 460 -
Laja333
őstag
válasz
Jack@l #24704 üzenetére
Szkeptikus vagyok az árzuhanással kapcsolatban.
Egyrészt a külföldi árak azért nem tűnnek drágábbnak, mint a mondjuk 2 generációval ezelőtti árak. Egyedül a gtx 970 volt "nyomott áron", de a mostani 400 eurós ára az 1070 esetében visszaállt oda, ahol anno a 770 volt.
Magyar árak meg... olyanok amilyenek.
Másrészt nekem úgy tűnik, most inkább a kereslet nagyobb mint a kínálat mindkét oldalon. Akkor esetleg lehet árcsökkenés, ha ez a helyzet javul. De ha új VGA-knál ugyan ez lesz, akkor az nem igazán fog javítani az árakon. -
leviske
veterán
válasz
Jack@l #24696 üzenetére
A Polaris 10 szerintem az RX470 árához viszonyítva elég nagy GPU, drága nyákkal, költséges gyártástechnológiával. Ráadásul a 480 sincs elég messze árban ahhoz, hogy legyen értelme csökkenteni. Ameddig meg ezeknek az ára nem mozog, az nVidia se szorul rá a GTX1060 árának a variálására.
Amennyiben pedig az AMD az eddigi gyakorlatot tartja, nem úgy fogja beárazni a Vega alapú kártyákat, hogy komoly mozgást generáljanak a piacon.
Persze ne legyen igazam és essenek az árak.
-
Malibutomi
nagyúr
válasz
Jack@l #24690 üzenetére
Az "enthisiast" (2017 Vega a slideon/csucskategoria), es a mainstream (Polaris 10) kozott elvileg meg van egy performance szegmens is. Oda pont illene a kis Vega ami allitolag lesz osszel.
Persze ettol meg nem biztos hogy jon, de a slidon csak azenthusiast (csucskategoria) van emlitve. -
Abu85
HÁZIGAZDA
válasz
Jack@l #17667 üzenetére
Az Ashes és a Fable Legends futott már a 15.7-es driverrel is, persze csak GCN1/2/3 hardvereken.
#17669) Jack@l: Ja látom. Nem érted az API működését. A DX12-ben eleve nem feature level alapján ellenőrzöl, hanem egyedi funkciónként. Kivéve a kötelező funkciókat, mert azt az erőforrás-ellenőrzéskor a Windows fogja a legmagasabb szintre kiosztani.
Kaveriben GCN2 van.
-
Z10N
veterán
Új hozzászólás Aktív témák
Hirdetés
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Windows! Logitech Mx Keys Magyar!
- ÁRGARANCIA!Épített KomPhone i5 13400F 16/32/64GB RAM RX 7700 XT 12GB GAMER PC termékbeszámítással
- Xiaomi Redmi Note 10 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
- Telefon felvásárlás!! Xiaomi Redmi Note 12, Xiaomi Redmi Note 12 Pro, Xiaomi Redmi Note 12 Pro+
- MSI CreatorPro Z16P - i7-12700H, RTX A5500, értintőkijelző
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged