- iPhone topik
- Jókora telepet kapott a OnePlus 13 is
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Apple iPhone 15 Pro Max - Attack on Titan
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Xiaomi Mi 10T - erre vártunk idén
- Android szakmai topik
- Android alkalmazások - szoftver kibeszélő topik
- Nothing Phone (2a) Plus - semmi lényegi plusz
- Ezek a OnePlus 12 és 12R európai árai
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Jack@l
veterán
Piacképesek, mert olcsók és irodai munkára, böngészni, videózni teljesen jók.
Persze amd ezt a kört már tizensok éve bukta és remélem már nem ezen a területen akar most versenyezni
A kaby lagke G még mindig csak az alsó kategóriás dgpu-kat rémisztgeti aranyáron, meg persze az aktuális apu vga-kat... (de azokhoz képest se sokkal gyorsabb)[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Látom félre akarod magyarázni a dolgot: az emberek 90%-a nem igényli a gyors vga-t, azért van úgy elterjedve az intel féle papír igp. Ne akard azt beadni, hogy most majd ebből a techdemo projectből bazi nagy haszna lesz az amd-nek. Nem fognak milliós tételben eladni belőlük, főleg ilyen áron.
Arra lesz jó, hogy azt a nem túl nagy lemaradást behozza igp téren is az intel(az utolsó iris-ek elég jók már). Onnantól kezdve a saját cuccát tolja majd.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Ilyet már hallottunk sokszor. Azért van az hogy már a középkategóriás laptopokban is ott figyel a külön gpu...
De inkább mesélj a nagy összeintegrált koherens memóriás apu-król amikről 5-6 éve hallunk de még mindig nem találkoztunk velük. Erre jön a hátraarc és proci mellé pakolt külön tokozású gpu-kra/vramra tér át az ipar?[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Petykemano
veterán
Abban az értelemben, hogy jó-e, nem, nem piacképes. De abban az értelemben, hogy az intel csomagban adta, úgy igen. Ebból lett a 70%. Nyilván van az az árszint, ahol a semmilyen integrált grafika is megteszi, mert egyáltalán nem szempont.
A skylake megjelenésével volt egy olyan történet, hogy az intel kérte a oem-eket, hogy mivel a skylake igp-je már kellően erős, ne tegyenek mellé dgpu-t.
A 70%-ot senki nem kérdőjelezte meg és azt, hogy ennek van jelentősége.
Én csak annyit állítottam, hogy
a) szerintem ezt a 70%-os piaci részesedést szerinten nem fogja tudni feljebb tornászni a kaby lake G , legalábbis egyelőre nem, mert szerintem kellően drágán fogja adni az intel, hogy ne legyen olcsóbb, mint egy sima kaby lake és egy dgpu. Ennek szerintem az lehet majd az oka, hogy ez a kombó egy kisebb notebook összerakását teszi lehetővé, a kisebb meg mindig drágább. Tehát lehetséges, hogy ez a termék lehetővé teszi a magasabb grafikus teljesíményű vékony notik piacra dobását, de az egy niche prémium kategória lesz
b) a raven ridgenek cpu és gpu teljesítménye alapján papíron lehetősége lenne az intel IGP és a kaby lake G teljesítmény szint között tarolni azoknál a szegmenseknél, ahol jelenleg az intel CPU mellé tesznek dGPU-t. Ez mondjuk a piac 5-10% lehet hasraütésszerűen, ha abból indulunk ki, hogy az intel az olcsó igp-vel dgpu nélkül visz 70%-ot.
De nem fog (a RR), mert az oem majd szépen kiheréli a grafikus teljesítmény 1 slotos rammal, aztán konstatálja, hogy hát ez így olcsóbb dgpu notebooknak drága, dgpu-s notebookkal szemben grafikus teljesítményben gyenge, ehhez még kell egy dgput, akkor meg újfent drága.Én úgy látom, hogy két dolog veszélyeztetheti a status quot:
1) egy integrált AMD megoldás (pGPU), ami olcsóbb, mint a szerintem prémiumban megjelenő intel kaby lake g.
2) Jelenleg az amd apukban rejlő csak extra RAM hozzáadásával kiaknázható grafikkus teljesítményért az AMD prémiumot kér. Ezért alulról valójában csak az a piacvezető CPU tud veszélyes lenni a dpu-kra (30%), amelyik ezzel költséget spórol az OEMnek.Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Azt persze senki nem vonja kétségbe, hogy az IGP és a pGPU hosszútávon sikeresebb lesz, mint a diszkrét.
De a közeljövő értelmézésében ott siklasz ki szerintem, hogy a múltból indulsz ki. A múltban az intel IGP teljesítménye vagy skálázódott fölfelé a CPU teljesítménnyel (jobb proci, jobb IGP, magasabb ár), vagy legrosszabb esetben egyenletes volt. Tehát egy jobb (drágább) termék rendelkezhetett jobb CPU teljesítménnyel, és vagy ugyanolyan, vagy valamivel jobb IGP teljesítménnyel. Olyan intel termék idáig csak egy volt, ami CPU teljesítményben nem, csak GPU teljesítményben nyújtott jobbat egy árban alatta levőnél. (broadwell i7 5775C) És ez nem is lett nagy siker, egyáltalán nem lehet azt mondani, hogy kiiktatta volna a dGPU-kat. Ezen a terepen próbálkozott az AMD is: közepes CPU teljesítmény, jobb - akár a legjobbnál is jobb - IGP teljesítmény --- és senkit nem érdekelt.
a pGPU ugyanezen a terepen játszik: semmiben nem jobb CPU egy erős GPU-val.
Korábban nem volt olyan intel termék, amelynél az OEM akár mérlegelhetett volna, hogy csak a CPU-t kéri az inteltől, a grafikát meg majd más termékkel oldja meg. Mert csomagban jött: kell a jobb CPU? Tessék itt a jobb GPU is. Jelenleg viszont kínál az intel olyan terméket, amiben nincs benne a pGPU is, meg olyat is, amiben benne van - azonos CPU teljesíménnyel. Ebben az esetben - persze amíg a technikai feltételek adottak - az OEM igenis mérlegelheti, hogy kell-e a pGPU, vagy máshogy oldja meg a magasabb grafikus teljesítményt.Kivéve persze ha azt mondod, hogy innentől fogva az intel a mobil i7-eket, a legmagasabb mobil CPU teljesítményt kizárólag pGPU-s csomagban adja. Na akkor, ha kell a legmagasabb CPU teljesítényt, akkor tényleg kénytelen megvenni az OEM a csomagban jövő pGPU-t is. És akkor tényleg egyre szűkebb szegmensben fog már azon gondolkodni, hogy akar-e még valamilyen diszkrét kütyüt is mellérakni.
A pGPU-s vagy pGPU nélküi i7 mérlegeléséből persze még mindig kijöhet a pGPU-s változat győztesen. Nyilván a nagyon vékony notebooknál nincs is más lehetőség. Vagy ha valaki ugyanolyan notebook méret mellett nagyon rá akar menni az üzemidőre, és feltölti a felszabadult helyet akksival, akkor is jól jön. De ezekért mind borsosabb árat fognak kérni, mint egy sima hagyományos "normál" méretű i7+nv kombóért. Ezért szerintem jelenleg nem lesz mainstream.(mármint abban a 30%-ban amit a csak IGP jelenleg nem fed le)
Találgatunk, aztán majd úgyis kiderül..
-
Jack@l
veterán
Úgy legyen! (hajtanak az 1%os piaci részesedésre)
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Tök jó lesz majd ha bekerül mondjuk 8 giga drága hbm2 a tokozás (mellé) és cserélhetsz procit gpu-t egyben 150e-ért. Bizonyára fogákonyak lesznek rá a népek. NVram meg vicces húzás, mikor a sima ram árak is az egekben vannak. (egy rendszernek meg nem árt minimum 64GB)
Mi lett a nagy ssd-s varázslattal, nem elég jó a vegára?UI: lehet rágódni, http://www.guru3d.com/articles_pages/amd_ryzen_5_2400g_review,32.html
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Petykemano
veterán
A helyedben én is magamnak hinnék
Amire fel akartam volna hívni a figyelmet és nem annyira szeretném, ha erre menne a beszélgetés, hogy az ábrán mi helyes és mi meghaladott, hanem a Pixelmotorok és CUk arányának különbözőségére a Raven Ridge, Vega M és a Vega 10 között.
Találgatunk, aztán majd úgyis kiderül..
-
Z10N
veterán
"Mondjuk a Vega 10-nél sem, ennyi mentsége azért van a marketing-teamnek, akik nyilván megfelelő szaktudás nélkül szimpla félreértésből összeollózták."
Ezert mashol fejek szoktak hullani. Raadasul nem eliras, hanem teljes hozzanemertes egy olyan piacon ami cutting-edge technologiarol szol. Az ilyen marketingesnek semmi keresnivaloja ebben a szegmensben.[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Jack@l
veterán
Még senki se látott 16 gigás sciene-t jól futni a 8 gigás kártyán. Fura hogy háromnegyed éve nem került róla fel sehova mégcsak egy videó se, nemhogy futtatható demó. Játékkészítők is szépen meghúzzák a határt 4K-ban is 4GB-nál...
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Azért azt megnéztem volna ténylegesen mennyi adatra van szüksége a raytracernek a képhez. Mert tuti nem 2tb, még egy szerencsétlen textúra se volt a modellen... (lehet hogy ott egy egész város a háta mögött, csak az ugye nem kell a renderhez perpill és nem is mutatták)
De ez sokkal viccesebb és életszagúbb jelenet: https://youtu.be/XIabK60BkC8?t=68
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
Ok, de van e egyéb nem amd-s bemutatós teszt, ahol konkrétan ki is írják hogy ennyi vram kéne a sciene-hez, meg ennyi van a kártyán és konkrét fps számokkal megmutatják mennyire szuperál a két technológia?
Mondjuk az említett 8gb+8gb felállásban, akár egy valódi 16-24gb-os kártyával szemben?
Ha annyira jó lenne nem kéne már 2-3 demót is feltennie erről az amd-nek? Általában ezt szokták a vga gyártók ha valami szuper technológiát akarnak bemutatni.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
leviske
veterán
"Szó szerint azt fogják mondani nekik, hogy"
Ez kicsit tán meredek lett, nem?
Amúgy ne feledjük azért azt sem, hogy az Apple presztízs értékű partner még mindig. Ráadásul további, presztízs értékű partnerek (mint amilyen az Adobe) hajlandóak az Apple által használt processzor felépítését előnyben részesíteni. Ami annyit jelentene, hogy az infinity fabric-ból származó hátrányok (micro késleltetések) elég hamar el lennének szoftveresen fedve.
Ez szerintem messze nem az az irány, amire az Intel rá akar lépni. Pláne az után, hogy az iPad Atom vs ARM választása is végül eldöntötte a versenyt.
[ Szerkesztve ]
-
leviske
veterán
Jól hangzik.
Viszont a Spectre botrányt az eddig kialakított preztízse nélkül kétlem, hogy ilyen felületi horzsolásokkal élte volna át. Ha az Apple elpártol, idővel a vásárlói igények hatására a Dell, HP, Lenovo és Acer is kénytelen lesz az AMD jelenlétét fokozni a palettáján. Onnantól meg az Intel cseszheti, hogy olcsóbb egy egységes design mentén haladni.
Csak akkor tudom elhinni, hogy az Intel "engedi" így az Apple-t távozni, ha az Apple ugyanúgy nem fogja nagy dobra verni az AMD eredetet, mint a Microsoft az Xbox esetén.
-
Jack@l
veterán
Akkor eleve garantálható a zakó a felső kategóriában az overhead miatt... Ryzen se lenne szar, ha nem lenne CCX-ekre bontva
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Jack@l
veterán
A "nem lehet"-et majd bízzuk a profikra, meglátjuk mi lehet 7 meg 5 nm-en egy rendes tervezéssel, gyártóval.
Mondjuk inkább úgy hogy amd megint bepróbálkozik valami korszakalkotóval "", mint eddig sokszor.[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Televan74
nagyúr
Navi -t is majd hasonlóan kell elképzelni.Mondjuk a csúcs kategórián lesz 4 modul,a középen lesz 2,a belépő meg 1 modul lesz? Vagy a belépő szint 1 modullal az már csak APU lesz?
Szerk.: Látom közben megkaptam a választ,részben.
[ Szerkesztve ]
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
Petykemano
veterán
Azért szerintem van különbség. De legyen igazad, akkor az AMD miért nem csinált 4SE x 16 CU helyett mondjuk 6x10-eset? A belső kommunikációért már a vegában is az IF felel, nem?
Vagy akkor Mondd el, kérlek, hogy ehhez képest miért könnyebb 2db komplett 4 SE-nel rendelkező lapka összedrótozása IF-fel, hogy ez így egy gpunak látsszon?
Miért nem teszi meg ezt az AMD két Vega lapkával?
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Ok, a gyártástechnológia miatti kis lapkák gyártásáról szóló kényszer világos (unalomig ismételgetett)
De nem magyarázza, nem indokolja, nem következik belőle, hogy az AMD 2db teljes gpu lapkát GMI-vel összekötve hogy tud skáláztatni, míg most meg nem? Amikor pedig az IF benne van a vegában.
Pedig teljesen nyilvánvaló gbors számaiból (is, ha eddig nem volt triviális), hogy vagy a ROP gyengus, vagy a geometria. Nem véletlen, hogy a primitive shader ás a dsbr is ezt célozta, és az intelnek készült vegaris is pont ezeket a részeket duplázta a P10-zel összevetve.Hogy lehetséges az, hogy ha 6 Se 4 helyett aránytalanul nagy tranzosztorköltséget jelent, akkor majd 2x4 Se IF@GMI-vel összekötve az meg már majd nem?
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
"ha a 6 SE a 4-nél csak 7-8%-kal gyorsabb, mert régebben mondták hogy kb. ennyivel gyorsabb, akkor nem fognak beleölni 15%-nyi extra tranzisztort. Végeredményben ugyanis nem éri meg. Pláne úgy, hogy kb. mindenki a GPU-driver pipeline felé megy, ahol aztán még kisebb az előny, de a 15%-nyi extra tranyót a lapka akkor is hordozza, ha csak 2%-os az extra sebesség az adott játékban."
Rendben, nyilvánvaló, hogy az AMD céljainak (lett légyen az bármi) a 4 SE felelt meg legjobban. Ez volt a legtranzisztorkímélőbb.
Azt mondd meg, hogy ha majd megfogsz 2db ilyen lapkát - amiben feltehetőleg egyenként lesz 4db SE - és IF-fel / GMI-vel összekötöd, akkor hogy fog az 2%, meg 7-8%-nál jobb többlet-teljesítményt adni, ha már a 4 helyett 6 SE is csupán ennyivel jelentene többet?
Mi lesz más a felépítésben, vagy működésben, ami lehetővé teszi, hogy 4 helyett 2x4 jól működjön, de 4 helyett 6 SE szarul skálázódik?
Vagy esetleg azt mondod, hogy valójában nem 4 SE-vel rendelkező lapkákat fognak összekötni IF/GMI-vel, hanem 2db 2SE-vel rendelkezőt, hovatovább 4db 1SE-vel rendelkező lapkát és akkor megmarad az ideális 4 SE? (Amit ugye a program 1 GPU-nak lát hiába áll több lapkából)
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Igen, csak amiről beszélsz, az 2020-ban lesz érzékelhető realitás. Látható, hogy hiába compute nehéz a vega 10, ez jelenleg - és a következő két évben se - nem hasznosul. Azt gondolom, hogy az intelnek készített Vega M pont ezért olyan, amilyen. Jól látható, hogy a vega56 és a vega64 közötti CU differencia alig-alig hasznosul. Nemsokára itt a vega 20. Tulajdonképpen ha ennyire közeledik ez a compute culling (hogy már mindjárt 2 év múlva meg is érkezik) bőven elég lett volna abba ilyen magasra húzni a CU-k számát. Persze világos, hogy ez csak a gaming tekintetében igaz, minden máshoz meg hasznos, tehát a lapkából emiatt nem lett volna kivágható.
Ha jól értem, amit mondasz arra lehet számítani, hogy az SE-k száma nem fog nőni, hanem csak A CU-k száma az SE-kben.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Akkor légyszíves mondd ki:
Valójában ma is lehetséges lenne 4x16-os tömbök helyett pl 6x12-es tömbök értelemszerűen azon az áron, hogy a teljesítmény/tranzisztor mutató romlana.De egyébként zárójelben kérdezem, ha ez így van, hogy nincs skálázódási akadály az SE-k számával kapcsolatban, ha mögé tudod tenni a szükséges multiprocesszor teljesíményt (ami elmondásod alapján tehát 3tflops / SE), akkor valamit nagyon rosszul csinál az AMD.
Egyrészt az nvidia kártyákban láthatólag jobban hasznosulnak a tflops-ok. 8-9tflops számítási kapacitással hozza azt, amit a vega 12tflops-szal. És a 11-12ftlops (+33% vs 1080) az ehhez képest 30-40%-kal jobb eredményt, miközben 50%-kal több az SM.
A te állításod tehát az, hogy
- az AMD 4x16-os tömbje a lehető legjobb megoldás és a 4SE-hez szükséges a 16 CU, vagyis a 3 tflops/SE. Ennek némileg ellentmondanak azok a tesztek, amelyek azonos órajelen hibahatáron belüli különbséget mutattak a vega56 és vega64 között.
- Az AMD ha a 12tflps számítási kapacitást 4 tömb helyett 6 tömbbe szervezné, akkor 2% és 7-8% közötti teljesítménytöbbletet adna.Másrészt az AMD akkor a polarist nagyon elronthatta. Ugyanis az is 4 SE-be van szervezve, miközben ott egy SE-re csak mindegy másfél tflops jut.
Vagy mégse? A vega64 több mint kétszer akkora számítási kapacitással rendelkezik, ehhez képest inkább csak 50-60%-kal erősebb annál (kivéve persze a 4K-t, ahol a compute tényleg elfogy a polarisban) Ebből az 50-60%-ből 15-20%pontot a magasabb órajel magyaráz. Tehát a 77%-kal több CU csak 30-40%-nyi többlet teljesítményben hasznosul. Itt azért lehet némi deficit, nem? (Különösen ha azt feltételezzük, hogy már a polaris is compute nehéz volt.)Harmadrészt ha tényleg a 3tflops/SE vezet jó eredményre, akkor az Intel miért volt olyan hülye (vagy miért hagyták, hogy olyan hülye legyen), hogy 24CU-t 4SE-be szervezzen, amikor ez nettó pazarlás?
Találgatunk, aztán majd úgyis kiderül..
-
Carlos Padre
veterán
"Az Intelnél nemrég kiderült, hogy rengeteg Vega részegység nem is volt nekik elérhető. A Semi-Custom üzletág még nem tudta őket beemelni a portfólióba, így abból kellett főzniük, amit az AMD felkínált. Nem kapták meg a hatékonyabb ROP-okat, a DSBR-t, a modernebb belső buszt, még az új nCU-t sem, ahogy a sokkal gyorsabb setup motorok is kimaradtak. Egyedül a HBCC-t tudták beemelni. Minden más Polaris alapú fejlesztés. Tudtommal a Semi-Custom idén még nem tud Vega dizájnt tervezni. De jövőre már igen, de akkor sem a 7 nm-es portot."
Ennyit arról, hogy jön idén a ps5
[ Szerkesztve ]
Genyó vagyok, ha hülye vagy megmondom.
-
Petykemano
veterán
Lehet, hogy neked már azt mondták az eligazításon, miután kiadták a drivert, hogy "NA itt van, eljött" (vagyis jöhet, hehe)
De ha tényleg itt lenne a compute culling, akkor a vega64-nek és vega56-nak a brutális compute teljesítményével számos tesztben kimagasló teljesítményt kéne nyújtania. Ehhez képest nem. Mert lehet, hogy a technológia kész, de még nincs itt. Ugyanúgy, ahogy a dsbr kész, de nincs itt, primitive shader kész, de nem kész. stbstb
Egyébként persze a cullingnak minden céljával egyetértek: spóroljuk meg, amit lehet. Ha néhány olcsón beépíthető CU-val megspórolható csomó setup, csomó geometria és még több CU és pixel engine, akkor kiváló. De ilyen játék ha van is olyan, mint a fehér holló.Bízzunk benne, hogy 2019-ben, amikor szerinted a Vegának még az életciklusa tartani fog, akkor a compute culling segítéségvel már tényleg el fogja érni a vega az 1080ti teljesítményét..
Egyébként ha már itt tartunk, nem gondolod, hogy az AMD számára problémás ez a hosszúra tervezett életciklus? Ha úgyis olyan könnyű szimulátorban tesztelni, akkor mi lenne, ha inkább 2-3 helyett 1-2 évre terveznék az életciklust és akkor például kijöhetett volna, hogy a gaming piacon a túltápolt CU-k nem fognak kifizetődni, mert 1-másfél éven belül nem fog elterjedni a a compute culling pl. Tehát elég csak a következő terméknél számolni azzal, a kurrens termékkel meg lehet fókuszálni a kurrens lehetőségekre és körülményekre.
Nekem úgy tűnik, mintha az AMD-nek első 1-2 lépésben lehet, hogy könnyebbséget jelentett, hogy nem építenek teljes sorozatot, ugyanakkor mégis úgy tűnik, hogy hosszútávon hátrány, hogy sokkal hosszabb ideig kell egy terméket aktívan támogatni. Például az nvidiának gyakorlatilag elég csak a pascalra fókuszálni, a maxwell már csak futott még kategória. Ehhez képest az AMD-nek futó generáció a polaris és vega is. Idén az nvidia félreteszi a pascalt és nexgen arch-ra fókuszál. Az AMD kihozza a vega20-at, ami legalább vega, kis szerencsével nem csak mobilon hozza ki a vega mobile-t, de hanem nyugdíjazza a polarist. Rosszabb esetben a polaris tovább él velünk. Bár biztosan örülnénk 2018 végén a Navinak, ahogy Pepe várja, de valójában akkor a mainstream polaris, a vega apu, mobil vega és performance vega és HPC vega (vega20) mellé bejönne egy harmadik architektúra, miközben legjobb esetben is csak a vega10 elnevezésű lapkát küldené nyugdíjba.
Találgatunk, aztán majd úgyis kiderül..
-
Jack@l
veterán
Még mielőtt nagy temetkezésbe kezdenénk, várjuk már meg hogy mennyit esik az a "fallback" mód pascalnál. Mert a raytracing egy szimpla kupac gpu compute, semmi hókuszpókusz asyncron-al és barátaival...
GCN meg tök jó lesz hogy kap drivert, csak minek ha diavetítés. Az 1070-em már köhög 1280-as felbontás felett. (ugyanúgy fog a vega és alatta minden)A 2.5szer gyorsabbra meg jó lenne valami kézzelfogható mérés, nem amd-s dia amin ott van hogy egyes részfeladatokban, akár lehet az is.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Petykemano
veterán
Ok értem. Tehát lehetne akár 6 v 8 SE is. Csak eddig az AMD
1)"sajnálta" a tranzisztort
2) ugyanannyi CU mellett nem emelget volna lényegesen a teljesítménytJó, Köszönöm a választ.
Van azért még kérdésem: Ha a korábbi buszrendszer esetén az ideális a 9CU/SE, ahogy egyébként kB a hawaiinál is láttuk, meg a polarisnál, és a maximum a 12, akkor a fiji higy vitte a 16CU/SE konfigurációt?
A Fiji a nyers számok.tekintetében csak a textúrázókat és a CU-Kat.növelte. és nem is skálázódott a Hawaii konfigjáról a fijire,.valami szűk keresztmetszet volt.
Hihető lenne, hogy ez a szűk keresztmetszet nem valami geometria, vagy pixel motor volt, ami a Hawaii es a fiji között alig javult, hanem a belső busz skálázódása a 16 CU-ra, amit a Vega 10 javított az új busszal, ha nem az látszott volna sok esetben, hogy a Vega csupán annyival gyorsabb a fijinél, amennyivel magasabb frekvenciát el tud érni.Ez utóbbi azt sugallja, hogy vagy a Vega is olyan limites a belső összetevőiben, mint a fiji, vagy mégsem a CUk skálázódását 12 helyett 28-ra kitoló belső busz volt (az egyetlen) szűk keresztmetszet.
Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Tehát a Vega érdeme az aktuális (+1 év) motorok jó hatékonyságú futtatása helyett az, hogy 2017 közepek felkészült egy olyan probléma kezelésére (raytracing), aminek az API szintű impementációja 2018 őszén jelenik meg?
A Vega 10 hónapja van a piacon és egy kézen meg lehet számolni hány compute cullingot alkalmazó motor van.
Ezek azért fontos tények, mert amikor megjelenik majd a következő nvidia kártya, a Vega ilyen jellegű képességei senkit nem fognak már érdekelni. Ahogy a fiji esetén is hiába várta bárki is, hogy majd kifizetődik a brutális compute teljesítmény. (Persze lehet, hogy az AMD így legalább el tudta adni Pro termékként, ahogy a vegát is) a fiji valójávan eléggé földbe állt.
Jövőre ilyenkor már senkit nem fog érdekelni, hogy az addigra megszülető 3 raytracing pilot game esetén a már meghaladott pascalt beéri a Vega10, mert a raytracinget kétésfélszer gyorsabban számolja.
Akkor mindenkit az fog érdekelni, hogy a nexgen nvidia hogy kalapálja el a Vega20 gpukat. Továbbra sem értem, hogy miért kellene a vegának 2 évvel későbbi terhelésre is felkészített lapkának lennie. Ki fog akkor még olyat venni? (Kivéve persze ha valaki kalkulál azzal, hogy bizonyos szegmensekben új termék.hiányában átnevezni kényszerül )Találgatunk, aztán majd úgyis kiderül..
-
Petykemano
veterán
Én azért "találgatok", mert te mindent le csapsz azzal hogy minden így jó minden a lehető legjobb ennél jobb már nem is lehetne minden tökéletes minden hatékony Minden szuper. Ehhez képest Viszont bibós cikkéből azt lehet kiolvasni hogy az Amd generációról generációra illetve évről évre rosszabb és rosszabb hatékonyságú (perf/TR, perf/w) lapkákat hoz ki legalábbis a konkurenciához viszonyítva.
Es emiatt folyamatosan piacot veszít.Legalább ne mondd, hogy minden rendben van, minden tökéletes.
Találgatunk, aztán majd úgyis kiderül..
-
Jack@l
veterán
Na akkor fussunk neki újra:, semmiféle compute shader nem kell(elvileg) hozzá, hacsak nem shading/raszterizáció mellé részfeladatnak akarják bepakolni. Sima opencl vagy cuda, a denoisinghoz is...
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
TTomax
félisten
E aztán baromira reprezentatív gpu elemzés,világos aki firefoxot telepit csak gamer lehet ....
Aki meg steamet az meg bányász...
[ Szerkesztve ]
★★★★★ I got too much soul, rhythm and blues R&B ya see, all that's cool, but hip-hop and rap yeah that's where my heart's at Even back when I used to break on a box ★★★★★ "Chief Rocka"
-
nagyúr
Ez megint más szituáció... nem tudjuk szerintem.
Én csak arra reagáltam ami és ahogy kiderült... ott nem azt írták, hogy xy gyártó nem képes rá, hanem kimondottan az AMD nem engedi...
Ha így van ahogy te írod az megint más és érthető.
Mindegy, túl van ragozva.
[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
nagyúr
ez alapján nem az asrock döntött úgy úri jókedvében:
"The decision of sales region for ASRock VGA card is based on the planning of mutual channel agreement. So far the first priority is Asia Pacific and Latin America. No confirmed schedules in EU markets yet"Tudod, mit jelent az, hogy nemezis? Az érintett, erősebb fél kinyilatkoztatása a méltó büntetés mértékét illetően. Az érintett fél jelen esetben egy szadista állat... én.
-
nagyúr
Nos... a fent említett videó "állítólag több helyről megerősített adata" alapján nem épp az látszik hogy sokkal drágább lenne.
Ebbe a vitába nem akarok ennél jobban belemenni, mert szerintem neked sincs több és jobb infód erről mint nekem/nekünk vagy nekik.
Ha elhisszük amit a GN videóban állítanak, akkor ez nem igaz. Ennyi:
GDDR5 9-11 USD per chip / 8GB csomag ~72-88 USD / AIB-GPU ~72 USD
HMB2 4-8 chip stack / 8GB csomag mindkét verzió ~120-150 USD
GDDR6 11-14 USD per chip / 8GB csomag ~88-112 USD / AIB-GPU ~88 USDNyilván ha több memóriát akarsz/kell a kártyára tenni akkor drágább. De ez mindegyikre igaz.
Az NV-nél meg szerintem hasonlóan lematekozták, hogy a Titan sorozat és felette (üzleti) belefér, alatta meg ön(nyereség)gyilkosság.
AMD meg benézte, mert megint rosszul jósolgatott. (Meg náluk is csak az üzletibe fér bele, inkább azt nyomják prioritásban).[ Szerkesztve ]
Steam/Origin/Uplay/PSN/Xbox: FollowTheORI / BF Discord server: https://discord.gg/9ezkK3m
-
addikt
Abu, most komolyan. Az utolsó bekezdésedet már vagy tizedik alkalommal olvasom ebben a topikban mindenféle formában. Nem lenne egyszerűbb, ha csak belinkelnél egy régit, amikor ezt szeretnéd ismét közölni?
5600X 2x16GB 6800XT | i5-3570 2x4GB 1050TI | MS Surface Book | iPad Pro 12.9 | iPhone X | iMac e2008
-
#45185024
törölt tag
Mesélj valamit ABU erröl a két GPUs per card történetröl
Akkor csak lesz Vega Dual -
Petykemano
veterán
Jó, én elhiszem neked,.higy az AMD kurva jól csinálta, az nvidia meg nagyon rá fog majd faragni, amikor belépőszintű kártyákra lesz kénytelen 8 ($100), mainstreamre meg 8GB GDDR6-ot $200 rátenni, ami kétszer annyi mint mások gondolják, az AMD meg közben vidáman rádob a kártyáira 1-2-4 GB HBM2-t ($20, $30, $60)
De hol is vannak ezek az olcsón ($50-100-150-tal Olcsóbban ) gyártható kártyák?
Miért került még az gpuk között eléggé belépőnek számító kaby lake g mellé is 4GB? Ha egy rx 570 elmegy 4GB-tal, akkor annak a 4GB bődületesen sok. (Kevés a pcie a streameléshez?)És a Vega mmmm mondjuk 56 mellé miért is nem került 4GB? Vagy 2GB?? Hisz fele-negyede elég a konkurens 8GB-hoz képest (1070, 1080)
Nem gyártottak olyat? De ha ez így marad, és hiánycikk okán az AMD kénytelen lesz tartani a kapacitást az nvidiával, mert olyan modulokat gyártanak, akkor tényleg oltárira mellényúlt.
Találgatunk, aztán majd úgyis kiderül..
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- DELL RTX 3070 8GB GDDR6 DUAL Eladó! 92.000.-
- Gainward RTX 4080 16GB GDDR6X Phoenix - Új, 2 év garancia - Eladó!
- Pcie 5.0 ATX 3.0 12Pin - 16Pin Moduláris Tápkábelek És Adapterek 12VHPWR Egyedi Harisnya Nvidia
- Gigabyte Radeon RX 6700 XT GAMING OC 12GB használt videokártya számlával és garanciával
- Eladó rx 6500 xt
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest