Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #5 üzenetére

    Szerintem te nem érted. Teljesen összefüggéstelen amiről írsz. Semmi köze a Semi-Custom megrendeléseknek az AMD termékvonalához. Már csak azért sem, mert tényleg csak apróságokat használ fel a PS4PRO és az X1X a GCN3/4/5-ből. Mikor melyikből. Az X1X még SDWA-t sem támogat, pedig az aztán egy GCN3-as húzófícsőr, még sincs ott a konzolban, míg a PS4Pro teljes RPM támogatással rendelkezik, de ez még sincs ott ez a GCN3-ban és GCN4-ben, ugyanakkor DPP van, de ez meg nincs a PS4Próban. Szóval nagyjából egy lótúrónyit sincs itt átfedés. Ha lenne, akkor legalább mindkét új konzol tudná az összes GCN3/4-es fícsőrt, de nem tudja. Alapvetően a GCN2t marad az alap, illetve ennek a konzolokba használt verziója, és azt egészítették ki ezzel-azzal. A GCN3/4/5-höz semmi közük nincs, ez csak egy médialegenda.

    Kétlem, hogy az Apple olyan lapkát rendelne az AMD-től, aminek a képességeinek a 90%-át nem is használja. Mert se a DSBR, se a HBCC, se az IWD, se az RPM nem érhető el Metal API-val, és persze annyira régi az OpenGL is a Macen, hogy ezekről még csak nem is hallott az implementáció. Szóval ez is egy legenda, a valósághoz kb. 0%-ban van köze. Másképp ugye működnének a Vega újdonságai, de ezek csak Windows alól érhetők el, illetve a HBCC-t leszámítva Linux alól.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #22 üzenetére

    Annyira nyilvánvaló hazugság, amit leírtál most, hogy nem tudom eldönteni ez trollkodás, vagy tényleg nem tudod használni a google-t és kikeresni az AMD GPU-it és APU-it.

    Na vajon miért lehetett akkor Polaris, amikor az új konzolok? Talán akkorra lett kész a 14/16 nm-es node? A Vega pedig kellett az Apple-nek, mert egyetlen másik hasonló teljesítményű hardvert nem tudtak belezsúfolni 50 cm2-be. Vagy tudsz még egy olyan 10 TFLOPS körüli lapkát mondani, ami ekkora területre befér?

    Programoztál már GCN3-ra? Ha nem, akkor miért is érdekes számodra az SDWA?

    Na most lófaszt fekszik rá az RTG kétharmada. A Semi-Custom le van választva az RTG-ről. Pontosan azért, hogy az RTG még csak véletlenül se lássa meg azokat a sematikus dizájnokat, amiket a Sony és a Microsoft eljuttat az AMD-hez. Ha ugyanis meglátja, akkor az a Sony és a Microsoft számára minimum dollármilliós kár. Beleraktak ugyanis x/y/z millió dollárt az egyes IP-kbe, és nem tűrhetik, hogy az AMD csak úgy átküldje oda az RTG mérnökeit, hogy szépen lemásolják a know-howt, megspórolva ezzel maguknak x/y/z millió dollárt. Szóval a Semi-Custom mérnöki szinten teljesen különálló, és nagyon komoly szabályozás van ott, amivel az RTG aztán kibaszottul rá sem nézhet ezekre a konzolba tervezett lapkákra. Csak egyszer meglopják a Sony-t vagy az MS-t, aztán oda a bizalom, le is húzhatják a Semi-Customöt a WC-n, mert onnantól megrendelésük nem lesz. És ezt úgy mondom, hogy az AMD legszívesebben tényleg azt csinálná, hogy minden mérnökét odarakná a Semi-Custombe, hogy szépen lopják ki nekik a megrendelőik technológiáit, amiket aztán nem kell maguknak kifejleszteni. A világ legnagyobb spórolása lenne, miközben kockázatvállalás nélkül hozod a megrendelőd IP-jének a teljesítményét. Csak az a baj, hogy a lopást a törvény bünteti, mert amit te levezettél azt úgy hívják, hogy más tulajdonának jogtalan felhasználása. A Semi-Custombe tehát befele mehet bármi más divíziókból, de onnan ki nem jöhet semmi az AMD számára.

    Az Apple le se szarta a Vegát. Nekik ugyanúgy jó lett volna a Polaris, vagy a Fiji is, semmi hasznuk a Vega tudásából. A 10 TFLOPS-ot akartak 50 cm2-en. Ennyire egyszerű igénye volt a cégnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #30 üzenetére

    De miképp eredhet a Semi-Customből bármi is az AMD-nek? Ott van több tucat olyan IP, amik nem is az övék. Úgy szétperelné a Sony és a Microsoft az AMD-t, ha bármit is kihoznának, hogy fel se állnának belőle többet.
    A Semi-Custombe bevisznek IP-t, de ki onnan nem hoznak. Nincs meg a licenc a felhasználásukhoz.
    Azt egyébként el tudom képzelni, hogy ellenőrizetlen csatornákon az RTG azért megnézi, hogy a Sony és az MS mit hogyan implementált, csakhogy ne fussanak vele lyukra, de ez már törvénytelen, noha végeredményben saját implementációt fognak használni, így a kutya se tudja rájuk bizonyítani, hogy a Semi-Customös Béla, az RTG-s Józsinak nem a kisiskolás kislánya háziját mutatja meg a város másik szélén fekvő hotelben.

    De azt ugye tudod, hogy nem az Apple miatt ilyen a Vega 10, hanem a HBM2 miatt. A Fiji is ilyen volt, csak nem tudott ~10 TFLOPS-ot. Az Apple számára csak előny volt ez a dizájn, mert kis helyre befér. Az AMD-nek pedig azért volt előny, mert közel fél TB/sec lett a sávszél, miközben 30-40 watt helyett csak 5 wattot fizettek érte a fogyasztás oldalán.

    Sosem volt semminek a része a Semi-Custom. Mindig különálló volt a cégen belül. Ha pedig kihúzzák feketével a védett részeket, akkor az RTG megkapja azt, amit régebben átadtak a Semi-Customnek. :DDD

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #34 üzenetére

    Nem. Megmondom én neked, hogy mi történik. Az ALU:SE arány a lényeges itt. A konzoloké olyan 8:1-hez, vagy ha nem 8, akkor is 7-10 tartomány, kb. most pontosan fejből meg nem mondom. A Vega 10-é 16:1-hez. Vagyis lényegesen több ALU kapacitás jut egy tömbre, amit több shaderrel is lehet etetni. Ez nem annyira egyedi a piacon, mert minél nagyobb egy lapka, annál több a tömbönként mérhető ALU kapacitás. Nem véletlen, hogy a GDC-n mindenki "sugarat követ", mert az idle ALU-kat, amiből sok lesz, ha magas ez az arány, simán lehet etetni sugárkövetéses munkákkal, így az idle ALU-t a raszterizálástól ennyire függetlenített aszinkron compute iszonyatosan hatékonyan lefedi. Szóval ezek munkafolyamatok, amik ennek vagy annak feküdnek. És egyébként marhára nincs nekünk most szükségünk sugárkövetésre, mert 5-7 ms-ot elversz Full HD-s, 4 méteres távolságig tartó, egy sugár/pixellel AO-ra effektre, miközben megközelítőleg sem javul annyit így a minőség egy jó SSAO-hoz képest, mint amennyit zabálni fog az effekt (és ezt én úgy mondom, hogy köztudottan utálom az SSAO-t). De persze a Vega 10 és a többi nagy ALU:SE arányú top GPU-k idle ALU-jait nagyon befedi. :)) Szóval érdektechnológia, hogy a hardver felépítéséhez jobban igazodjon a kód. A hasznosságát nem igazán fogod látni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #67 üzenetére

    Problem? :DDD

    A viccet félretéve nem akkora hülyeség a sugárkövetés, csak nincs ott a hardver, ahol ez megléphető, és arányaiban így a sugárkövetésből nyert képi előny nem lesz annyi, amennyit fps-ben fizetsz majd érte. Persze lehet szédíteni a népet az új 3DMakival, hogy sugárkövetés nélkül nincs tükörképe a csajnak, amikor a tükörben már a Quake 3 Arenában, sugárkövetés nélkül is látszott minden 18-19 éve... :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Anaren91 #70 üzenetére

    Texel shaderrel, függetlenített shading és raszter fázissal simán be lehet. Lehetőség az van ezernyi, akarat kevésre van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz <Lacy85> #73 üzenetére

    Mert nem csak a Vega 10 problémája ez, hanem úgy az összes nagyobb GPU-é? Szerinted miért repcsizett rá ennyire az AMD és az NV erre a sugárkövetére? A problémáiknak ez a legegyszerűbb megoldási módja. Hogy szart sem ér a felhasználók felé az már egy más kérdés.

    (#74) b. : Nem igazán oltotta le az AMD-t. Sőt, a tény az, hogy az egyetlen dolog, amiért a Rage futott dedikált GPU-n az az, hogy az AMD biztosított Carmacknek egy egyszerre 50 pixelt is frissítő algoritmust, amivel nem volt a motor reménytelenül lassú a VGA-kon. Ha ezt nem teszik meg, akkor kaptunk volna egy IGP-only játékot.
    Az IGP-ken egyébként ma is Carmack algoritmusa fut, és az a poén, hogy sokkal gyorsabban. Az A10-7850K IGP-jével, mindenféle pop-up nélkül, kétszer olyan gyorsan megy a Rage, mint a most használt GeForce GTX 1050-emen, utóbbi pop-upos. A Radeon R9 285 sem más amúgy, a pop-up picivel kevesebb, de van sajnos.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #80 üzenetére

    Azt Carmack magának köszönhette. Teccet volna specifikáció szerinti GLSL shadereket szállítani. Az NV és az AMD azért nyomta a drivereket, mert változtatták a fordítóikat folyamatosan, hogy a nem szabványos shaderekhez igazodjanak. Aztán a végén már cserélték le őket a picsába. Érdekes módon az új id csapatnál ebből nem volt probléma, az id tech 6 működött hiba nélkül. Pedig az is megatextúrázás ám. ;)

    Carmack problémája egyébként a PCI Express késleltetés és a különálló RAM és VRAM volt, illetve nyilván a megfelelő kontroll hiánya. Emiatt nem tartotta a PC-t megfelelő platformnak. Javaslom próbáld ki a Rage-et egy IGP-vel, mondjuk egy A10-7850K-n. Iszonyatosan meg fogsz lepődni, hogy mennyire más, mint egy VGA-val.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #88 üzenetére

    Ez nem taxizás, vagy autógyártás, stb.

    Az AMD lenne a legboldogabb, ha azt csinálhatná, hogy a Semi-Custom dizájnokat kiadja magának, mert úgy gyakorlatilag megspórolja az össze olyan kutatást, amit a Sony, a Microsoft, és az összes többi partnere elvégez, miközben olyan teljesítményre tesz szert ezekben az IP-kben, amire a kitalálójuk. A leghatékonyabb fejlesztési modell a világon meglopni a megrendelőt. A jogi része okozza a nehézséget, amit te leírsz az gyakorlatilag bűncselekmény.

    Sokkal nehezebb új szériákat kiadni a VGA-piacra. Letervezni a saját lapkáidat, fejleszteni akár egy új steppinget, mert már utóbbi is egy bő 50 millió dolláros tétel. Lásd Polaris 10->20 váltás. Ezek sincsenek ám ingyen, annak ellenére, hogy sokan szentül meg vannak győződve róla, hogy csak új matricákat kellett csinálni. Nem, az AMD lenne a legboldogabb, ha annyival megúszta volna. De valójában Radeon RX 400-500 váltási költsége dollárszázmilliós kiadás volt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #98 üzenetére

    Ez így működik, ahogy te leírod. Az RTG részleg megy a saját feje után. És mivel alapvetően grafikáról van szó, így azért annyira nem különböznek az elképzelések a Sony és a Microsoft oldalán sem. A konzolban is ugyanazokba a problémákba fut mindegyik cég, csak bizonyos PC-specifikus, sokszor OS szinte felett keletkező problémák nélkül.
    De ha a hardvert nézzük, és tekintjük a mostani időszakot, akkor a Sony és az MS, illetve mindenki más azt fogja mondani, hogy a quadraszter probléma, ahogy az overdraw is, vagy például a redundáns vertex shader munka a nem látható háromszögeken a részletesség növelésével, na meg persze a különböző screen space effekteknél a hiányzó mélységinformácók, stb-stb. Ezekre a Sony és az MS nem fog kidolgozni hardveres megoldást, mert megteszi helyettük az RTG például, ahogy egyébként a Vega redundáns vertex shader munkára (primitive shader), illetve az overdraw problémára (DSBR) már reagált is. És itt jön egyébként elő, hogy ezernyi mód van ezekre reagálni. Például egyáltalán nem rossz a GPGPU-culling sem, nem annyira elegáns, mint a primitive shader, nem is tud annyit, de a feladatot úgy ahogy megoldja, és nem követel Vegát sem. A draw-stream sem egy elengedhetetlen dolog az overdraw megoldásához, ez egy hardveres megoldás, viszont lehet itt Z prime algoritmusra építeni, ami már szoftveres, és/vagy be lehet vetni különböző tiled/clastered trükköket. Az AMD csak azért reagált ezekre hardverben, mert úgy gondolták, hogy ezeket a problémákat érdemes új megközelítéssel megoldani, miközben persze a szoftveres utakra is használható lesz a rendszer. Kb. ugyanígy probléma a LDS statikus allokációja, ami kezd szűkössé válni, és a Vega gyakorlatilag annyit változtatott, hogy fix 32 kB helyett dinamikus, maximum 64 kB-os tárat lehet igénybe venni. Mivel az LDS a GCN-en már a kezdetek óta virtualizált, így a manuális interpoláció mellett nem bántják egymást a computes shaderek. És, hogy mennyire együtt gondolkodik itt mindenki, az NV is reagált erre a Voltában, csak egy olyan megoldással, ami nem automatikus, hanem direkt fejlesztői/rendszerprogramozói támogatást igényel, de kb. ugyanaz lesz az eredménye, mint a Vega automatikusan működő koncepciójának. Szóval a problémáknál mindenki ugyanazt látja, maximum másképp reagálnak rá. Mondjuk én hosszabb távon az LDS-allokációra mindenképpen valami hardveres, dinamikus megoldást képzelnék el, és szerintem nem vagyok ezzel egyedül, bár egyik hardver tervezésében sem veszek részt.

    Semmivel nem lenne másabb az AMD termékskálája, ha a Sony és a Microsoft dizájnjait használnák fel. Olyan mértékben skálázhatók ezek a mai GPU ISA-k, a maguk akár 30000 konkurens szálat is támogató memóriamodelljükkel, hogy teljesen mindegy lenne az AMD számára, hogy az RTG-ből fejleszt, vagy meglopja a Semi-Customön keresztül a partnereit. Az utóbbival egyedül az a probléma, hogy bűncselekmény, technikailag viszont még jobban is járható út lenne. Ezért nem váltan manapság architektúrát az NV és az AMD. Az NV még a régi Fermi alapjait használja, míg az AMD a GCN-t. Még mindig nem tartanak ott, hogy az anno letervezett memóriamodell korlátozná a skálázhatóságot. Egyszer fogja, de nem ma és nem is holnap. Majd maximum holnap után.

    Na szerinted miért nem vállalják? Jelenleg mindent eladnak. Az utolsó porszemig az összes raktárból. Mégis minek költsenek erre dollártíz-százmilliókat, amikor nem tudnának több pénzt behozni akkor sem. Ha új generációt akartok, akkor nem jó dolog felvásárolni az összes készletet. Ugyanezért nem töri magát az NV sem, hogy hozza az új VGA-kat. Ők is eladnak szinte mindent. Minek fektessen bele erőforrást, ha az nem hozna nagyobb profitot?

    Ez minden cég számára elsősorban egy üzlet, és nem azt nézik, hogy elégedettek vagytok-e a kínálattal vagy sem. Az elégedettséget jelzi a vásárlási kedv. Ha nem jó a kínálat, akkor majd nem pucolják ki a raktárakat, és úgy jöhet az új generáció.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #111 üzenetére

    Várj várj várj. Az FP16 az egy feldolgozási precizitás. Nem határozza meg, hogy az effektek lefutnak-e vagy sem. Ha mondjuk írsz egy shadert packed mathra, amit shader modell 6.2-ben szabványosan is megtehetsz, akkor igazából nincs baj abból, hogy mondjuk egy architektúra nem támogatja az FP16-ot. Egyszerűen a fordító le tudja fordítani a kódot úgy is, hogy átkonvertálja FP32-be, megtörténik a számítás, majd vissza lesz konvertálva FP16-ba. Tehát az effekttől önmagában nem buksz el, csak kétszer annyi erőforrással számolod ki. Már magában a nyelvben is minimum precizitás van definiálva. A shader mondjuk kér minimum FP16-ot, de nem baj, ha a hardver csak FP32-t tud. Le lesz konvertálva a számítás idejére, és ugyanazt megkapod azon a hardveren is.

    Amire te gondolsz, hogy az AMD-n speciális shaderek futnak most packed mathra. De ez nem azért van, mert az FP16-ra külön kell kódot írni, hanem azért, mert a AGS-en keresztül működik ez a fícsőr. Szabványos formában már nem kell ezzel foglalkozni, a háttérben megoldja a hardveres különbségeket a fordító/API.

    (#113) Petykemano: Akkor is ugyanannyi VGA-t adnának el. Csak a kiadás oldal megnőne, így nem kevesebb lenne a nyereség.
    A piacot nem az határozza meg, hogy mekkora a részesedésed PC-n, hanem mekkora a részesedésed konzol+PC-n. A PC-only címeknél számít csak a PC-s részesedés, de abból azért marhára kevés van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #115 üzenetére

    Ez is valami félreértés lesz. A Forza aktuális verziója, mert a megjelenés óta azért legalább ezerszer szétpatch-elték :D, nem támogatja a packet mathot. Jelen pillanatban publikált szinten a DirectX 12 az FP16 elérhetőségét úgy biztosítja, hogy a shader modell min16float adattípusa 32 bites alignmentálást használ, és a half típus is 32 bites. Az AMD AGS-ben van egy header, ami megkerüli ezt a problémát, de ez nem szabványos kódot eredményez. A shader modell 6.2 oldja meg ezt szabványosan, de a Forza kódjai még D3BC IR-ben vannak szállítva, ez annyira tuti, minthogy ide írok, vagyis a régi HLSL specifikációt használják. A shader modell 6.2-höz kötelező a DXIL IR-be való fordítás.
    Az, hogy mitől gyors itt a Vega annak ezernyi oka lehet. Az a baj, hogy sose néztem meg a Forzát egy profilozóval, és most már nem is fogom, mert nincs egy Vega se nálam. :))
    Packed mathot egyébként a Wolf 2 és a Far Cry 5 használ biztosan.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #117 üzenetére

    Azóta másképp működik már. Jól szétpatch-elték. Már nem azok az eredmények, mint régebben. A legújabb kódok kissé elmentek GPU-driven pipeline irányba is. Annyira nem lehet ebbe kiadás után belenyúlni, viszont ez elég sokat segíthetett már a nem Vega hardvereken. Szóval én arra a tesztre már nem alapoznék. Persze azzal a verzióval ilyen az eredmény, csak már senkit sem érdekel, mert van jóval újabb verzió. :)

    Akkoriban megnéztem volna jobban is a működését, de még nem volt Radeon GPU Profiler. Ma meg már nem érdekel a játék, és a Vegák sincsenek itt nálam. :D

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #124 üzenetére

    A business side a kulcsszó. A lényeg annyi, hogy az RTG fejesei döntenek majd a Semi-Custom vezetéséről, de ez nem jelenti azt, hogy a Semi-Custom az RTG része lett. Továbbra is erősen függetlenített a fejlesztés, hiszen más cégek dollármilliókért kidolgozott titkain használják.

    Elég sok jelentősége van. Egyre több cég gondolkodik ma már a nagyobb differenciáláson, mert ha megnézed a mai PC-s hardvereket, akkor az ASUS, a Lenovo, a mittudoménmég ki, gyakorlatilag mindenki ugyanazokat a platformokat használja. Eközben a gépekhez ugyanonnan vehetik a paneleket, az egyéb komponenseket, vagyis alapvetően nincs igazi megkülönböztethetőség. És ha megnézed a marketinget, akkor mindenki RGB-zik, mert ez az egyetlen dolog, amiben azt tudják mondani, hogy mi körbeépítettük ezzel a kijelzőt, míg más még nem: innováció! És emiatt érdekes az ARM sokaknak, mert ráállhatnak a saját lapkák fejlesztésére, ami nagyobb differenciálást biztosít, vagyis nem kell máshol elhelyezett RGB LED-ekkel kitűnni, mert minden máshoz hozzáfér amúgy mindenki.

    A Semi-Custom éppen ezért lehetőséget ad arra is, hogy a gyártók egyedi IP-it integrálják az AMD megoldásaiba. És az onnantól kezdve már egy kitörési pont a cégeknek, mert marketingértékké válik, hogy nem ugyanazt a tömegplatformot használják, amit a sok nyomi konkurens.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #128 üzenetére

    Éppenséggel ez nem ilyen egyszerű. A Semi-Custom nem pont a lapkáról szól, hanem az egyedi megoldásról. Jelenleg arra haladunk, hogy az AMD GMI linkeket dob majdnem minden lapkába. Innentől kezdve legózás az egész. Mert az AMD-nek lesz teszem azt három CPU-ja és kb. ennyi GPU-ja generációnként, viszont ők nem fognak ebből 9 modellt tervezni, mert az a tömegpiacon túlságosan szegmentálná a termékpalettát, maximum lesz 3-4 modell. De ha mondjuk odamegy a HP, és mondja azt, hogy nekik tetszik a CPU1 és a GPU3, és erre a párosításra lenne igénye, ami a tömegpiacra pont nincs, akkor a Semi-Custom megcsinálja nekik. És innen jön a fenti hsz-emnél a differenciálás. A HP olyat kínál a gépeiben, amit más speciel nem, mert általánosan ez a dizájn nem érhető el.
    És itt az a lényeg, hogy kész lapkák legózása történik, vagyis a Semi-Custom ilyen környezetben már nem feltétlenül igényelné a HP számára amúgy eléggé nehezen teljesíthető 100 milliós kötelező járulékot.
    Ráadásul itt később nem csak CPU-ról és a GPU-ról van szó. A tokozásba tart a memória és az adattároló is, tehát erre is lehetne egyedi rendeléseket leadni. Ha ezeket beszámítod, akkor a fenti lapkákkal azért minimum 40 modellt kellene csinálni, eltérő órajelekkel is, amit kizárt, hogy az AMD megcsinál magának. Túlságosan szegmentálná a gyártást.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz b. #139 üzenetére

    Igazából mindegyik motor DX12-es, ami támogat DX12-t. Ugye nincs visszafelé kompatibilitás, muszáj ráírni. Inkább úgy kellene fogalmazni, hogy a DX12/Vulkan képességeit kihasználó motor. Amellett persze, hogy értem mire gondolsz.

    Egyébként az id tech 6.5, ami van a Wolf 2 alatt az azért erősen explicit API-hoz van tervezve. Azért 30 ezer rajzolás és 6 millió háromszög per frame erősen olyan igénybevétel, amit egy DX11 vagy OpenGL nem bírna már el. És akkor az egységesített volumetrikus fénykezelés szóba sem került, ami szintén megfeküdné a régi API-k gyomrát. Ez egy olyan szint, ami Vulkan API nélkül nem futna jól, nem véletlenül dobták az OpenGL leképezőt. Töredék sebességért felesleges belenyomni a tesztidőt.

    A Nitrous is ilyesmi, csak ott azért van egy speckó tényező. Az AMD, az NV és az Intel megkapta a forráskódot, így írtak rá a driverben direkt erre szabott rutinokat. De régebben írta Dan Baker, hogy ha a driver nem tartalmazna speciális rutinokat a DX11-es módra, akkor a DX12/Vulkan sebességét meg se közelítené. Effektíve a mostani driverek egy csomó amúgy illegális dolgot csinálnak az AotS futtatása közben, hogy DX11-ben is legyen sebesség. Túl nagy kockázatot az AMD, az Intel és az NV nem vállal ezzel, hiszen mindig látják a friss forráskódot, tehát pontosan tudják, hogy az alkalmazás mit fog és mit nem fog csinálni. Ezzel gyakorlatilag csalnak.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #159 üzenetére

    Először érdemes lenne tanulni ezekről a GPU-król. A cikkíróknak is, mert úgy képzeli el ezt mindenki, mint a CPU-kat. Ezzel szemben a GPU-knál a kompatibilitás egy nem létező fogalom.
    "Legalább GCN4-ig isa kompatibilis valami lesz?" Már a GCN5 sem tudná futtatni a GCN4-re lefordított bináris kódokat. Ahhoz, hogy ez megvalósuljon a GCN4 ISA-t kell alkalmazni annak a kódolási sémájával. És akkor egy GCN4-re épülő GPU-ról beszélnénk nem pedig Naviról.
    Mondok egyébként jobbat. Ha lefordítasz egy kódot binárisan a Vega 10 által használt ISA-ra (OpenGL-ben például van olyan kiterjesztés, amivel meg lehet tenni), akkor az jó eséllyel futtathatatlan lenne a Vega 20-on, de még a Raven Ridge IGP-jén is. Annyira változik az ISA még generáción belül is, hogy a bináris kompatibilitás nem garantált. Ugyanez igaz az NV-re is. Egy GP100-ra lefordított bináris kód például nem valószínű, hogy fut GP102-n és fordítva. Hiába Pascal mindkettő, nem mindig működik. Ezért van a meghajtókban a virtuális ISA, hogy az nem változik, és ebből már a meghajtó tud fordítani a fizikai ISA-ra.

    Ezeket sokan nem tudják, és annyira faék egyszerűen fogják fel az egészet, hogy nem véletlenül röhögnek ezeken a cikkeken a gyártók.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #52588800 #174 üzenetére

    Magyarul olyan tekercs került rá, ami meg van repedve. Ezzel most mit kezdjenek a cégek? Van ez így. A legegyszerűbb úgy védekezni, hogy olyan gyártótól vesztek, aki mögött igen nagy gyártócég áll. NV-nél Zotac vagy esetleg EVGA. Az AMD-nél PowerColor vagy Sapphire. Garancia persze még így sincs arra, hogy nem fog cincogni. Ez tömeggyártás, ide bekerülnek a kevésbé jól sikerült komponensek is, teszt pedig nem nagyon van, ugyanis olcsóbb a garit vállalni, mint minden egyes terméket megnézni eladás előtt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #178 üzenetére

    Ilyen sincs, a PS4 és a PS4Pro binárisan kompatibilis. Ha az egyiket tudja futtatni, akkor a másikat is, főleg úgy, ha a PS4Próra van legalább rétegezett kompatibilitás. A Sony nem azért különbözteti meg a két gépet, mert ugyanaz a bináris nem fut mindkettőn, hanem azért, mert az egyik gép erősebb, mint a másik, így más beállításokat kell alkalmazni. Ehhez pedig meg kell különböztetni a hardvert, plusz van pár extra fícsőr a PS4Pro esetében, amihez nem kell feltétlenül eltérő kódot írni, de fordítani már igen. Ergo, ha a PS5 visszafelé kompatibilis lesz, azaz az alapját a GCN2-re építik, akkor abszolút nem lesz gondja a sima PS4 programokkal. Én azonban valószínűbbnek tartom, hogy GCN2 egy vISA-ként lesz hozzáadva a géphez, mivel az viszonylag jól mappelhető az AMDIL/HSAIL-re, vagy akár direkten az új fizikai ISA-ra. Így már tud mit kezdeni a binárissal rendszer feltéve, hogy a real-time fordításhoz megvan a proci, de valószínűleg meglesz, akár egy teljes Zen mag lefoglalható erre a feladatra. Nagyobb gondot jelent a Jaguar emulálása. Igazából, ha van eszük, raknak a fő procirész mellé 8 Jaguar magot és kész. 7 nm-en ez pici lapkaterület, és nem fáj a fejük a szoftveres részen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák