Keresés

Hirdetés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz velizare #1 üzenetére

    Le van írva, hogy rendelkezik PCI-SIG hitelesítéssel, ergo szabványos.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #4 üzenetére

    Negyedik bekezdés.

    (#7) Szaby59: Ez a válasz. Nyilván fontos ez, mert ráadták a plecsnit a kártyára, hogy totál szabványos. De felhívják arra a figyelmet, hogy mennyi mindent el lehet egy ilyen mérésnél baszarintani. Emiatt az adott tesztkonfigurációt kell kivizsgálni. Végtére is ezek hobbi szintű mérések, opcionálisan mérnöki mintákkal, nem ipari berendezésekkel. Egy PCI-SIG tag be tudja viszgálni, és ki tudja deríteni a hiba okát. Például az AMD alkalmas rá.

    A megjelenés előtt pár héttel még nem biztos, hogy mindenkinek rendelkezésre áll a végleges verzió. Ez egy ilyen játék sajnos.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #16939776 #36 üzenetére

    Nem szükséges változtatni. Az a részlet arra vonatkozik, hogy bizonyos termékek rajtja előtt esetleg nincs annyi idő, hogy hivatalos hitelesítést szerezzen a gyártó rá. Ilyenkor egy belső laborban végzett hitelesítéssel is rárakhatják a PCI Express logót, és utána három hónapon belül a PCI-SIG is hitelesíti a terméket. Ha ez nem történik meg, akkor jönnek a problémák. Ugyanakkor a PCI-SIG a Radeon RX 480-at már hitelesítette a saját laborján belül is. Innentől kezdve az esetleges problémákkal specifikusan kell eljárni, hogy kizárják a mérési hibákat. Ha specifikus hiba volt, akkor ennyi. Ha nem, akkor vizsgálja meg a PCI-SIG, hogy miért megy át az ő tesztjeiken, és máshol miért van baj. Ez magával vonhatja a teszt módosítását is.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Yutani #55 üzenetére

    Ugye itt nem igazán ez a kérdés. Hanem az, hogy többet fogyaszt-e, mert a PCI-SIG legalapvetőbb tesztje az, hogy nem fogyaszthat többet 3,3+12 V kombinált terheléssel huzamos ideig (ugye vannak peakre és toleranciára vonatkozó specifikációk). Tehát ha ott átment a hitelesítésen valami, akkor az tuti nem fogyaszt többet a kelleténél. Ezért vizsgálják a tesztelők rendszereit, mert erős a gyanú, hogy
    1. valamit elcsesztek
    2. az alaplap ES volt
    3. valami átmeneti ellenálláspara a tápban (ez elég gyakori)
    4. esetleg ES a táp
    5. szimplán nem elég pontosak a mérőműszerek
    6. esetleg ES volt a VGA
    7. ezek kombinációja

    Ezeket mind ki kell zárni mielőtt ténylegesen a PCI-SIG tesztjére terelődik a gyanú. Utána jön az a kérdés, hogy mért fogyaszt többet, és aztán a "hogy a fenébe ment át".

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz smkb #58 üzenetére

    Azt a PCI-SIG nem engedi meg. Minden revíziót újra kell tesztelni. Ez a lehetőség 100%-ig kizárható. Ha hagynának egy ilyen kiskaput a rendszerben, akkor azt boldog-boldogtalan kihasználná, nap mint nap. Ugye a PCI-SIG tagoknak egyáltalán nem célja az, hogy szétverjék a szabványt. Olyan formában nem éri meg fenntartani sem (a fenntartásba elég sok pénzt raknak bele, dollár tízezres tétel ez évente az AMD-nek, NV-nek, Intelnek, stb.), mert úgyis csak kibújnának a kötelezettségek alól a cégek.
    A revíziók újratesztelése egyébként kiadás előtti jellegű, tehát nincs lehetőség még késleltetni sem, mindig up-to-date kell lenni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #85552128 #62 üzenetére

    Nem valószínű, hogy mértek. Inkább teljes fogyasztást, vagy kalkuláltat közölni. Anand akarta bevezetni a multiméteres mérést, de aztán rájött, hogy még számukra sincsenek sem elérhető árban azok a berendezések, amelyek elég pontosak ahhoz, hogy érdemes legyen ezzel foglalkozni. Gyengébb felszereléssel pedig elég nagy lehet a hibaszázalék. Aztán Anand elment, és maradt a régi rendszer.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz he7edik. #66 üzenetére

    Fontos, hogy ne legyen összekeverve az ASIC TDP és a TGP. A 110 watt az ASIC TDP-je, és valóban szerepel a nem publikus specifikációban, de ott azért van benne, mert az nem kerülhet ki. Persze kikerült. A 150 watt a TGP, amit manapság valamiért szokás TDP-nek hívni, de a lényeg az, hogy az a teljes rendszer default limitje. Ebben benne van a 110 watt ASIC, a 20,5 watt memória és a 18,6 wattnyi egyéb komponens. Plusz egy picike kerekítés felfelé.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Petykemano #74 üzenetére

    Pedig mindig megkülönböztetik, csak azok a specifikációk nem látnak napvilágot.
    A GDDR5 memória fogyasztása a felhasznált lapkáktól függ, nem igazán a GB-októl. 8 GB-ot lehet 8 vagy 16 lapkával is csinálni és a fogyasztás közel sem lesz ugyanannyi. A HBM1 lapkánként ~2 wattot eszik.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz GeryFlash #84 üzenetére

    Az nagyon változó ~3-5 watt (ez a nagy átlag). Nagyon sok dologtól függ, mert rengeteg lapka van.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Gpety #94 üzenetére

    Nem tudom, hogy az AotS miért az AMD-é, elég sok NV optimalizálás van benne. Azért megy jobban AMD-n, mert nagyon rátervezték az architektúrát az explicit API-k limitjeire, így például a tök szabványos multi-engine és multi-thread kódtól az AMD jobban gyorsul.
    Az Aots már csak azért is példás gyártói szemszögből, mert Dan Baker nem fogad el gyártóspecifikus optimalizálást. Ezt csak azért emelem ki, mert például az új Doom Vulkan kódja és az új Deus Ex DX12-es kódja tele lesz GPUOpen shader intrinsic-kel, amelyek nem hogy gyártóspecifikusak, de még az API-kban sincsenek specifikálva. Egyszerűen az AMD kiterjesztett HLSL ext. és SPIR-V fordítóján juttathatók el a kódok kizárólag az AMD GPU-kra. Ha az AotS az AMD-é, akkor ezekre a játékokra mit mondunk?

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Egon #99 üzenetére

    Azért nagyon fontos, hogy az NV-nél nem azért van szapulva az NV, mert belerakja az effektek, hanem azért, mert az effekt még a saját rendszerein is indokolatlanul magas erőforrás-igénnyel rendelkezik. Csak egy kis adalék, hogy emlékszel, hogy a Far Cry Primal csúszott a konzolos megjelenéshez képest? Na most nem azért jelent meg PC-re március 1-jén, mert az az 5 nap annyira számított a stúdiónak, hanem azért mert nem akarták belerakni a GameWorks-öt, és megvárták, amíg lejár a szerződés. Az oka ennek az volt, hogy a licenc nem engedte meg, hogy felgyorsítsák az effektek futtatási sebességét, pedig megcsinálták volna...

    (#100) Gpety: A Mantle hagyományos szinten már nem létezik. Vulkan lett belőle. A Mantle mostantól a LiquidVR része, amit olyan dolgokra használnak, mint az LDL, vagy éppen most a szemkövetés. Ezeket Mantle nélkül nem lehet megcsinálni, mert a szabványos API-k nem engedik meg, hogy a vertex shader lépcső előtt változzanak bizonyos dolgok, és ezért az NVIDIA sem tudja belerakni a saját VR csomagjába.

    Igazából a DX12 vagy Vulkan egyre megy. Nyilván az AMD-nek a DX12 sokkal kedvezőbb, de a Vulkan is jó számukra. A többi gyártó jobban örülne a Vulkan API terjedésének, mert abban még nincsen pure bindless bekötés (konkrétan bindless sincs), és ebben vannak nagyon lemaradva az AMD mögött.
    Shader intrinsics pedig van mindkettőre. Ez az AMD fő fókusza most.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #20655360 #117 üzenetére

    Ha többet fogyaszt, akkor az nem a kártyára nézve probléma, hanem az iparágra, hogy miképp mehet át egy lassan fél évtizede éve hibátlanul szűrő teszten.
    A vásárlókra nézve azért nem probléma, mert a gyárilag tuningolt VGA-k 70-80%-a megbukik a PCI-SIG hitelesítésen, és láthatóan nem állnak hegyekben a leégett alaplapok, házak, városok.

    (#121) Riddick77: Ilyen nem lehetséges. A PCI-SIG nagyon szigorú a termékrevíziókra. Mindegyik revíziót újra kell tesztelni. Olyan nincs, hogy egy revízió átmegy és a következőt árulják. Azt nem rakhatják addig a dobozba, amíg át nem ment a teszten.

    A custom verziók mások. Ott teljesen normális, hogy a gyártók még tesztre sem küldök a gyárilag tuningolt modelleket, mert megbuknának. Nagyon sok, főleg custom VGA dobozáról hiányzik ezért a hivatalos PCI Exrpess logo. Helyére sokan egy módosított logót raknak, vagy csak egy jelölést, hogy PCI Express slotba rakható a termék.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz #06658560 #141 üzenetére

    Sajnos ez nem igaz. Megfelelő pontosságú hardver és a szabvány aktuális verziójának ismerete nélkül a tesztelő meg van lőve. Sajnos ma csak a PCI-SIG képes függetlenül elbírálni, hogy egy hardver szabványos-e vagy sem. Remélhetőleg ez megváltozik, akár azzal, hogy kiadják a legfrissebb specifikációkat, ezek ugyanis egy rövid ideig NDA-sak a belső véglegesítéstől kezdve. Még jobb lenne, ha a PCI-SIG publikusan definiálná a hitelesítési procedúrát, akár csak részlegesen is, mert azt úgy egyszerűbb lenne reprodukálni.

    Sajnos a kisebb hibák, amelyek a hobbimérésekbe benne vannak pont elegek ahhoz, hogy inkompetensé válljanak. Nem véletlen, hogy a most is a specifikus mérést vizsgálják és nem a PCI-SIG hitelesítési tesztet.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Reggie0 #152 üzenetére

    Akkor írd ide, hogy mi a PCI-SIG hitelesítés menete, mik a pontos követelmények ma, milyen pontosságot garantáló gépekkel végzik, stb. Esetleg egy dokumentum is jó, ami lépésről-lépésre leírja az egész menetét, hogy reprodukálni lehessen.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Reggie0 #154 üzenetére

    Hogyan tudod egy hardverről megmutatni, hogy van ahol nem követi a specifikációt, ha nem ismered a hitelesítési folyamatot, illetve ami fontosabb: a kapcsolódó legfrissebb specifikációkat?

    Egyébként a PCI-SIG hitelesítette, tehát azt kell bebizonyítani, hogy a PCI-SIG évek óta működő mérési folyamata hibás. Ráadásul úgy, hogy nem tudjuk mit a pontos követelmények, mert a legfrissebb specifikáció nem publikus.
    Ez azért nem egyszerű menet. Ráadásul a PCI-SIG fog legelőször szólni, hogy ha valami gond van náluk, mert tucatnyi más szervezet szeretne a helyükbe lépni, és felkarolni a gyártóktól a pénzt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Raymond #170 üzenetére

    A kiegészítés ebből a dokumentumból származik: [link]
    Van újabb (2015 november), de az nem érhető el csak a tagoknak. A PCI-SIG szerint az a rész, amit én kiemeltem nem változott.

    A cikk egy szóval sem jelzi, hogy egy csatolón kell átküldeni az összes energiát. Az csak a teljes fogyasztásra vonatkozik. Erre tér ki a következő bekezdés, amely leírja, hogy 12 V-on 5,5 A mehet át. Ez összesen 66 W, és nem számoltam a 3,3 V-ot, ami 9,9 W, de van +/-8% tolerancia. A peak értékek ennél magasabbak is lehetnek. Na most erre a szabványra a PCI-SIG hitelesítette a kártyát! A kérdés az, hogy rossz a hitelesítési teszt, vagy rosszak a hobbimérések.

    (#182) Raymond: A peak/low-ra is van szabvány, persze annyira nem érdekes.
    Le van írva a hírben, hogy mi a PCI Express határérték 12 V-ra. 5,5 A. Az is le van írva, hogy nem számoltak a 3,3 V-tal és a +/-8%-os toleranciával, csak az egyszerűség miatt, de hsz-ben, amire válaszoltál ez is benne van.
    Ki írta, hogy lesz olyan? A hírben a csatoló fogyasztási limitje van, ami le van írva hogy jön ki. Az nem azt jelenti, hogy annyit ki is ránthatsz belőle. Erre van a következő bekezdés, ami magyarázza tovább. A többi már szövegértés.

    Az is benne van a hírben, hogy az AMD elmondta, hogy átment a PCI-SIG tesztjén.

    Szerintem is kínos, hogy egyre több a funkcionális analfabéta.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz KisDre #224 üzenetére

    Nem szükséges. A PCI-SIG kizárja a drivert. Ezt azért teszik, mert nem szeretnék, ha a szoftver befolyásolná a hitelesítést. Ez a mérés előnye. Persze ugyanez a hátránya is, hiszen kizárják a szoftvert a hitelesítésből. Abban nem vagyok biztos, hogy ők valaha is bevesznek szoftveres tényezőket a mérésekre.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák