Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz MaUser #39 üzenetére

    Irodai szempontból ott a LibreOffice. Pont a napokban néztük meg a legfrissebb verziót, mert ez lesz az egyik compute teszt az új GPU-s tesztcsomagban, és elképesztő, hogy mennyivel gyorsabb a Calc GPU-s gyorsítással. Gyakorlatilag CPU-val számolva percekig tart a tesztmakróink futtatása, de GPU-val ugyanaz másodpercek alatt megvan.
    Bizonyos esetekben a megosztott memória is előnyös. Ilyen például a talajvíz tesztmakró. Itt sima CPU-val 7-8 perc a számítás, míg GPU-val ez levihető 5-6 percre, de például a Kaveri CPU+IGP-vel 15-20 másodperc alatt megvan ugyanaz az eredmény.

  • lezso6

    HÁZIGAZDA

    LOGOUT blog

    válasz MaUser #27 üzenetére

    Mindig szükség van a nagyobb teljesítményre. Desktopon, átlagfelhasználásra valóban alig kell már valami, de ezt lehet fordítva is magyarázni, azz azért vagy el a 2500K-val, mert újabban nem sokkal gyorsabbak a CPU-k. Nincs már az P4 vs Core 2 vs Core i7 ugrás, vagy mint AMD-nél a K7 és K8.

    A GPU-k ma már nem célhardverek, pont ez a lényeg. Csak másképp kell programozni, erre jönnek ezek a "Java" jellegű IL cumók, melyekre a GPU-k terén jóval nagyobb szükség van (sokféle architektúra még családon belül is), mint CPU-nál, így lehet belőle profit, legalább programozni könnyebb lesz, a kompatibilitás garantált.

    A 20nm-t azért hoztam példának, mert nem sikerült jól. Intelt azt ne vegyük ide szerintem, mert ő ebben nagyon elöl van, a többség szempontjából nem reprezentatív. Ezen a szinten 14 nm még csak most fog jönni, szóval nem vagyunk 20nm alatt.

    FPGA az egy baromi jó iránynak tűnik, de ha még be is jön az intelnek, ezt azért fel kell futtatni, így ez most igen homályos prófécia, hogy mi lesz belőle.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #27 üzenetére

    A heterogén irány sosem azt jelentette, hogy rakjanak a CPU mellé IGP-t, hanem azt, hogy a CPU-t egészítsék ki gyorsítók. Az, hogy ez GPGPU, DSP, ISP, FPGA, esetleg ASIC gyakorlatilag mindegy, a hangsúly a célirányos gyorsításon van. Akár mindet be lehet építeni, csak meg kell oldani, hogy mindegyik ugyanabba a virtuális címtérbe dolgozhasson. Az, hogy a GPGPU-val kezdődött meg az integráció elsősorban annak köszönhető, hogy a programozó számára a GPGPU-ba való belépő a legolcsóbb és a legkönnyebb. A heterogén irány azonban nem zár ki más gyorsítót, akár FPGA is jöhet, bár arányaiban ez a legdrágább és a legnehezebb a programozó nézőpontjából, de elméletben semmi akadálya.

  • Abu85

    HÁZIGAZDA

    válasz MaUser #7 üzenetére

    Ahogy a cikk is írja két lehetséges irány van a teljesítmény növelésére. Mindkettő előnyeit és hátrányait átvette.

    Maxime egyébként az x86-os SIMD implementáció hibái mellé azt is leírta, hogy az ideális irány egy Cray-1-féle dizájn lenne modernizálva, mai mértékben jó sebességgel, de senki sem fog radikálisan újat építeni, mert nem épülne ki rá a szoftveres ökoszisztéma. Tehát ma ott tartunk, hogy az igazi megoldást senki sem támogatná, így a két félmegoldásból kell választani a jobbikat. A GPGPU azért reálisabb, mert szoftveresen megoldhatók a problémái, míg az AVX problémáit csak hardveresen lehet kezelni.
    Jelenleg sokkal reálisabb azt elvárni, hogy az IL/IR-ekkel a GPGPU alternatíva lesz, mint azt, hogy az Intel kidobja az x86-ot, hogy az AVX működjön.

  • lezso6

    HÁZIGAZDA

    LOGOUT blog

    válasz MaUser #7 üzenetére

    Nem az a kérdés, hogy mire kell több szál. A probléma, hogy megírod a programot, de egy kalap kaki lesz, mert egy CPU szálon a sebessége egy kalap túró / nem energiahatékony. Az egyszálas teljesítmény / fogyasztás arány (x86 vonalon) egy ideje alig javul, az utóbbi években igencsak lelassult. Az újabb gyártástechnológiákkal is vannak problémák (lásd 20nm), örökké nem lehet csíkszélt csökkenteni. A kérdés az, hogy hogyan lehetne sokkal jobb teljesítményt és energiahatékonyságot elérni?

    Vannak már jó ideje masszív többszálasításra tervezett architektúrák, melyek már bizonyítottak (mindenhol van GPU), s energiahatékonyságban is igencsak jók egy CPU-hoz viszonyítva. Ezekre kéne felhasználás terén is valahogy építeni, masszívan. Már amit lehet, már ha van értelme, már ha lehet. Sok a ha és jelenleg baromi lassú a folyamat, HSA is nemrég lett szabványosítva, s az új konzolok se hoztak semmi megváltót.

    Így egyelőre még csak próféciák vannak, komoly eredmények nélkül, de jelenleg egyszerűen nincs más út. A FPGA alig valahol, a SIMD kiterjesztések a kutyának sem kellenek, stb., GPU viszont már szinte mindenhol van. Ezzel kell kezdeni valamit. Hacsak nem valaki hirtelen jön valami jobb ötlettel.

Új hozzászólás Aktív témák

Hirdetés