Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz bambano #8 üzenetére

    Nincsenek fals igények. Az ipar lassul a Dennard Scalinggal együtt. Régen egy gyártástechnológiai váltás +50-60%-ot hozott a teljesítményben egységnyi fogyasztás mellett. Ma +10%-nak örülünk. Radikálisan át kell gondolni a chiptervezést, és még jobban kell koncentrálni a pJ/utasítás paraméter csökkentésére. Új programozási modellek is kellenek természetesen.
    Annyira látszik egyébként a kétségbeesett megoldáskeresés. 2002-ben az volt a menő szöveg, hogy 2012-ben nem lesznek fixfunkciós egységek, mindent le kell programozni. Most 2012 van és mit látunk. Ott vannak a fixfunkciós egységek a videó dekódolásra, a transzkódolásra, és hamarosan a JPEG kódolásra is ott lesz egy a Haswell-ben. Illetve ott a SAMU a Trinity-ben, ami a védett tartalom (Blu-ray) kikódolását csinálja a proci helyett. Egyszerűen baromira nem úgy alakul a dolog, ahogy azt tervezték a cégek. A fizika törvényei beleköptek a levesbe. Moore törvénye él, vagyis a tranyók számával nincs baj, de ezeket ésszerűbben kell elkölteni, és bizony a fixfunkciós egységnél energiahatékonyabb megoldás nincs. Igaz, hogy nem előnyös, mert nem programozható, de legalább keveset fogyaszt.

  • Abu85

    HÁZIGAZDA

    válasz Tigerclaw #6 üzenetére

    Az analóg processzor lényegében az analóg számítógépek új formában. A digitális technikák két állapotot írnak le, amit a ki- és bekapcsolt tranyó jelképez. A működés szempontjából baromira egyszerűek, hiszen, vagy van áram, vagy nincs. Ezektől lesz az egész kellően univerzális, és ezért mentünk el a digitális áramkörök felé jó pár évtizeddel ezelőtt. Ma azonban egyre jobban korlátozza a rendszereket a Dennard Scaling vergődése. Nagyjából 10-15 éve megfigyelhető, hogy az egyes új gyártástechnológiák esetében a tranyók bekapcsolásához szükséges energia nem csökken olyan mértékben mint korábban. Az elmúlt években ez annyira jelentős probléma lett, hogy a gyártástechnológiai váltás a kisebb lapkán kívül lényegi előnyöket nem hordoz. Vagyis a teljesítmény növeléséhez növekszik a fogyasztás is, mert a Dennard Scaling szabály már nem működik úgy mint régebben. Ezért váltott az ipar pár éve a többmagos processzorokra. Nehezebb programozni őket, de ha a tranyók bekapcsolásához szükséges energia nem csökken, akkor a pJ/utasítás paramétert kell csökkenteni, és ez a chip tervezésén múlik. Most is váltunk majd az integrálásra, mert így tovább lehet csökkenteni a pJ/utasítás paramétert.
    Az analóg processzor az nem olyan egyszerű, hogy vagy van áram, vagy nincs. Ez az elv nem csak az áram meglétét, hanem annak mértékét is méri. Ugye itt aránylag könnyű dolgokról van szó. Egy vezetékben meg tudod mérni a feszültséget, az áramerősséget, és meg lehet változtatni az ellenállást és a kapacitást is. Itt jönnek elő a differenciálegyenletek, amelyek leírják egy áramkör működését vagyis a feszültség és áram változását. A dolog viszont visszafelé is működik, vagyis, ha van egy probléma, akkor arra lehet egy differenciálegyenletet szimulálni ellenállás és a kapacitás módosításával. Az könnyen kitalálható, hogy ezek eléggé célirányos rendszerek, tehát nem olyan univerzálisak, mint a digitális áramkörök, de fogyasztásban és sebességben jobbak lehetnek, ha csak egy adott problémára keresünk megoldást. A tévedés pedig inkább pontatlanság. A digitális áramkörök pontossága csak tervezéstől függ. Az analóg megoldásoknál korlátozott a pontosság, mert függ a mérési eljárástól. De mivel képekről van szó, így ez annyira szerintem nem lesz baj.
    A digitális áramkörök valószínűleg nem lesznek kiváltva, de ha elég jók lesznek az eredmények, akkor amíg nem jön valami a CMOS helyére addig az analóg processzor potenciális kiegészítő lehet, mert az nem kérdés, hogy a heterogén éra is el fogja érni a határait.

  • Abu85

    HÁZIGAZDA

    Alapvetően igazuk van. A heterogén érával is csak időt nyerünk, de nem valós megoldás a problémákra. Csak egy újabb többmagosítási elv, ahogy azt a processzorgyártók 2004 környékén meglépték. A GPU általános számításra való befogásával egyszerűen nyerünk időben újabb 8-10 évet hátha addig történik valami áttörés, de ha nem, akkor utána megint előjön a skálázási probléma. Ezután mi lesz? Hello FPGA talán?
    Kell valami igazi megoldása a gondokra.

Új hozzászólás Aktív témák