- iPhone 16e - ellenvetésem lenne
- Xiaomi 15 - kicsi telefon nagy energiával
- Mobil flották
- Prohardver app (nem hivatalos)
- Samsung Galaxy S24 Ultra - ha működik, ne változtass!
- Poco F6 5G - Turbó Rudi
- Magisk
- Samsung Galaxy S25 Ultra - titán keret, acélos teljesítmény
- Fotók, videók mobillal
- Azonnali mobilos kérdések órája
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Nincsenek fals igények. Az ipar lassul a Dennard Scalinggal együtt. Régen egy gyártástechnológiai váltás +50-60%-ot hozott a teljesítményben egységnyi fogyasztás mellett. Ma +10%-nak örülünk. Radikálisan át kell gondolni a chiptervezést, és még jobban kell koncentrálni a pJ/utasítás paraméter csökkentésére. Új programozási modellek is kellenek természetesen.
Annyira látszik egyébként a kétségbeesett megoldáskeresés. 2002-ben az volt a menő szöveg, hogy 2012-ben nem lesznek fixfunkciós egységek, mindent le kell programozni. Most 2012 van és mit látunk. Ott vannak a fixfunkciós egységek a videó dekódolásra, a transzkódolásra, és hamarosan a JPEG kódolásra is ott lesz egy a Haswell-ben. Illetve ott a SAMU a Trinity-ben, ami a védett tartalom (Blu-ray) kikódolását csinálja a proci helyett. Egyszerűen baromira nem úgy alakul a dolog, ahogy azt tervezték a cégek. A fizika törvényei beleköptek a levesbe. Moore törvénye él, vagyis a tranyók számával nincs baj, de ezeket ésszerűbben kell elkölteni, és bizony a fixfunkciós egységnél energiahatékonyabb megoldás nincs. Igaz, hogy nem előnyös, mert nem programozható, de legalább keveset fogyaszt. -
Abu85
HÁZIGAZDA
Az analóg processzor lényegében az analóg számítógépek új formában. A digitális technikák két állapotot írnak le, amit a ki- és bekapcsolt tranyó jelképez. A működés szempontjából baromira egyszerűek, hiszen, vagy van áram, vagy nincs. Ezektől lesz az egész kellően univerzális, és ezért mentünk el a digitális áramkörök felé jó pár évtizeddel ezelőtt. Ma azonban egyre jobban korlátozza a rendszereket a Dennard Scaling vergődése. Nagyjából 10-15 éve megfigyelhető, hogy az egyes új gyártástechnológiák esetében a tranyók bekapcsolásához szükséges energia nem csökken olyan mértékben mint korábban. Az elmúlt években ez annyira jelentős probléma lett, hogy a gyártástechnológiai váltás a kisebb lapkán kívül lényegi előnyöket nem hordoz. Vagyis a teljesítmény növeléséhez növekszik a fogyasztás is, mert a Dennard Scaling szabály már nem működik úgy mint régebben. Ezért váltott az ipar pár éve a többmagos processzorokra. Nehezebb programozni őket, de ha a tranyók bekapcsolásához szükséges energia nem csökken, akkor a pJ/utasítás paramétert kell csökkenteni, és ez a chip tervezésén múlik. Most is váltunk majd az integrálásra, mert így tovább lehet csökkenteni a pJ/utasítás paramétert.
Az analóg processzor az nem olyan egyszerű, hogy vagy van áram, vagy nincs. Ez az elv nem csak az áram meglétét, hanem annak mértékét is méri. Ugye itt aránylag könnyű dolgokról van szó. Egy vezetékben meg tudod mérni a feszültséget, az áramerősséget, és meg lehet változtatni az ellenállást és a kapacitást is. Itt jönnek elő a differenciálegyenletek, amelyek leírják egy áramkör működését vagyis a feszültség és áram változását. A dolog viszont visszafelé is működik, vagyis, ha van egy probléma, akkor arra lehet egy differenciálegyenletet szimulálni ellenállás és a kapacitás módosításával. Az könnyen kitalálható, hogy ezek eléggé célirányos rendszerek, tehát nem olyan univerzálisak, mint a digitális áramkörök, de fogyasztásban és sebességben jobbak lehetnek, ha csak egy adott problémára keresünk megoldást. A tévedés pedig inkább pontatlanság. A digitális áramkörök pontossága csak tervezéstől függ. Az analóg megoldásoknál korlátozott a pontosság, mert függ a mérési eljárástól. De mivel képekről van szó, így ez annyira szerintem nem lesz baj.
A digitális áramkörök valószínűleg nem lesznek kiváltva, de ha elég jók lesznek az eredmények, akkor amíg nem jön valami a CMOS helyére addig az analóg processzor potenciális kiegészítő lehet, mert az nem kérdés, hogy a heterogén éra is el fogja érni a határait. -
Abu85
HÁZIGAZDA
Alapvetően igazuk van. A heterogén érával is csak időt nyerünk, de nem valós megoldás a problémákra. Csak egy újabb többmagosítási elv, ahogy azt a processzorgyártók 2004 környékén meglépték. A GPU általános számításra való befogásával egyszerűen nyerünk időben újabb 8-10 évet hátha addig történik valami áttörés, de ha nem, akkor utána megint előjön a skálázási probléma. Ezután mi lesz? Hello FPGA talán?
Kell valami igazi megoldása a gondokra.
Új hozzászólás Aktív témák
- Motorolaj, hajtóműolaj, hűtőfolyadék, adalékok és szűrők topikja
- Milyen széket vegyek?
- iPhone 16e - ellenvetésem lenne
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Xiaomi 15 - kicsi telefon nagy energiával
- Autós topik
- Anglia - élmények, tapasztalatok
- Milyen házat vegyek?
- Renault, Dacia topik
- Kerékpárosok, bringások ide!
- További aktív témák...
- DELL Universal Dock D6000 docking station (452-BCYH) (DisplayLink)
- BESZÁMÍTÁS! Sony PlayStation4 PRO 1TB fekete konzol extra játékokkal garanciával hibátlan működéssel
- BESZÁMÍTÁS! Gigabyte H610M i5 13400F 16GB DDR4 512GB SSD RX 6700XT 12GB DeepCool MATREXX 40 650W
- Csere-Beszámítás! Akciós Gamer PC! R5 5500 / GTX 1070Ti Rog Strix / 32GB D4 / 500GB SSD
- Honor Magic7 Lite 8/512GB, Kártyafüggetlen
Állásajánlatok
Cég: PC Trade Systems Kft.
Város: Szeged
Cég: CAMERA-PRO Hungary Kft
Város: Budapest