- Futott egy Geekbench kört egy új HTC készülék
- Xiaomi 11 Lite 5G NE (lisa)
- Megjelentek az első HMD okostelefonok, ezek a magyar áraik
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Itt az első kép a 2024-es Nokia 3210-ről
- Készülőben a Xiaomi 2021-es csúcsmodelljeinek HyperOS frissítése
- Redmi Note 13 Pro+ - a fejlődés íve
- Samsung Galaxy A54 - türelemjáték
- Yettel topik
- Oppo Find X5 Pro - megtalálták
Hirdetés
-
Samsung Univerzum: Így ismerhető meg a Galaxy AI bármilyen telefonon
ma A Try Galaxy webalkalmazás kontrollált környezetben mutatja meg, mit tud a One UI 6.1-es rendszer és a mesterséges intelligencia.
-
Agyi chipes gyártóba fektetett a kriptocég
it A Tether 200 millió dollárt fektet a Blackrock Neurotech agyi chipes vállalatba.
-
AMD Radeon undervolt/overclock
lo Minden egy hideg, téli estén kezdődött, mikor rájöttem, hogy már kicsit kevés az RTX2060...
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Pénzlehúzáshoz nem tudunk asszisztálni. Elnézést, hogy a felhasználóknak elmagyarázzuk, hogy a multik le akarják húzni őket.
De te vegyél kupont nyugodtan. A többiek pedig ne vallják be, hogy tuningoltak, és ugyanúgy jár majd a csere.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az benne van a hírben. El lehet olvasni, hogy aki extrém szinten csinálja annak megérheti. Átlag szinten a legdurvább pénzkidobás, amire 2012-ben eddig be lehet nevezni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Csak jó esély van rá, hogy a proci kicsinálásával kicsinálod az alaplapot is. Kapsz egy új procit, és vehetsz egy új alaplapot.
Amiért sokat vállalnak a gyártók a procinál a garira az azért van, mert baromira kevés ezekkel a termékekkel a garanciális probléma. Az eladott processzorok kevesebb, mint 1%-a jött vissza mikor még szervizeltem. Rendszerint azonnal, mert alapból nem voltak jók.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
Definiálni kell a mag fogalmát, és el lehet dönteni, hogy mag, vagy nem mag. Én hajlok afelé, hogy egy modul az egy mag, de van ráció abban, hogy két mag, mert mindkét szál dedikáltan megkapja az összes feldolgozóegységet, így képes két teljesen független mag tulajdonságait ötvözni. Itt az a kérdés, hogy mi a mag definíciója.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az IGP, mint a jövő megoldása kisarkított. Az tény, hogy a homogén többmagos processzorok olyan korlátokat ostromolnak, amit anno az egymagosok. A skálázásnak a fizika törvényei gátat vetnek. Ennek van egy szóban bonyolult leírása: Pollack's Rule
Ezt a szabályt példákkal tarkítva nagyon egyszerűen meg lehet érteni. Megpróbálom felvázolni egy gyakorlati példával a mai igények szerint. Van egy négymagos processzorod x tranyószámmal, x fogyasztással, x egyszálú teljesítménnyel, x összesített teljesítménnyel, és x teljesítmény/watt mutatóval. Most ne emeljünk ki gyártót, mert az architektúra jellemzői rontják az általános vizsgálatát a szabálynak. Egyszerűen x processzor x képességekkel.
Ha ugyanazon a gyártástechnológián maradsz, és nem növeled a tranyószámot, illetve a fogyasztást, akkor attól még tervezhetsz 8 magos processzort. Ilyenkor a méret, a fogyasztás, és a tranyószám megegyezik, de a teljesítmény már nem. Például az egyszálú teljesítmény 30%-kal csökkent, vagyis egy mag a 8 magos egységben a 4 magos egység 70%-ára képes teljesítményben. Az összesített teljesítmény azonban már változik, így ott már nőtt a számítási teljesítmény méghozzá nem is kevéssel. És ugyanígy jobb lett a teljesítmény/watt mutató is. Ez alapvetően a Larrabee koncepciója, mellyel az Intel a dark silicon jelenségre reagált. Na most a gyártók észrevették, hogy az egyszálú teljesítmény még mindig számít, márpedig, ha homogén többmagos processzorral akarják a dark silicon jelenséget elfedni, akkor Atom, vagy Bobcat kategóriás magok kellenek. Nyilván megoldás, mert az összesített teljesítmény jelentősen nőne, de mégsem tetszene mindenkinek. Itt jön elő a magok keverése. Nem kötelező homogén többmagos processzorral előhozakodni, így lehet akár heterogén is. Pár mag a késleltetésre van optimalizálva, míg a GPU-rész a throughput teljesítményre. Ezzel megtarthatod a viszonylag magas egyszálú teljesítményt miközben magas throughput tempót is kapsz a GPU-val. Ezért ez a fene nagy integráció mindenkinél, mert a dark silicon létező probléma, anno a Pentium 4 karrierjét és magát a koncepciót szépen derékba törte, persze az Intel naiv is volt, hogy a fizika törvényeivel akart versenyt futni, de ez most lényegtelen, mert gyorsan reagáltak a megváltozott helyzetre. Most ugyanaz a probléma, csak a többmagos processzorok futnak limitbe. A megoldást egyelőre a heterogén rendszerekben látják a cégek. Nyilván a programozói szokásokat jóval egyszerűbb megváltoztatni, mint a fizika törvényeit legyőzni. Ebből a szempontból logikus a váltás. Az persze tény, hogy még csak a kezdetén vagyunk ennek. Jórészt az integráció a GPU beépítését jelenti valamilyen kommunikációs csatornával a CPU-hoz. Itt az OS szintjén kell fejlesztés még (itt főleg GPU-s MMU támogatásra kell gondolni, ahogy a procinak is van MMU-ja), illetve olyan CPU-t és GPU-t kell összevonni, melyek egyrészt technikailag kiegészítik egymást (ami az egyiknek a gyengéje, az a másiknak az erőssége és fordítva), valamint a GPU esetében fontos, hogy képes legyen címfordításra az x86AMD64 címtartományán belül. Ezenkívül a teljesen koherens memória megosztása is alap. Szerintem nem mondok azzal meglepőt, hogy ezek a projektek szinte mindenkinél készülnek. Az AMD-nél a Bulldozer és a GCN architektúra társul, az Intelnél a mostani CPU-k, és a Larrabee, az NV-nél a Kepler architektúra és a Denver CPU-magok ARMv8-cal. Még az ARM is úgy tervezte az új generációs MALI IGP-t, hogy megfeleljen pár fentebb leírt igénynek az ARM magokhoz társítva.
Az amit az AMD csinál egyáltalán nem egyedi dolog. Azért vannak ők kiemelve, mert a fúziós szempontok alapján az elsők. Itt ugye arra kell gondolni, hogy 2011 elején rakták le az első APU-t, míg a többiek még váratnak magukra, de például tavasszal az Intel is megkezdi ezt az ösvényt az Ivy Bridge termékekkel. A ZiiLabs még ennek a koncepciónak az élmenője, mondjuk úgy, hogy ARM-os szinten. Ők nem sokkal az AMD után rakták le az asztalra az első StemCelles SoC-ot. Persze ha nem nézzük szigorúan a PC-t, vagy a konzumer mobil szintet, akkor a PS3 Cell procija is heterogén többmagos egység. Általánosan az IBM-Sony-Toshiba trió a koncepció élharcosa. Voltak is olyan háttérbeszédek, hogy a Cell sarkalta az AMD-t erre, illetve az Intelt a Larrabee fejlesztésére. Ebben lehet valami, bár szerintem az igazat sosem tudjuk meg. Az biztos, hogy a Cell teljesítménye sokkoló volt akkor a fogyasztáshoz mérten, így ha a gyártók elméletben játszottak is a heterogén chipek gondolatával, a Cell példája adhatta meg ennek a lökést, mivel bizonyította, hogy működik. Az már más kérdés, hogy a Cellre a világ nem volt felkészülve. Itt majd a programozási szokásokkal lesznek parák. A programozók számára a helyzet bonyolódik, de mint mondtam a fizika törvényeivel szembe menni veszélyesebb.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
- Villanyszerelés
- Futott egy Geekbench kört egy új HTC készülék
- Magga: PLEX: multimédia az egész lakásban
- Xiaomi 11 Lite 5G NE (lisa)
- Stellar Blade
- Tőzsde és gazdaság
- Napelem
- Súlyos adatvédelmi botrányba kerülhet a ChatGPT az EU-ban
- Vezetékes FEJhallgatók
- Xbox tulajok OFF topicja
- További aktív témák...