- Google Pixel topik
- Fotók, videók mobillal
- Azonnali mobilos kérdések órája
- Samsung Galaxy Watch (Tizen és Wear OS) ingyenes számlapok, kupon kódok
- 8300 mAh, maradhat?
- Xiaomi 15 vagy Samsung S25
- Légies iPhone halvány színei
- iPhone topik
- Változó design, tekerhető lünetta: megjött a Galaxy Watch8 és a Classic
- Android alkalmazások - szoftver kibeszélő topik
Új hozzászólás Aktív témák
-
subpixels
tag
-
VinoRosso
veterán
bocs h 2x ment szaraxik a netem
-
Ez így van. Igaz először csupán grafikus gyorsítóként kívánja a intel behozni a terméket, az általános célú gyorsítókártya szerepet is későbbre szánják, így egyenlőre az nvidia és az ati fő konkurrencia. Ált. matematikai számításokra jelen pillanat a legjobb megoldás a cell alapú "olcsó" kártya.
Az ati az úttörő, ahol először adtak lehetőséget általános célú gyorsításra vga-val. (grid projecthez (asszem a rosetta)). Középkategóriábn tuti amd is hozza ezt a kialakítást, de hogy high-end téren mikor rukkol ilyennel elő az még kérdéses. Az nvidianak meg most ez az egész para, nem tudnak még mit lépni ellene, de majd meglátjuk.
Korábban még olyan cikket is olvastam hogy a vga-k nagy számítási teljesítményét audio téren is fel lehetne használni. Elvégtére egy komolyabb studiómunkához kell a hatalmas számítás és erre valamilyen kezdeményezés indult is, de hogy hol tart, azt nem tudom.
Vélhetően 2009-ben csak a vga piacon száll majd ringbe a Larrabee, aztán 2010-ben jön a többi felhasználású terület, de addig pedig még sok víz fog lefolyni a Dunán és tuti más gyártó is bedob pár új szépséget. -
dezz
nagyúr
Az is bizonyos, hogy összetettebb általános mat. számításokban a Larrabee (akár csak a Cell) jobb lesz, mint egy papíron (peak FLOPS-ban) jóval gyorsabb GPU. Bár a Radeonok is eléggé jönnek felfelé ebben, de azért az mégsem CPU-s alapokon nyugszik.
ps. nem ítél el senki, ez egy véletlen.
De mindegy, ne erőltessük.
-
[OFF]Semmi vitát nem kívánok szítani, ha van valami infóm csupán megosztom. Hogy ki hogy veszi fel, abba már nem megyek bele.
84#: ártatlan vagyok ne ítéljenek el!
[/OFF]
No de moderáljuk magunkat és tényleg kanyarodjunk vissza az original témához. Nem szeretem a sok sarat.
No és akkor ami tényleg a témába is vág:
85#: a programozók csábíthatósága valószínüleg nem lessz gond, mert az intel nagyon jó compiler-eket, vagy talán a legjobbakat csinálja.
Ajánlanám végigolvasni az anandtech cikkét ebben a témában: [link] -
tiv83us
veterán
Back to the original subject plzthx.
-
Bgs
senior tag
Hat mukodni garantaltan mukodni fog, a kerdes foleg az, hogy milyen hatarok kozott lesz a teljesitmenye, mennyibe kerul a proci, mennyire csabithatoak a programozok, mikor jelenik meg nagy volumenben, melyik piaci szegmens lehet a celpontja, hogy sikerul a marketing es milyen lesz a fogyasztoi visszhang... szerintem tok nyugodtan josoljal, senki nem fog megkovezni, ha nem jon be
Egyebkent, ha nem csak lotto tipp jelleggel josolgat az ember, hanem leirja az eszmefuttatast is, akkor tanulsagos lehet, es ertelmes vitakat lehet folytatni. Szoval ertelmes is lehet...
-
dezz
nagyúr
Azt azért leírhattad volna, hogy a #48-asban az "azzal" alatt konkrétan a PowerXcell 8i-et értetted (kisebb csíkszélességű változatait), vagy általánosan a Cell családot (pl. a későbbi 32 és mégtőbb SPE-s váltrozatokat). Ezzel nem beszállnál a vitába (ami inkább csak értelmetlen flame már), hanem rövidre zárnád azt a vonalat.
ps. ha én egy többféleképp értelmezhető megfogalmazással vitát szítanék, kötelességemnek érezném tisztázni a helyzetet. Főleg ha az egyik fél a személyeskedés felé viszi a dolgokat.
-
Nem akarok a vitába beszállni, mert igen nehéz megjósolni hogy melyik megoldás lessz az erősebb. Nagyok sok tényezőtől függ hogy mi a jobb. PL. anno intel megcsinálta az L3 cache-el ellátott P4 prociját, de igazából semmit nem segített egy asztali gép teljesítményén, ellenben sokprocis szerverkörnyezetben megkövetelt volt.
Sok-sok eltérő koncepció, más-más megközelítések, úgy gondolom nehéz a kettőt egymással most még szembeállítani, mert ezt majd csak a mérések fogják tudni igazolni.
Az tény hogy az ilyen kialakítás a cell-ben valósult meg lőször és ezzel az ibm-nek több a tapasztalata és ki tudja, mire az intel kiadja a termékét mivel rukkol elő.
Cell alapú általános gyorsítókártya pc-be már most is kapható pl. (potom 2000dolcsiért)
mod: még annyit hogy az L4 cache koncepció nagy hátulütője hogy nagyban drágítja a terméket, a cél pedig az hogy versenyképes maradjon a piacon a cucc. Nem is beszélve a nagy többlet melegedésről. Ezen a téren az cellel az IBM megintcsak jobban áll, mivel a kezdeti melegedési problémákat a 65nm-re áttéréssel szépen megoldották már.
-
dezz
nagyúr
Én úgy látom, az az ásó a te kezedben van. Persze magaddal együtt engem is igyekszel elásni. Szánalmas. Nem lehetne inkább ezen alantas személyeskedés nélkül?
ps. annál mélyebbre szerintem én magamat nem tudom ásni, mint amikor te azt bizonygattad hasonló stílusban, hogy a többmagos, és főleg ebből többprocis rendszerek teljesítményének mérésére a sima SPEC tesztek valók -- az ugyanazon tesztek többszálas változatait tartalmazó SPEC_RATE helyett... Vagy pl. amikor azzal jöttél, hogy a korábbi európai PS3-ban full szoftveres a PS2 emuláció, és a 40GB-osban "még ezt is kihagyták", és az ezen tévedést (kultúráltan) taglaló hozzászólásaimra is hasonlóan reagáltál... Nem kellene már észrevenned azt a bizonyos gerendát?
-
Bgs
senior tag
Hat ha sok szalon akarsz dolgozni, akkor pl. kapasbol nem csak egy kepet kell beolvasni. Munka kozben nem egy peldanyban szerepel az adat, mert eleg sokszor nem teheted meg, hogy folulirod. Pl. 8 kep, uj kimenet -> 16*8MB=128MB. Es akkor meg optimista voltam
Jonnek a nagyobb felbontasu monitorok, ez 8-12MB-os kepeket jelent. Tobb frame-mel is dolgoznia kell a rendszernek egyszerre, ezenkivul ott vannak a texturak, amit ugyancsak ra kell huzni a dolgokra tehat operativnak kell lennie (statikusan foglalja a helyet). Pillanatok alatt el tud fogyni az a 128MB
-
dezz
nagyúr
Az általad idézett mondatban az "azzal" valószínűsíthetően nem a PowerXcell 8i-re vonatkozott (hiszen az csak egy Cell variáns a több közül), hanem általánosságban a Cell családra. Különben nagyrészt mindegy lenne, hogy milyen csíkszélesség. A puszta órajelbeli növekedés nem annyira meghatározó, mint a magszám erőteljes növelése, amire Balu77 is gondolhatott, hiszen szerepel a dolog az általa neked linkelt szövegben. Idézek:
"Earlier IBM said that with 45nm process technology it will be possible to create a more powerful Cell processor with two Power processor elements along with thirty two synergetic processor elements."
(Mindezt akár 6-7 GHz-cen, és 8 GHz-es XDR-rel...)
-
Raymond
titán
#48:
"Hasonlót már megcsináltak a cell-ben is és most az ibm az új kifejezetten 64-biten is rendesen muzsikáló cell változatot már nyomatja szerverekben."
= PoweXcell 8i
"És persze hozzá kell tennem hogy 65nm-en, szóval ha azzal is áttérnek 45nm-re illetve még kisebbre akkor leszek kiváncsi mennyire lessz majd az intel partiban vele."
Ez meg mindig ugyanaz a chip csak 45nm-en. Szoval mi is a problemad a #50-ben irt szamokkal?
-
dezz
nagyúr
Ennek az összehasonlításnak nem sok értelme volt, hiszen kb. 4 év van köztük, és időközben az IBM sem pihen. 2 éven belül dupla órajelű, 32db SPE-s Cell várható. Emellett már a mostaninak is ~200 GB/s a belső busza, és a belső memóriával is gazdaságosabban bánik. (Hasonlóan ahhoz, ami a TeraScale-lel kapcsolatban elhangzott.)
-
Bgs
senior tag
válasz
shabbarulez #66 üzenetére
Viszont, ha a struktura alapvetoen a mid-low kategoriat celozza meg, raadasul ugy, hogy nem lehet egyertelmuen felfele lepni onnan, akkor nehez lesz komoly 'atteresekre' szamitani, hiszen a jatekszoftver fejlesztok nem fognak nagy energiat fektetni egy olyan uj rendszerbe, ami a jetekosok nagy reszenel nincs.
Ahhoz, hogy komoly attorest tudjanak elerni (imho) olyan megoldas kell, amin azt erzik a fejlesztocegek, hogy az Intel szinte barmikor fol tud vele lepni a felsobb kategoriakba is, amint megjelennek az elso huzo szoftverek.
Ha IGP kategoriaban akar maradni, akkor esetleg lehet valami kompromisszumos memoria rendszert csinalni, ami elegseges savszelessegu, de az idozitesei is elviselhetok.
L4 cache: Az a baj, hogy egy ekkora cache meret megdobja az arakat, viszont sok dolognal nem lesz eleg a merete. Ha olyan muveletek kerulnek elo, ahol nagy mennyisegu kis meretu, folyamatosan valtozo vagy rovid eletu adatokkal kell dolgozni, akkor egyre kevesbe szamit a L4 cache, mert minden csak atutazik rajta. (ld. pl. nagy meretu hdd cache-t, ami nehany dolgon sokat dob, nehanynal viszont szinte semmit nem szamit).
-
shabbarulez
őstag
A diszkrét video kártyás rendszereknél ugyanúgy gddr5-ös memóriával menne a Larrabee mint mint most a konkurens rendszereknél, így e téren én nem látok gondot. A Rambus anno tavaly felvázolt a 2010 utáni időszakra egy 1 TB/s-es memória elérési rendszert, ami igen nagy párhuzamosságú és videokártyákhoz, konzolokhoz ajánlanák. Gyanítom a konkurens GDDR rendszereknél is elő fognak állni valami hasonlóval
Az integrált rendszereknél egy hatékony cache szervezés hozhat megoldást és persze a memória csatornák száma ott növekedni fog. Az integrált rendszereknél ne high end grafikus teljesítmény képzelj el, mind a diszkrét megoldásoknál, hanem alsó és közép kategóriás video teljesítményt. Ott pedig ma sem 100GB/s feletti sávszél van, hanem alsó kategóriánál 15-25, középnél 40-60GB/s.
A Nehalemnél két DDR3-as memória vezérlő lesz ami 25GB/s-re elég DDR3-1600 mellett. A cpu mellé pakol G45-ös IGP 45nm-es változatával az szerintem elégséges lesz, bár annak az átmeneti változatnak még nem semmi köze nem lesz a Larrabeehoz. A 32nm-es shrinknél egy évvel később a memória csatornák száma növekedni fog, legalábbis az előzetes infók erre engednek következtetni. A Sandy Bridge esetén pedig könnyel lehet hogy már 4 memória csatorna lesz mainstream rendszerek esetén is, ami 50GB/s-hez már elég lenne, amihez egy középkategóriásabb video teljesítményt nyújtó Larrabeet lehetne az általános célú magok mellé integrálni. A cache szervezés nagy valószínűleg hasonló lesz majd mint most Larrabeenél egy nagyobb méretű L2 osztott cachere kapcsolódnak az egyes magok(Sandy Brigde és Larrabee magok is vegyesen) és egy ring busos összeköttetés lesz a magok között. Egy 2 éve kiszivárgott Intel slide ring bust írt mind a Sandy Bridge mind a Larrabee esetén, ez utóbbiról most biztosan tudjuk hogy úgy is lesz, nagy valószínűséggel a másik esetben is be fog jönni. Márpedig miért is rakna ring bust a procijába Intel, ami tőle eddig igen volt, hanem nem épp az Core és Larrabee magok integrálása lenne a célja.
Az integrált megoldások általad is említett késleltetés problematikájára pedig írtam egy Intel féle koncepciót #41-ben. L3 cache helyett, esetleg L4 cachként megjelenne tokozáson belül így az operatív memóriánál jóval kisebb késleltetéssel egy viszonylag nagy méretű belső memória. Mondjuk 32nm-en 64MB, 22-en 128MB szerintem megoldható lenne, de lehet akár több is. Ennek a memóriának 100-200GB/s sávszélessége lenne és mivel tokozáson belül van viszonylag alacsony késleltetése. A fő memória felé meg ott lenne a 4 csatornás ddr3-as 50GB/s. Egy ilyen hatékonyabb cache hierachiával javítani lehetne a memória kezelés hatásfokát.
-
Bgs
senior tag
Attol fugg... az alaplapra integralt cpu-s megkozelitesben cpu funkciokat is rendesen kell tudnia ellatni. Viszont azok meg sokat romlanak rossz idozitesekkel. Tehat pl. az oprendszernek es a 'hagyomanyos' szoftvereknek is jol kellene mukodniuk tovabbra is. De 3d jatekoknal is szamit, hiszen hiaba a jo 3d rendereles, ha a cpu resz nem tudja eleg gyorsan ellatni adatokkal, magyaran a memoria kapcsan cpu limitesse valik a rendszer.
-
A cell-ről még annyit, hogy most fejlesztette ki az IBM az új 64biten is szépen muzsikáló változatát kifejezetten szerverekhez. Mindemellett 2010-ig még tuti gyorsítanak tovább rajta. Némi ízelítő a cell jövőbeli fejlesztésének terveiről: [link] Illetve dolgozik az ibm a power7-en lásd cikk itt: [link] ami ugyancsak kezd hasonlítani.
Akárhogyis vesszük, az erősen párhuzamosított procik irányába megyünk és az hogy ezt grafikus gyorsítókból beintegrált, vagy más módon oldják meg már csak részletkérdés. -
Raymond
titán
-
Rive
veterán
válasz
shabbarulez #59 üzenetére
Ez mind nagyon szép, és látok is a potenciált ebben az újfajta felépítésben - ahogy a többiben is. Lehet, az csak az én bajom, hogy túl sok efféle ambiciózus/ígéretes tervet láttam más sétatempóba kapcsolni, akadozni, meg-meglódulni, parkolópályára kerülni... Nem gondolom, hogy ez olyan egyszerű és gyors lesz, ahogy írod.
-
Bgs
senior tag
Viszont kerdes, hogy a diszkret GPU vonalon milyen savszelek lesznek 2-3 ev mulva. Valamint az is egy erdekes kerdes lesz (ez a Fusion-t is erinti), hogy a mai, nagy savszelessegu GPU-k altal hasznalt memoria rendszerek gyorsak, de latency az eleg gyatra. Ez viszont a CPU jellegu funkciok szempontjabol nem tul pozitiv. Szoval a ketfele funkcional vagy a CPU vagy az uj blokkok erdeke serulni fog. Innentol viszont nagyon szoftver fuggo lehet, hogy hogyan teljesit a chip. Biztos probalnak majd megoldast talalni erre, de kivancsi lennek merre probalkoznak.
-
shabbarulez
őstag
Nem kell annak annyi idő. Véleményem szerint az első 45nm-es Larrabee változat egy nulladik generációs termék, aminek az egyetlen feladata az hogy a fejlesztők gépében legyen egy kézzelfogható hardware amire programokat fejleszthetnek. Ennek igazából az a célja hogy a valódi első generációs 32nm-es Larrabee terméknek kibetonozza az utat, azzal hogy az már széles, kitesztelt software választékba érkezhet. Hisz egy hardware software nélkül önmagában semmire sem jó, ezt azért a Cellnél is igen jól lehetett látni.
A Cray a 10 petaflopos rendszerét 2010/11-re tervezi, ez pedig erősen a 32nm-es Sandy Bridge és Larrabee elérhetőségének dátuma körül van. Hasonló hybrid rendszerű szuperszámítógépet terveznek mint most a Roadrunner Opteron+Cell alapokon, ami nemrég átlépte az 1 petaflopos határt. Ez inkább 2-3 év távlata nem pedig alsóhangon 5-8.
Az integrált rendszerek nulladik generációs lightosított változatával jővő nyáron mint az AMD, mind az Intel érkezik szóval a folyamat elég rövid időn belül elindul. Először nem integrálva csak a cpu mellé közös tokozásba kerül majd gpu, ami AMD-nél nagy valószínűséggel a 780G 40/45nm-es utódja lesz, Intelnél meg a G45 45nm-es utódja. Egy évvel később ezeknek már a 32nm-re tovább csökkentett változatai érkeznek. Aztán 2010/11 felé jön majd mindkét proci gyártó részéről egy új generációs architectúra. AMD-nél a Bulldozer, Intelnél a Sandy Brigde, itt már mind a két terméknél erősen az várható hogy nem csak chipen belüli közös tokozású IGP kerül majd a CPU mellé, hanem integrálódnak. Az AMD Fusionja pont erről szól, hogy az általános célú CPU-k mellé odakerülnek az APU-k, amik nagy valószínűséggel a mostani nagy magméretű GPU-k helyett inkább több kisebb méretű GPGPU-vá alakulnak majd át APU-vá. Intel nagy valószínűséggel ekkor fogja majd nyugdíjazni a GMA IGP-ket és tér át Larrabeera a Sandy Bridgek mellé integrálva. Ez megint nem tűnik olyan távolinak 2-3 éven belül mindkét proci gyártótól várhatók hasonló kialakítású termékek amik a mobil és desktop fronton is jól szereplhetnek majd.
Pont ez az integrált kialakítás felé törekvés a Fusion és TeraScale project lényege. Az hogy ugyanúgy ahogy ma egy SSE kiegészítés egy CPU részét képezi így a software fejlesztők arra építhetnek ha masszív párhuzamosságú feladatot kell megoldaniuk, úgy a jővőben mint kvázi egy "SSE kiegészítés" úgy támaszkodhassanak a softwarek a Larrabee vagy Fusionos APU magokra, hasonlóan ahogy a Cell esetén is PPE is kiaknázza a mellé integrált SPE-k képességeit.
Ami változik majd Intel fronton az hogy az SSE-t nyugdíjazzák és jön majd helyezette az AVX a Sandy Bridgeben és nagy valószínűséggel a Larrabee vektor utasítás kiegészítése is az AVX lesz vagy annak egy változata, de ezt remélhetőleg egy hét múlva a Siggraphon megtudjuk. Az AMD pedig a Bulldozernél az SSE5 felé fog majd továbblépni.
Az Intel előnye pont az AVX-ből származhatna, amennyiben a Larrabbe is ugyanazt használni. Azonos x86 utasítás alapok, azonos vektor utasítás kiegészítés esetén egy Sandy Bridge és Larrabee páros programozhatósága nagy mértékben egyszerűsödne. Az AMD Fusionjánál pont ez lesz a kérdéses pont hogy az APU-kat hogy lehet majd hatékonyan programozni.
-
Rive
veterán
Nem tévedsz. Valóban (sokkal!) közelebb áll a Cellhez, mint a mai GPU-k. De versenytársa nem lesz még néhány generációig. Szerintem.
Shabba: mint potenciális felhasználási területet, aláírom, amit mondasz. De szerintem ez nem lesz meg még néhány generációig. SZVSZ alsó hangon is 5-8 év, mire a Cell és a Larrabee versenytársak lesznek.
-
shabbarulez
őstag
Egyáltalán nem megjelenítés centrikus. Egy általános célú cpu tömb masszívan párhuzamos számításra optimalizált vektor kiegészítésekkel. Ezzel bármilyen nagy párhuzamosságot igénylő feladat hatékonyan végrehajható, mint pl. a grafikai megjelenítés de számolni bármi mást is lehet vele.
A piaca lefed bármi amit a #51-ben felsoroltál. Lehet belőle építeni diszkrét grafikus egységet így ellemfele az AMD és Nvidia megoldásainak. De akár így diszrét gyorsító, de akár pl. socketbe épített formában többutas rendszereknél kerülhet HPC szerverekbe mint a Cell.
Nemrég egy ismert CGI filmes cég váltott Intel platformra és ebben a Larrabee várható érkezése is benne volt. De pl ugyanígy váltott a Cray is akik szintén az Sandy Bridge és Larrabee párosr alapozva akarnak a jővőben 10 petaflopsos rendszert építeni. De állítólag a Nasanak is SGI felé megrendelése aki ugyanezen Intel termék párosításokból akar hasonló teljesítményű szuperszámítógépet építeni.
De ott vannak még az üzleti, orvosi egyéb tudományos számítások támogatása. A Larrabeet szintén lehet integrálni szimplán általános célú processzor mellé ahogy a Cell is hasonló felépítésű vagy pl. a Fusion dettó. A CPU mellé ingegrált nagy párhuzamosságot támogató vektor tömb kiegészítéseket pedig bármilyen számításra fel lehet használni. És ilyen integrált egységek kerülhetnek mobil, desktop de akár szerver vagy akár beépülő rendszerekhez gyártott chipekbe is. Egy ilyen integrált egység alsó és közép kategóriás grafikai feladatohoz szerintem elégséges teljesítménnyel bírhat, ami elég nagy piacot képes lefedni akár mobil akár desktop fronton. És persze amikor épp nem grafikát számolnak vele ugyanezt a kapacitást lehet használni alkalmazások, programok számára is.
-
-
Raymond
titán
Ad Larrabee:
"Well, it is important to keep in mind that this is first and foremost NOT a GPU. It's a CPU. A many-core CPU that is optimized for data-parallel processing. What's the difference? Well, there is very little fixed function hardware, and the hardware is targeted to run general purpose code as easily as possible. The bottom lines is that Intel can make this very wide many-core CPU look like a GPU by implementing software libraries to handle DirectX and OpenGL."
-
Rive
veterán
Hümm.
Javítson ki valaki, ha tévedek.
Larrabee: kifejezetten grafikai megjelenítés gyorsítására, eddigiektől eltérő módszerű megvalósítására tervezett chip, aminek a helye alapvetően a videokártyán, vagy annak megfelelő funkcionális helyen van.
Cell: jól feldarabolható számítási feladatok gyorsítására szolgáló CPU-kupac.
Fusion: a pillanatnyilag látható tervek szerint egy CPU-GPU egybeheggesztés. Jelen állapot szerint komolyabb átépítések nélkül, PC-kompatibilis mobil eszközök számára.
Mindhárom cucc teljesen más célra épült, és már a most rendelkezésre álló adatokból is látszik, hogy egymás feladatkörében meglehetősen harmatosan teljesítenének. Felesleges úgy tenni, mintha versenytársként közük lenne egymáshoz.
-
Raymond
titán
A koncepcio hasonlo, csak a ket termek mas-mas piacot helyez eloterbe. A teljesitmenyhez:
A CELL-ben van 8 darab 128bit szeles vektorokat feldolgozo SPU a Larrabee-ben pedig egy blokkban van 8 darab 512bit szeles vektorokat feldolgozo mag (es a cikkek szerint azt az 512bit-es adat lehet atomizalt is, nem kell hogy egy vektor legyen de a reszletek meg homalyosak). A vegtermekek pedig egy vagy tobb (egyelore max 6-rol volt szo) ilyen blokkbol all. Az elonyt/hatranyt kiszamolhatod magadnak.
-
Az intelnek ez a koncepcióa szép és jó, de mi ebben a forradalmi nagy durranás? Hasonlót már megcsináltak a cell-ben is és most az ibm az új kifejezetten 64-biten is rendesen muzsikáló cell változatot már nyomatja szerverekben. És persze hozzá kell tennem hogy 65nm-en, szóval ha azzal is áttérnek 45nm-re illetve még kisebbre akkor leszek kiváncsi mennyire lessz majd az intel partiban vele.
-
CYBERIA
őstag
Túl nagy a nyomás.
-
Bgs
senior tag
válasz
shabbarulez #41 üzenetére
Hat nem tudom... vegyunk nominalis sebessegeket az egyszeruseg kedveert. Egy jo mai gepben a memoria+gpu memoria ossz savszelessege 160GB/sec korul van. Ezzel szemben van az Intel 128-at tud. Es nyilvan mindket teruleten lesz fejlodes a kovetkezo ket ev folyaman, nem csak az Intel laborjaiban.
Az meg kulon tema, hogy mennyivel lesz dragabb egy egybeintegralt megoldas, a kulon memoriasnal.
En tovabbra is hagyok egy egeszseges adag skepticizmust magamban, aztan ne legyen igazam
-
shabbarulez
őstag
A Terascale project a memória rendszer fejlesztésére változatásokat vezet majd be. A jővőben L3 vagy L4 cache formájában egy viszonylag nagy méretű dram cache kerüle a proci mellé. Ezt több fázisban 3 féle képzeli el az Intel, amelyek egyre közelebb helyezik a cpu-hoz ezt a memóriát így egyre rövidebb távolságon, egyre több adatvezetékkel egyre nagyobb sávszélességet lehet vele elérni, egyre kisebb késleltetés mellett.
Itt van erről egy összefoglaló ábra: [link]
Maga a cikk pedig itt található: [link]Idén februárban az ISSCC keretében ezt a nagy áteresztő képességű dram cachet már be is mutatták, itt egy cikk róla:
Intel: Áttörés a fedélzeti processzormemóriák terén [link]Ez még 65nm-en készült 2Ghz órajel mellett 128GB/s adatátvitelre képes ami a gyártástechnológia javításával tovább fokozható és így elérhető az előbb linkelt ábra 100-200GB/s tartományát megcélzó 2D planar MCP kialakítás. Ezt valamelyik cikkben 2010 felé prognosztizálta Intel, így akár elképzelhető hogy a Sandy Bridge esetén már találkozhatunk ilyen megoldással. Bár véleményem szerintem először ez csak a szerver Xeon chipek privilégiuma lesz és a 22nm-es 450mm-es gyártósorok bevezetése előtt nem valószínű hogy mainstreamebb chipek esetén is megjelenik.
Egyébként a 3D stackinget, ami végső megoldás lesz majd szintén prezentálta már az Intel anno 2 éve az őszi IDF-en amikor bemutatta a 80 magos Polaris fejlesztői chipjét ami alkalmazta a 3D stacking technológiát. Szóval az Intel már jó ideje dolgozik ezen a problémán is a TeraScale project keretében, idővel ennek meg is lesznek majd a kézzelfogható eredményei is.
-
lenox
veterán
En azt nem latom meg at, hogy oke, hogy Larrabee, meg Sandy Bridge, de mi hajtja?
Szoval oke, hogy sok mag, meg igy processzalunk vagy ugy, de hogy raknak ala memoria savszelesseget meg latenciat? Ugyebar a Sandy Bridge-nel van mondva 64 GB/sec gyors memoria, szal latszik, hogy mas is feltette mar a kerdest, de kerdem en, hogy akar a 64 GB/sec is hogy viszonyul a mostani leggyorsabb kartyak 128 GB/sec folotti sebessegehez? Mert hogy lassabb, azt latom, meg sokszor kiderult mar, hogy szamit a sebesseg, szoval valami technika ide is fog kelleni...
-
Raymond
titán
Az RV770-ben van 160 darab (10x16) maximum 5 komponenst feldolgozo egyseg. Innen a "800SP" ahogy ok nevezik. Egy Larrabee core 16 komponenst tud feldolgozni egyszerre, tehat 800/16 = 50 darab kell hogy a 800SP-nek megfelelo mennyiseg meglegyen. Az orajelek persze masok mindket termeknel. Es a belso felepites is igy ezek a szamok nem mondanak semmit.
-
Dr. Akula
félisten
Elméletben, technikailag lehet. De azt azért ki is kéne használni. A physx is jó volt mint ötlet, de támogatása 0, gyakorlatilag ki is halt (jó, az nv megvette és bohóckodik vele, de eredmény még - vagy már - semmi). A 64 bitet is előbb vezette be az amd, de amíg az intel ki nem jött vele, gyakorlatilag senki se használta (az az 1-2 linuxos hobbiember nem értékelhető eredmény a windowsos felhasználók millióihoz képest). Az amd most méginkább nincs abban a helyzetben hogy versenyezzen az intellel. Tehát ha még jobb is lenne, akkor se fogja senki se használni. Tetszik vagy nem, ezt a meccset is az intel nyerte.
#14 Abu:
Ez igaz, de az intel sztem nem rövidtávra tervez (az i740-nel már megégette magát), hanem erőből fogja átnyomni a megoldását a piacon, ahogy az MS az xboxot a konzol piacon. Ha több pénzed van mint a konkurrenciának, előbb-utóbb kihullik a versenyben. -
Bgs
senior tag
Marhasagnak azert en sem tartom, de a teljesitmeny magszammal valo megszorzasa meg papiron sem egzaktul igaz. Ha pl. nincs eleg tennivalo, (nem darabolhato eleg jol fol a szamitas), akkor pedig magszam novekedesevel tovabb romlik az egyenlet. Majd jovore okosabbak leszunk, ha lesznek meresi eredmenyek.
-
-
Bgs
senior tag
Azert en megvarnam a szoftveres hatteret mielott nagy optimistan linearisan szamolok a magokkal... Van ahol jo kozelitessel igaz, van ahol egyaltalan nem. A szamitasok jellege miatt feltehetoleg eleg jo lesz a hatasfok, de a linearitassal nem dobaloznek meg a fejlesztes ilyen korai fazisaban...
-
Raymond
titán
"A Siggraph slide-ból már páran kiszámolták a FEAR alatti elméleti teljesítményt. 8 darab 1GHz-es Larrabee Core 1600x1200 ban 4xAA-val 38-40FPS körül lőhet átlagban"
Meg annyi se. Egy Larrabee unit alatt egy darab 1 Ghz core-t ertenek a PDF-ben es ott ez all:
"Figure 10 shows the number of Larrabee units required to render sample frames from the three games at 60 frames/second. These results were simulated on a single core with the assumption that performance scales linearly. For Half Life 2 episode 2, roughly 10 Larrabee Units are sufficient to ensure that all frames run at 60 fps or faster. For F.E.A.R. and Gears of War, roughly 25 Larrabee Units suffice."
1600x1200 4xAA allatt ertendoek az eredmenyek.
-
Raymond
titán
A masik Larrabee topicba raktam be, ide talan jobb lesz
-
robyeger
addikt
a programozástechnikailag és hardveres felépítményben nem is lesznek hasonlóak az AMD Shrike kódnevű 40nm-es fusion processzorával, ami vélhetőleg két Phenom magot és egy RV710 ATI grafikus magot fog egybe tokozni 2009. 2nd-évére. Játékokban és GPGPU-ként is DirectX11 alól összemérhetők lesznek, tehát egymás piaci ellenfeleiként debütálhatnak.
-
Abu85
HÁZIGAZDA
válasz
#06658560 #22 üzenetére
Itt nem a szoftveresen elosztott dolgokon van a hangsúly. A jelenlegi GeForce és Radeon kártyák a DX10 pipeline-nak megfelelően tervezett célhardverek (a DX10-et most csak a technológia miatt említem, az OpenGL is hasonló pipeline-t használ). Bár már jól felhasználhatók általános célra a mai GPU-k a fő tervezési szempont mégis a grafikus feldolgozás (főleg a geometriai transzformációk és a raszterizálás irányában). A Larrabee jóval általánosabb felépítésű, és kétségtelen, hogy erre halad a kor, de mégis nagy ugrás ez a hardver a mostani rendszerekhez képpest.
A távolabbi jövőben a legtöbb gyártónak a Larrabee-hez hasonló rendszere lesz már, mert a szoftveres renderelés tulajdonképpen visszatér.A Larrabee alapötlete nagyszerű, de sok kérdés van a kivitelezésben. A Siggraph slide-ból már páran kiszámolták a FEAR alatti elméleti teljesítményt. 8 darab 1GHz-es Larrabee Core 1600x1200 ban 4xAA-val 38-40FPS körül lőhet átlagban. Mivel az anyag kimondja, hogy elméletben a skálázódás közel arányos, így el lehet játszani a számokkal különböző mag mennyiség és órajelek mellett.
-
LordX
veterán
... és az Intel újból feltalálja a kere.. a Cell-t (csak x86 alapokon).
-
#06658560
törölt tag
Nagyon láma megközelítés: akkor ha jól értem, amíg rendes Dx X szériák vannak, addig egy szoftveresen elosztott cumó nem képes felvenni a versenyt egy hardveres meogldással szemben. Azazha van N feldolgozóegységem, akkor hardveresen jobban ki tudom használni, mint szoftveresen, a számítási igényt és a terheléseket figyelembe véve? OpenGL-vel mi a szitu?
Egy ilyen rendszerre akkor a jövőben egyszerűbb lesz akár grafikus felületeket is tervezni? És Os függetlenné tehetők lesznek a 3D számításokat igénylő alkalmazások? -
Sandormaster
aktív tag
Na most jönn a low kérdésem
Ez a Larrabee egy kártya lesz amit be tudunk majd dugni a PCI-E-be?! Lesz egy rakás magja és mindenre jó lesz nem csak a játékok gyorsítására?!
Fuhh...jól jönne egy GYIK kezdőknek -
Az AMD-nek addigra nagyon össze kellene szednie magát, mire eljön a Larrabee ideje, különben megint egy core2-phenom szintű felállással lesz gazdagabb az informaika történelme...
Az AMD-nek is az x86 szinten kellene erősítenie, hiszen - ezek szerint - ez a jövő.
Uhhh, újra végigolvasva elég üres hsz lett.Ezért off.
-
Abu85
HÁZIGAZDA
A Fusion több lesz annál. Első körben megjelenő Swift tényleg "csak" egy CPU-GPU lesz, de a következő generációk már több meglepit fognak tartogatni.
A Larrabee-re én inkább GPGPU-ként néznék... Az egész olyan lesz, mint az R600 megjelenése, az a chip egyszerűen "megelőzte a korát" kategória. Na most a Larrabee Grafikus chipként már "nagyon megelőzte a korát" kategória. -
Abu85
HÁZIGAZDA
Az nem fog sikerülni. Az első Fusion ivadék a 2009 végén vagy 2010 elején debütáló Swift lesz. Ami a következő generációs Shrike mobil platformba jön. Ez még egy nagyon kezdetleges koncepciója a Fusion-nak, de ténylegesen az első egyede a projectnek.
Az első Larrabee 2009 végén vagy 2010 elején lehet kint tehát az majd az R800 szériás Radeonokkal vagy azok továbbfejlesztésével fog vetekedni. Nagy valószínűséggel nem lesz sok esélye a 45nm-es Larrabee példányoknak, mert 2010 elején még a DX10 kihasználása lesz a szempont a fejlesztőknek ami nagyon kedvez az egyszerűbb hardvert felvonultató Radeonoknak. A Larrabee sokkal bonyolultabb rendszer lesz ... GPGPU-ként jól fog vizsgázni, de GPU-ként kevés lesz. -
-
Abu85
HÁZIGAZDA
Az egészet röviden úgy kell elképzelni, hogy a 3D-s renderelés egy ponttól elkezdett átalakulni. AZ elején szoftver-es renderelés volt, majd a kialakult a fix funkciós hardveres renderelés (3Dfx volt az első úttörő). Jött a Direct3D API ami vitte előre a fejlődést. A DX8.0-tól megjelent a vertex és pixel feldolgozás programozhatósága, majd a DX10 ezt kiegészítette a Geometry Shaderrel. Jelenleg itt tartunk. A közeljövőben a teljes eddig használt feldolgozási futószalag programozhatóvá válik (ez egy átmeneti időszak lesz). Erre a területre jön az AMD Fusion és tulajdonképpen a Larrabee is. A Larrabee, mint látszik teljesen általános felépítésű rendszer, nagymértékben párhuzamos feldolgozásra felkészítve. A Fusion-nak annyiban lesz előnye, hogy a benne rejlő magok nem mind lesznek általánosak, tehát a CPU core mellett lesz benne speciális területre fejlesztett GPU core is. Ergo az átmeneti időszakban elég kevés a Larrabee esélye a Fusionnal szemben. A következő jövőbeli lépcsőfokban pedig eltűnik az eddig megszokott és kialakított futószalag és visszatér a szoftver-es renderelés. Ez az a terület amire a Larrabee lett tervezve. Tulajdonképpen az Intel átugrotta azt a bizonyos átmeneti időszakot. Ami logikus, hiszen az Ati fejlesztésű GPU magok ellen gyakorlatilag semmi esélye nem lenne.
-
shabbarulez
őstag
SoC, az System on Chip az majd az Atom következő generációja lesz és még egyéb Atomra épülő egyéb alkalmazáshoz tervezett chipek.
A Fusion általános célú magokat és GPGPU-ra alkalmas magokat, esetleg speciális alkalmazás specifikus magokat(pl. video encode/decode, titkosítás) tartalmazó tartalmazó chip az AMD részéről. Intel fronton annak a párja a TeraScale project ami azonos felépítésre törekszik majd a jővőben. Általános célú IA magok mellett(ami lehet most akár Atom, akár Core) erős SIMD képességel rendelkező magokat is tartalmaz, mint amilyen a Larrabee. E mellett ott is meglennének a speciális, alkalmazás specifikus magok.
A Larrabee ellenfele a Radeonok következő, egyre inkább általános célra is jobban programozható GPGPU változatai lesznek. Ezek többféle módon oda kerülhet majd a userek gépeibe. Akár önálló video kártya formájában, de akár cpu socketbe illeszthető formában is mondjuk egy többutas rendszer esetén. De általán célú cpu-val együtt integrált formába is, ami főleg a mobil rendszereknél lesz kiemelt fontosságú, de az olcsóbb desktop rendszereknél is.
-
Abu85
HÁZIGAZDA
Hát kb. rá lehet mondani, hogy a Fusion lesz az AMD-s ellenfél. A Larrabee majd ott lesz nagyon jó amikor visszatér a szoftveres renderelés és a programozók saját egyéni renderelőt írnak majd.
Teljesítményt nem nagyon mondtak, de annyit már ebből ki lehet számolni, hogy 2,4GHz-es órajelen és 24 Larrabee maggal működő chip olyan gyors lehetne a jelenlegi alkalmazásokban, mint egy RV770, vagy egy G200. -
leviske
veterán
válasz
janpotocki #2 üzenetére
Akkor eddig nagyon tévedésben éltem.
(#3) DarkByte: Egy nagy IGP tesztnek én is örülnék.
(#4) Bici: Az AMD kezében ott vannak az alapanyagok, de az nV-nak tudtommal nincs semmilyen X86-os fejlesztése amiből meríthetne.
-
Elég ütősnek hangzik, főleg az x86 kompatibilitás miatt. Gondolom, így egyszerűbben programozható, mint az ATi/nV karik, ráadásul a játékok igényeihez való jobb alkalmazkodás is egyenletesebb teljesítményt adhat. Reméljük, a nagy öregek is átvesznek belőle ötleteket!
Az egyenletes skálázhatóság - gondolom - a csipen belüli magokra vonatkozik, és nem a küön tokba szerelt procikra. -
DarkByte
addikt
Remélhetőleg a SIGGRAPH során még fog további információkra fény derülni. Nagyon kíváncsi vagyok az Intel -nek mit sikerül összekovácsolnia.
Apropó, X4500 -as IGP -ről remélem hamarosan olvashatunk tesztet a PH hasábjain, kiterjedve a HD tartalmak gyorsítására. (igazából a kevésbé szabványos x264 -es mkv -s videók lejátszására lennék kíváncsi mondjuk Media Player Classic Home Cinema -val
)
-
leviske
veterán
Akkor a Larrabee nem SoC lesz? És a Fusion akkor nem is kimondottan az ellenfele? Csak mert, hogy 1 szóval nincs említve a cikkben.
Új hozzászólás Aktív témák
Hirdetés
- Csere-Beszámítás! Corsair Dominator Platinum 2x32GB (64GB) Kit 5200MHZ DDR5
- Csere-Beszámítás! Asztali számítógép játékra! I5 14400F / RX 6900 XT 16GB / 32GB DDR5 / 1TB SSD
- BESZÁMÍTÁS! Gigabyte B760M i5 14400F 16GB DDR4 512GB SSD RX 6700XT 12GB Rampage SHIVA CM 750W
- Csere-Beszámítás!AMD Asztali számítógép PC Játékra! R5 5600/ RX 6700XT 12GB / 16GB DDR4 / 500GB SSD
- ÁRGARANCIA!Épített KomPhone i7 14700KF 32/64GB RAM RX 9070 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Promenade Publishing House Kft.
Város: Budapest