Hirdetés

Új hozzászólás Aktív témák

  • #06658560

    törölt tag

    válasz Pingüino #89 üzenetére

    Plusz szerveren nem olyan a döntés, hogy ma ilyen, holnap olyan, holnapután amolyan rendszert vesznek, ott igyekszik mindenki egységes platformot használni, mert olcsóbb a support, jobb a know how felhasználása.

  • andy19770128

    aktív tag

    válasz arabus #37 üzenetére

    Lol... Szeretem a humort... Örülök hogy legalább neked van hozzá érzéked

  • Tigerclaw

    nagyúr

    válasz Pingüino #99 üzenetére

    Ha az OEM-ek tulsagosan az Intel iranyitasa alatt vannak, akkor egyszeruen inditaniuk kellett volna egy sajat termekcsaladot. Sok ceg sikerrel megoldotta ezt az AMD-hez kepest toredeknyi tudassal es tapasztalattal az eszkozgyartast tekintve. A fobb alkatreszek hazon belul vannak, referenciadesign-ert sem kell a szomszedba menniuk. Nem kell azonnal nagy termekpalettaban gondolkodni, eleg indulni pl. csak egy notebookal. Keszitsenek pl. egy "ultrabookot" sajat maguk, mert jellemzoen az amit szandekosan elcsesznek a bergyartok a rossz koritessel. Esetleg komolyabban mukodjenek egyutt a Microsofttal, hogy ok komromisszummentes laptopot keszitsenek. Sot veluk akar kothetnenek exclusive szerzodest is. Amig nem tudnak kello mennyiseget szallitani, csokkenthetnek a partner OEM-ek listajat es csak annak adnanak el, akinel beleszolhatnak abba is, hogy milyen koritest kapjon az a notebook. Az Intel is ezt csinalta/csinalja az ultrabook, athene, evo notik eseten. Megszabta hogy csak az epithet olyan gepeket, akik vallaljak, hogy a specifikacionak van egy minimalis szintje.

    Az a baj a világgal, hogy a hülyék mindenben holtbiztosak, az okosak meg tele vannak kételyekkel.

  • Pingüino

    senior tag

    válasz Tigerclaw #103 üzenetére

    Ez azért így ebben a formában sok pénz és emberi erőforrás lenne.
    Az egyetlen járható út talán az lenne a részükről, ha bevezetnék az OEM-ek felé, hogy aki egy megadott specifikációs lista minden részletének eleget tesz a termék elkészítésekor, az abba az adott termékbe olcsóbban kapja a processzort. Talán ez járna a legkevesebb kiadással, de valamennyit javítana a megítélésükön.
    Viszont gondolom, ők is átgondolták már ezeket, mert nem gondolom, hogy nekünk hamarabb jutott eszünkbe, mint nekik, és valószínűleg mérlegelték az előnyöket, hátrányokat, megvalósíthatóságot, és az alapján vetették el.

  • Trollbjorn

    csendes újonc

    válasz Pingüino #94 üzenetére

    Az IPC-t már nem nagyon fogják tudni növelni, persze minden évben növelhető pár százalékkal ahogy a compilerek minősége is csak pár százalékot segített az elmúlt évtizedekben, csak ugye az ezzel nyert IPC javulás messze elmarad a korábbi évtizedekben megszokott órajel növekedéstől. Ahol ennél többet értek el IPC vagy szoftvereknél compilerek esetében az az újonnan bevezetett architektúrák és szoftver technológiák, mivel ezek alapvetően sokkal több helyen optimalizálhatók hiszen a kezdeti verzión mindig sokkal több fogást találsz mint mondjuk a 10-ediken. Prociknál az intel már a 10ik generációnál tart és igazi IPC előrelépés főleg a sandy bridge (2xxx számok) és környékén volt, ugyanez Ryzen esetén látható hogy a mostani 3ik generáció képes volt komoly IPC növekedésre (itt is főleg játékokban, más esetben már nem 2 számjegyű) de ez minden évben egyre kissebb lesz. Ugyanez pl. C/C++ fordítók esetén a több évtizedes fejlődés után már minimális de a mostani webes technológiák esetén mint a javascript még mindig jelentős hiszen egy viszonylag új technológia és sok lehetőség van az optimalizálásra. Egy architektúrát meg egy évtizedig is szoktak használni és gyakran vakvágánynak bizonyul, lásd pentium4 vagy bulldozer. Nem lehet a szekvenciális utasításvégrehajtást már nagyon sehova fejleszteni, legalábbis én nem találkoztam semmilyen alapkutatással ami arról írna hogy valami alapvetően új módszert tudnának. Amiket meg most használnak már tényleg egyre veszteségesebb optimalizációk, azaz egyre több fölösleges energiát esznek meg hogy cserébe az 1 szálas végrehajtás átlagos sebessége növekedjen. Legjobb példa a spekulatív végrehajtás ahol pl. az elágazás mindkét ágát kezded végrehajtani és később amikör rájösz hogy az egyik nem kell akkor eldobod az erdményét, ekkor nemcsak 2szeresen terheled a procit hanem a teljes memória alrendszert, és mint kiderült pár éve súlyos biztonsági réseket is csinálsz ezzel. Mindezt a "hack" szintű megoldást azért rakja be a hardver gyártó mert a szoftveres szinten nem tudtak vagy akartak párhuzamosítani pedig azon a szinten párhuzamosítva sokkal jobb eredemény érhető el, azaz egy butább hardver és okosabb szoftver jobb lehet, ahol a hardver 1 szálas teljesítménye rosszabb lesz viszont cserébe sokkal több szálú végrehajtás lesz aminek az összege nagyobb perf/watt-ot ad. Szerintem a biztonsági hibák tömege mutatja hogy bizony egyfajta zsákutcába érkezett ez a tendencia hogy IPC-t akarnak növelni mindenáron és ezért a jövőben nem ez lesz a fő céljuk.

    Én szilicium alapú chip gyártásnál nem számítanék 1 szálas általános teljesítmény komolyabb növekedésére. Ezzel ellentétben az Apple M1 által bizonyított hogy milyen területeken lesz fejlődés továbbra is:
    1, hardveres gyorsítás, ez mindig nagyságrendekkel jobb mint általános utasításkészleteken futtatott szoftveres út.
    2, integráció, pl. minek folyamatosan másolni a CPU és GPU memóriája között az adatot, stb.
    3, szoftveres párhuzamos feldolgozás, azaz ha van 16 magos procim akkor használja is már ki az játék :)

    Az AMD azért üzemel kissebb frekvencián a top gamer prociknál is mert nem tud feljebb menni, egyszerűen 7nm-es cuccban a szivárgási áram és a felületegységre eső hőtermelés túl nagy lenne, először hibázni kezd az adott CPU aztán meg... :)
    Az 5nm-es mobil proci is nagyon szépen megy 2-3Ghz-en de nyilván javítani kell még a gyártáson hogy a legyártott procik nagyobb része tudja a gamer gép esetén szükséges 3-4Ghz környékét, és ekkor is már szuperlineárisan nő a fogyasztás azaz már rég elromlott ott a performance/watt mutatód de nem érdekel téged mert az 5Ghz-es 14nm intellel versenyzel ami 200wattokat fogyaszt :)
    Az intel nagy baja hogy adatközpontban és mobilban is a perf/watt számít, az 1 szálas teljesítmény már csak a gamer szubkultúrát érdekli meg pár olyan szerencsétlen embert akik valami legacy szoftverrel kűzdenek ami még 1 szálon fut csak és nem lehet leváltani :)

    Szóval én az előző hozzászólásomban főleg gamer szempontból írtam intelre hogy semmi gondjuk nincs, de nyilván nagy náluk a pánik ha az utóbbi évben már kétszer váltottak vezért :)

  • Pingüino

    senior tag

    válasz Trollbjorn #106 üzenetére

    A második bekezdésben írtál jó dolgokat.
    Abban például egyet értünk, hogy ahol megoldható a párhuzamosítás, ott nyilván egyszerű a történet, mert +1 mag mindíg tehető a prociba, ha van, ami ki is használja.
    A (jól átgondolt) heterogén design, és a koherens memóriakezelés is egy nagyon jó dolog, az AMD mindkettőn dolgozik is gőzerővel. Lásd pl. Xilinx felvásárlás, Infinity Fabric fejlesztése, stb.

    Az viszont már nagyon nem igaz, hogy pusztán az alacsonyabb csíkszélesség miatt nem üzemelnek magas frekvencián. Annyira nem igaz, hogy pl. a 3800x all-core alapórajele 3.9Ghz, az 5950x meg a gyári adatok alapján single-core turbóval felszalad 4.9Ghz-ig ha kell, és mindezt tuning nélkül, gyári hűtéssel. Szóval 7 nanón is lehet elég magas frekvenciákat elérni. Csak nem biztos, hogy van értelme.

    Az is igaz, hogy az IPC-t sem lehet a végtelenségig emelni, de még van benne valamennyi potenciál, és annak legalább az emelése nem jár hátrányokkal is, mint az órajel növelése.

    A hardveres gyorsítók alkalmazása megint csak az AMD-nél egyszerűbb a chiplet design miatt, gyak. azt pakolnak a CCX-ek mellé, amit akarnak.

    Mindazonáltal az Intelnek nagyon is van gondja, mert az IPC * órajel = egyszálas teljesítmény mutatóban az AMD már a 3000-es sorozattal beérte őket, az 5000-es sorozattal meg el is ment mellettük. És akkor egyelőre még sehol a válasz. Mire a kékeknél is értékelhető fejlesztés jön ki, addigra meg az AMD már nem ott lesz, ahol most. :)

    Az egyetlen szerencséje az Intelnek, hogy az AMD-nek korlátozottabb a gyártókapacitása. Ha ez változik, akkor az Intelnek lesz is gondja, nem kicsi. Nem véletlenül kapkodnak. :)

    Szerk.: Egyébként meg párhuzamosítani sem lehet a végtelenségig, csak most ebben a pillanatban abból lehet még a legtöbbet kihozni. Utána kell majd valami gyökeresen más irány. Na meg nem ártana, ha a szoftverfejlesztő eszközök is fejlődnének, mert a hardverkihasználás sem mondható épp optimálisnak.

    [ Szerkesztve ]

  • Trollbjorn

    csendes újonc

    válasz Pingüino #107 üzenetére

    Lehet hogy félreérthetően írtam le, nyilván az általad említett frekvenciákat bírják 7nm-es ryzenek, azonban eddig az volt a tendencia hogy kissebb csíkszélesség egyik legnagyobb előnye az elérhető magasabb frekvencia, jelenleg az intel 5.3Ghz 1magos és akár 5Ghz all-core bír, a ryzen pár száz Mhz-el kevesebbet, és több helyen is leírták ennek okait amiket említettem is. Tehát itt mintha megfordult volna a tendencia, a 7nm-es gyártásnál egy évtizede tippeltünk volna 6Ghz max-ot amennyiben 14nm-en 5Ghz megy. És nem úgy tűnik az okok magyarázatából (max. teljesítménysűrűség, szivárgási áram) hogy ezen lehet segíteni majd a 3nm és további lépésekben. Ráadásul egyre drágább kifejleszteni az új gyártást, azt írják hogy minden egyes váltásnál 25%-al nőtt a költség az elmúlt kb. 20 évben, ez azt jelenti egyre kevésbé mernek majd váltani 3nm, 2nm, és tovább mivel egyre nagyobb pénzt kell befektetni és a fizikai korlátok miatt egyre nagyobb lesz a kockázat. Nyilván az intel is megoldhatatlan problémákba ütközött a 10nm-es megoldásuknál amin nagyon sokat buktak, és ez bármikor megtörténhet a többi gyártóval is. Zárójelben megjegyezve már lassan csak 2-3 gyártó van ami bizony már lehetővé teszi a kartellezést tehát direkt megegyeznek hogy lassítják a gyártás fejlesztését ha már külső versenyzőt nem látnak aki beugrana helyettük. Az se gond ha egy kínai ugrana be mert csak kitiltják a piacról egy kis USA/EU politikai lobbizással :D Na jó az utóbbi már kicsit demagóg feltételezés talán :D

    Párhuzamosítást meg azért írtam mert láthatóan ott van a legtöbb lehetőség a fejlődésre, a klasszikus számítógépes megoldások túlnyomó többsége szekvenciálisan gondolkozik, márpedig a természetben azt látjuk hogy a legtöbb megoldás nagyon durván párhuzamos. Pl. elég sok kutatást lehet végezni a jelenleg alkalmazott szekvenciális algoritmusok lecserélésére. Meg ugye ez eddig egy ördögi kör is volt: mivel a szoftver nagy szekvenciális sebességből profitál ezért a hardvert arra fejlesztik jobban, a szoftveresek látván hogy minden évben gyorsabb a hardver hagyják az 1 szálas megoldásokat és inkább másba fektetik a pénzt, hiszen az 1 szálas programok helyességének a garantálása sokkal egyszerűbb feladat. Én már találkoztam olyan algoritmussal ami több szálon futott és bizony tartalmazott egy súlyos hibát ami csak akkor jött ki amikor egy bizonyos módon ütemezte az OS a végrehajtási szálakat amik csak abban a speciális esetben haltak le. És ez a hiba nem jött elő évekig, a tesztek se mutatták ki, és természetesen a jelenleg gyakorlatban alkalmazott szoftverek egyikénél sem biztosítható annak formális bizonyítása hogy helyesen működik a szoftvered, csak tesztelni tudod és remélni hogy ez a szúrópróbaszerű futtatgatás garantálja a minőséget. Ezen a téren van jelenleg a legtöbb előrelépési lehetőség szoftveres téren, és a hardver is támogatni fogja ezt ha látják hogy megéri. A konzoloknál már az előző generáció is 8 magos volt, a mostani meg 16 szálas, a motiváció biztos meglesz a párhuzamosításra :)
    De ahogy már több szoftveres cikkben is említették ennek a kényelmes korszaknak ahol csak várni kell az 1 szálas teljesítmény növekedésére vége :)

  • Pingüino

    senior tag

    válasz Trollbjorn #108 üzenetére

    Nem írtál félreérthetően. Pusztán abban nem értünk egyet, hogy az AMD-nél az alacsonyabb órajelek oka a kisebb csíkszélesség. Vagyis ahhoz is van köze, csak nem a kicsinyítés miatt.

    Ugye Intel is lépett 10 nanóra, és az első generációban valami minősíthetetlenük kicsi órajeleket tudtak elérni. Aztán finomítottak rajta, és már egész vállalható. De amikor kijött az első 14 nanós procijuk annó, az sem tudott magas órajeleket. Szóval nem önmagában a kicsinyítéssel van a gond, hanem hogy az első megoldások sosem túl hatékonyak. A különbség, hogy a TSMC talán 3-4 változatot készít egy csíkszélességen, de lehet, hogy a 4-el már sokat mondtam (ugye most konkrétan 7 nanón van az N7FF, az N7P, meg az N7FF+, meg talán ide lehet venni az N6-ot is, ami amolyan félvér megoldás, de ugyanazzal a levilágítóval csinálják), az AMD meg ezen belül sem épít mindegyikre. Az Intel hányadig 14 nanós generációnál is tart? Volt idő bőven finomítani. Jó, hogy felmegy 5 Ghz fölé. Ha lenne 10 évük reszelni a 10 nanót, vagy a 7 nanót, akkor biztos elmennének azok is 5 Ghz fölé.

    Másrészt ugye írtam, hogy ezek gyári órajelek, gyári hűtéssel. Ha megnézed a tuningversenyeket, megfelelő hűtéssel a 7 nanós procik is fel tudnak szaladni nagyon magas órajelekre. Hogy akkor gyárilag miért nem teszik? Valószínűleg azért, amit említettem, hogy nincs értelme túl magasra menni, mert romlik a hatásfok.

    [ Szerkesztve ]

  • bteebi

    veterán

    válasz vicze #110 üzenetére

    Rendesen megugrott a bevételük, a nyereségük meg pláne. :Y Sőt, a részvényárfolyam se néz ki rosszul. Sokat ér, ideje beszállni. :DDD

    Cancel all my meetings. Someone is wrong on the Internet.

Új hozzászólás Aktív témák