Keresés

Hirdetés

Új hozzászólás Aktív témák

  • joysefke

    veterán

    LOGOUT blog

    válasz DraXoN #40 üzenetére

    azért ha adott 32nm technikát optimalizálták volna, lehet könnyen értek el volna jobb értékeket.. a 14nm se most indult, de fokozatosan "finomodott" pedig azonos 14nm, előrelépés nélkül.
    Könnyen lehet, hogy hasonló értéken lennének a cpu órajel/fogyasztás mutatói ha minden 32nm-en történik nem kisebben (persze a die méret nagyobb lenne, így egy waffer kevesebb cput tartalmazna)...

    a lényeg: nem kritikus a javulás, lehet csak optimalizációval is kijött volna a mostani érték

    "könnyen értek volna el", "könnyen lehet, hogy", "ha", "lehet hogy csak" :))

    "Könnyen lehet", hogy az intel és az összes nagyobb félvezetőgyártó is gondolt arra, hogy "könnyen lehet hogy" jobb lenne 32nm-en maradni ahelyett, hogy minden egyes gyártástechnológiai váltásba fejenként beletegyenek több milliárd dollárt.

    Aztán ezek a gyártók (intel, TSMC, Samsung, Toshiba, micron stb) mégis beletették fejenként a sok milliárd dollárt a gyártástechnológiába. Aki nem tette bele a pénzt, az leginkább azért nem tette bele, mert nem tudta előteremteni esetleg azért mert hiányzott egy működő üzleti modell a jövőre nézve és nem azért mert a technológiai lépcső meglépésének nem lett volna értelme, gazdasági haszna.

    Szóval ez szerintem elég erős indikáció arra, hogy a 32nm, akár hogy is reszeled manapság nem lenne alkalmas kompetitív termékek építésére.

    Az intel most már bőven megfizethető előállítási áron tudja 14nm-en gyártani a 8c16t procikat integrált GPU-val. szerinted mekkora lenne egy 8c16t Sandy Bridge hasonlóan felturbózott GPU-val?? (32/14)^2 ==> a marketing nanométerek alapján durván kb az 5x-e. De még ha jóval kisebb lenne is a chip mérete, akkor sem lenne manapság értelmesen gyártható 32nm-en.

    [ Szerkesztve ]

Új hozzászólás Aktív témák