Keresés

Új hozzászólás Aktív témák

  • dchard

    veterán

    válasz polika #52 üzenetére

    Lemaradt a smiley az irónia meg nem ment át anélkül :)

    A Science és a Nature a két legrangosabb folyóirat tudományos körökben szóval valószínűleg ott nem bullshitelnek.

    A lényeg az, hogy ahogy a NAND memóriáknál is a régi 180nm-en gyártott 4Mbit-es modulk tényleg nagyságrendekkel többször újraírhatóak voltka, mint amikből ma SSD-t gyártanak, úgy figyelni kell itt is, hogy nem mindegy, milyen csíkszélességen milyen technológiával értek el a cikkben szerpelő számú újraírást. MOndjuk ha a cikkben szereplő értéket elosztom 1000-rel, még mindig elég jó értékeket kapunk. :K

    Dchard

  • dchard

    veterán

    válasz polika #49 üzenetére

    Na ez már végre nem nélkülöz minden tudományos alapot.

    Holnap elolvasom vizsga után, elöljáróban annyit, hogy:

    "Én úgy tudom hogy az MLC flashnak ~100000 (10^5-en) az SLC flashnak kb 1 milla =10^6-on írás ciklusa élettartama van"

    ezt nem jól tudod: az MLC chipek (már amiből SSD-t készítenek és 25-35nm-en készülnek) 4-5000 újraírást viselnek el blokkonként. AZ 50nm-esek még 10.000 viseltek el, és ahogy csökken a csíkszélesség egyre rosszabb lesz ez a NAND memóriáknál.

    A lényeg az cikk alján van:

    http://www.anandtech.com/show/5193/intel-and-micron-imft-announce-worlds-first-128gb-20nm-mlc-nand

    Dchard

  • dchard

    veterán

    válasz ddekany #46 üzenetére

    Természetesen értem a poént, de pont az a szép az MRAM-ban, hogy a nem fáradó tulajdonság pont a technológiából fakad. Ahogy a NAND-ból sem tudnak akármilyen fejlesztéssel sem végtelenszer írható cuccot csinálni, úgy az MRAM-ot sem tudják úgy elsz@rni, hogy csak véges számú ciklust viseljen el.

    Dchard

  • dchard

    veterán

    válasz Cefet #20 üzenetére

    Cefet:

    Ha nem haragszol, akkor egy hírportálon szereplő cikket nem vennék készpénznek. Ha a HP oldalán lenne kint, akkor talán, de a megbízható forrás alatt valamilyen tudományos magazinban megjelenő cikkre gondoltam, például a Science magazinra.

    Arról nem beszélve, hogy akkor megvan a trükk:

    "1,000,000,000,000 read and write cycles without encountering data loss"

    Ugye itt már írásról ÉS olvasásról együtt van szó, ez nem egészen ugyanaz, arról nem beszélve, hogy a "without encountering data loss" nem azt jelenti, hogy egyik cella sem öregedett el, maximum azt, hogy a hibajavító eljárással együtt ez lett az eredmény, bár egyébként még így sem nagyon hihető a kimenet. Többek között ez a különbség a bulvár és a tudományos újságírás között: az egyikben vakítanak és félreértelmezhetően fogalmaznak, a másikban viszont kísérlet nélkül semmi sem kerülhet, és ott a kutatók a nevüket adják a munkához, amiről ha kiderül hogy kacsa, az életben nem kapnak munkát.

    polika:

    Ez nem véletlen, nyilván olyasmit akarnak gyártani, ami ugyamúgy tönkremegy egy idő után mint a nand. Kinek lenne érdeke olyasmit gyártani, mint az MRAM ami soha nem megy tönkre? Nem ez az első eset a törénelemben amikor gazdasági érdekek miatt a gyengébb technológia győz.

    Dchard

  • dchard

    veterán

    válasz Cefet #11 üzenetére

    A linkelt hozzászólásodban reagálnék erre:

    "Ha jól emlékszem akkor a HP-nál tesztelték, és 1000 milliárd újraírási ciklust is kibírt adatvesztés nélkül!"

    Ha tudsz linkelni ehhez megbízható forrást, akkor megemelem a kalapom.

    A cikkben szereplő "NANDhoz képest 10x" kijelentés ezzel köszönő viszonyban sincs, elég sok nagyságrend a különbség, hogy finom legyek. :)

    Hozzáteszem: szerintem ennyi újraírást a DRAM sem tud, előbb rohad szét körülötte a tokozás meg a forrasztások, minthogy 1000 milliárd újraírási ciklust le tudj tolni rajta. :DDD

    Dchard

  • dchard

    veterán

    válasz Pug #9 üzenetére

    Ott az igazság, pontosan erről van szó:

    RAM-nak nem jó, mert a rengeteg írás tönkreteszi.

    Háttértárnak meg túl drága és kicsi a kapacitása.

    Ha az elviselhető írások számát fel tudnák nyomni a 10-es szorzó helyett 20-30-szorosra, és képesek lennének 32nm-en 8, esetleg 16gbites lapkákat gyártani, akkor lesz majd ez versenyképes, de akkor is csak háttértárnak: ahhoz hogy ebből RAM legyen, nagyságrendekkel kéne növelni az írási ciklusok számát amire nincs reális esély a technológia működéséből fakadóan.

    Arról nem beszélve, hogy pontosan melyik NAND típushoz képest számolták a 10x szorzót az írások tekintetében? A 25nm-es nand lapkákhoz képest a 10x például nem valami sok, és ez egyre csak rosszabb lesz ahogy haladunk lefelé.

    Dchard

Új hozzászólás Aktív témák

Hirdetés