Keresés

Hirdetés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    LOGOUT blog

    válasz Balázs1986 #3651 üzenetére

    Igen, de mikor fog nekem az AutoCAD random elérésekkel felírni vagy kiolvasni 1000Mb-nyi 4k-s szeletet szusszanás nélkül? Ha nálam sok adat mozog egyhuzamban, az szekvenciális lemezművelet, viszont ha véletlenszerűen kellenek kis szeletek pl. egy swap fileból (akár rendszerszintű pagefile-, akár tervezőprogramok művelet-visszavonási memória swap-jából), akkor egyszerre nem kell sok, csak pár Mb-nyi, utána fellélegezhet a vezérlő (két ilyen műveletsor közt kiürítheti az írási cache-t, ha van neki, frissítheti a címzési cache-t, ha van olyanja, átrendezgetheti belül az adatokat, ha fontosnak érzi a wear leveling vagy a garbage collection, stb -> mindezt üresjáratban, nem úgy, hogy közben még mindig kapja a szájába a terhelést a SATA portról is).

    Vannak olyan alapos tesztek, ahol direkt ezt vizsgálják, hogy folyamatos nyüstölés hatására miként lassulnak be az SSD-k. Eddig a Corsair Neutron GTX tűnik az egyik leginkább strapabírónak ilyen szempontból. (Görgess le jó hosszan a preconditioning görbékig.) De ez már "enterprise workload" teszt, amiben órákon át kínozzák az SSD-ket, amit nekem itthon egy program sem fog csinálni.

    SandForce-nál szerintem nincs mértékadó eredmény. A zero fill sem igaz hétköznapi körülmények közt, de ha nem csak MPEG4 filmeket és FLAC audiót tárolunk rajtuk, akkor a teljesen random adat sem. Az Anvil teszt féle véletlenszerű tömöríthetőségű tesztadat pedig épp a véletlenszerűsége miatt nem ad összevethető eredményeket.

    [ Szerkesztve ]

    TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."

Új hozzászólás Aktív témák