Dyski SSD to urządzenia pamięci masowej zbudowane w oparciu o pamięć flash. Pamięci flash to swojego rodzaju pamięci EEPROM, pozwalające na zapisywanie lub kasowanie wielu komórek pamięci podczas jednej operacji programowania. Za twórcę pamięci flash uważa się dr Fujio Masuoka, który jako pierwszy skonstruował ją w 1980 roku, będąc zatrudnionym w firmie Toshiba.
Solid-state oznacza zastosowanie w danym urządzeniu tranzystorów oraz wyłącznie elementów nieruchomych. Aby zachować wsteczną zgodność ze standardami, większość napędów SSD wyposażono w interfejs SATA. Dostępne są także urządzenia SSD zainstalowane na kartach PCI Express.
Pierwsze urządzenia SSD pojawiły się w okresie używania komputerów z lampami elektronowymi, jednakże rozwój został porzucony i powrócono do niego dopiero wraz z ewolucją elektroniki półprzewodnikowej w latach 80 XX wieku. Od połowy lat 90. XX wieku większe firmy produkowały pamięci półprzewodnikowe dla przemysłu oraz wojska. Zwykłych użytkowników nie było stać na zakup, ze względu na cenę. Rozkwit technologii informatycznych na początku XXI wieku przyniósł wzrost zapotrzebowania na pamięci flash, co objawiało się wzrostem popytu na karty pamięci i pendrivy o coraz większych pojemnościach.
W grudniu 2009 roku, Micron Technology przedstawiło światu pierwszy dysk SSD, którego szybkość interfejsu SATA wynosiła 6 Gbit/s. Potem nastąpiło powolne zdobywanie rynku i obniżanie cen.
Budowa i zasada działania
Dyski SSD działają bardzo podobnie, jak pamięci flash. Każdy z nich posiada określoną ilość pamięci nieulotnej oraz kontroler. Kontroler to układ elektroniczny, który łączy komponenty pamięci NAND z komputerem i odpowiada za uruchomienie odpowiedniego firmware. Jest podatny na prawo Moora, czyli jego moc rośnie, przy zachowaniu stałej ceny.
Poniżej kilka funkcji, które są zapewniane przez kontroler:
- Korekcja błędów (Error correction (ECC)
- System przedłużania żywotności komórek pamięci (Wear leveling)
- Mapowanie uszkodzonych bloków (Bad block mapping)
- Zarządzanie detekcją i korektą błędów podczas odczytu pamięci
(Read scrubbing and read disturb management) - Odczyt i zapis pamięci podręcznej (Read and write caching)
- Odśmiecanie pamięci (Garbage collection)
- Kodowanie (Encryption)
Kilka wyżej wspomnianych funkcji potrzebuje także stosownej interwencji ze strony systemu operacyjnego. Stworzono w tym celu komendę TRIM, która otrzymuje informacje od systemu operacyjnego, które komórki są puste i wysyła je do kontrolera. SSD dzięki temu wie, jakie bloki danych są aktualnie używane, a jakie nie. Pozwala to na odpowiednie czyszczenie oraz zapis do nowych sektorów. Pamiętajmy, że budowa pamięci flash powoduje, że zapis może odbyć się jedynie wtedy, kiedy wszystkie komórki w danej stronie (ang. page) są puste.
Obsługa TRIM w Linuksie dla dysków SATA pojawiła się wraz z wydaniem jądra Linux 2.6.28. Da dysków ATA dodaną ją w jądrze Linux 2.6.33.
Pamięć NAND, wykorzystywaną w dyskach dzieli się na kilka rodzajów:
- MLC, czyli Multi Level Cell cechują się wieloma stanami napięć, dzięki czemu zapisują więcej, niż 2 bity danych w jednej komórce. Czas przechowywania danych wynosi 10 lat, a gwarantowana ilość cykli zapisu to 3 000.
- SLC, czyli Single Level Cell może znajdować się tylko w dwóch stanach, przez co zapisuje tylko jeden bit danych. Charakteryzuje się wysoką trwałością, szybszym odczyt danych oraz pracą w szerokim zakresie temperatur. Żywotność szacuje się na 50 – 100 tys. cykli P/E.
- eMLC to enterprise Multi Level Cell, gdzie gwarantowana ilość cykli zapisu wynosi 30 000, jednakże czas przechowywania danych wynosi jedynie 3 miesiące.
- TLC – Triple Level Cell, technologia, która pozwala w jednej komórce zapisać 3 bity. Żywotność wynosi około 1000 cykli P/E.
Podstawowe zalety SSD to brak ruchomych części, bardzo krótki czas dostępu do danych, bezgłośna praca, bardzo niski pobór energii, odporność na wibracje oraz mechaniczne uszkodzenia. Podczas wielu testów udowodniono także szeroki zakres temperatur pracy, których normalne dyski HDD nie były w stanie znieść. Nośniki SSD są w przystosowane do pracy w temperaturze od -40 °C do +85 °C, ale dotyczy to tylko i wyłącznie pamięci NAND Flash typu SLC. Bariera technologiczna w MLC nie pozwala pracować w temperaturach niższych niż -25 °C, gdyż wówczas są tracone dane.
Kolejnym problemem, który odkryto po wielu miesiącach testów, jest proces technologiczny i jego wpływ na żywotność. Dyski zaczynały od 72nm i komórek typu SLC. Charakteryzowały się wtedy największą żywotnością i najmniejszą podatnością na awarię. Im niższy proces technologiczny, tym oba te czynniki odpowiednio zmniejszają się i zwiększają. Ostatnim opłacalnym procesem produkcyjnym będzie 6.5nm, jednakże podatność na awarię zwiększy się prawie 2,5 raza, a żywotność spadnie do bardzo niskiego poziomu. Jednocześnie pojemność będzie wynosiła wtedy od 4TB dla MLC, do 16TB dla SLC.
Na koniec warto wspomnieć o funkcji Secure Erase, której zadaniem jest całkowite wymazanie danych z komórek i przywrócenie fabrycznego stanu urządzenia. Większość nowych dysków jest w nią wyposażona, jednakże zdarzają się wyjątki.
Platforma sprzętowa
Podzespół | Model | Dostarczył |
Procesor |
AMD Athlon II X3 425 |
|
Płyta główna |
GA-870A-UD3 rev.3.0 |
|
Pamięć |
Kingston HyperX 2x2GB |
|
Karta graficzna |
Gigabyte GeForce 9600GT |
|
Dysk SSD 1 |
Intel SSD 520 |
|
Dysk SSD 2 |
Intel SSD 330 |
|
Dysk SSD 3 |
Zalman F SSD0060F1 |
|
Dysk HDD |
Samsung SP2504C |
|
Zasilacz |
Corsair CX600 600W |
|
Monitor |
ViewSonic V171S |
|
System operacyjny |
Xubuntu 11.10 |
Główni bohaterowie naszej recenzji to dyski:
Intel SSD 330
Sprawdziliśmy, czy wszystkie posiadają funkcję Secure Erase. Oba dyski Intela ją miały i zadziałała bez problemu. Zalman niestety jest w nią ubogi.
Dodatkowo, aby pokazać, jaka jest różnica pomiędzy dyskiem HDD, a SSD wykorzystaliśmy 6 letni sprzęt:
Podzespół | Model | Dostarczył |
Procesor |
Core2 Duo E6300 1.86GHz |
|
Płyta główna |
Asus P5VD2-MX |
|
Pamięć |
Kingston 1GB DDR2 i GoodRam 1GB DDR2 |
|
Karta graficzna |
WinFast PX6600 GT TDH |
|
Dysk SSD |
Zalman F SSD0060F1 |
|
Dysk HDD |
Samsung SP2504C |
|
System operacyjny |
Xubuntu 11.10 |
Oprogramowanie testowe
W czasie testów pracowaliśmy na systemie Xubuntu 11.10 64 bity, jądrze Linux 3.0.0-22-generic, X.Org Server 1.10.4, sterownikach nVidia Linux Display Driver 295.53, Xfce 4.8.3, GGC 4.6.1 oraz rozdzielczości ekranu 1280×1024. Do testów wykorzystaliśmy pakiet Phoronix Test Suite 4.0.1 oraz wybrane testy:
- Compilebench – test: compile – pobiera źródła jądra Linuksa i je kompiluje, generując duże obciążenie zapisu i odczytu. Nasza wersja zaczyna z 10 katalogami.
- Kodowanie FLAC
- HDParm-Read – odczyt z dysku, z systemem plików
- FS-Mark – testuje wydajność systemu plików, generując duży obciążenie dysku. 4000 Files, 32 Sub Dirs, 1MB Size
- IOZone – test wydajności dysku i systemu plików
- Odczyt i zapis bez systemu plików
- Kopiowanie 1GB plików – losowo wygenerowane pliki o różnej wielkości z zawartością
- Kopiowanie 4GB pliku – losowo wygenerowany plik z zawartością
- Czas uruchamiania Centrum Oprogramowania Ubuntu
- Czas uruchamiania systemu – od momentu wciśnięcia przycisku włączenia do pojawienia się ekranu logowania
- Czas instalacji pakietu LibreOffice – instalacja pobranych paczek
Przed każdym testem czyszczono pamięć operacyjną ze zbuforowanych plików (poleceniem sysctl vm.drop_caches=3
). Miało to na celu zapobiegnięcie nieprawidłowościom w wynikach następujących po sobie testów.
Mocniejsza konfiguracja sprzętowa
Jak widzimy różnice między poszczególnymi dyskami SSD są znikome. Przepaść widać dopiero między dyskiem z pamięciami NAND, a talerzowym.
Oba testy badają rozmiar kopiowania dużej ilości plików, pomiędzy katalogami. W przypadku FS-Mark, Zalman bardzo odbiega od reszty dysków SSD. Sprawdziliśmy to pod inną podobną konfiguracją sprzętową i było praktycznie to samo. Kompilacja kodu źródłowego jądra Linux posiada unormowane wyniki pomiędzy SSD.
IOzone bada wydajność dysku twardego oraz systemu plików. Od razu widzimy przepaść pomiędzy tradycyjnym HDD, a SSD.
Teraz kilka bardziej praktycznych testów, w których można ocenić różnicę w pracy i korzystaniu.
Kopiowanie i usuwanie plików to jedna z czynności, które były od zawsze bolączką. Wykresy powyżej pokazują, jakie jest przyspieszenie tych czynności z użyciem SSD.
Uruchamianie systemu od momentu włączenia do czasu pojawienia się ekranu logowania. Ewidentnie widać różnicę w czasie, ale i także podczas patrzenia w ekran.
Na koniec instalacja programu LibreOffice oraz uruchamianie Centrum Oprogramowania Ubuntu. Widzimy dwukrotną różnicę w czasie wykonywania tych operacji na nośniku SSD i HDD.
Przejdźmy teraz do starszej platformy sprzętowej, o której wspomnieliśmy na samym początku. Nasze testy sprawdziły m.in. szybkość uruchamiania systemu, czas potrzebny do włączenia Centrum Oprogramowania Ubuntu, odczyt i zapis na dysku, a także instalację pakietu biurowego LibreOffice.
Odczyt i zapis jest nadal diametralnie różny, jednakże tutaj ograniczeniem dla dysku SSD był interfejs SATA II. Uruchamianie systemu nadal jest zauważalnie szybsze, jednakże nie tak duże, jak na nowszej platformie.
Instalacja LibreOffice i uruchamiania Centrum Oprogramowania Ubuntu to dwukrotna różnica czasowa. Co dobitnie pokazuje, że jest wzrost komfortu korzystania.
Podsumowanie
Nasze testy miały na celu ukazanie zarówno wad, jak i zalet poszczególnych dysków SSD. Aby widać było różnicę, dodaliśmy dodatkowo dyski HDD. Czas odpowiedzieć sobie na pytanie, postawione w tytule:
Czy dyski SSD to godni następcy HDD?
Według nas tak i śmiało możemy stwierdzić, że komputery wreszcie działają tak szybko, jak powinny od samego początku. Dyski SSD to rewolucja od czasów wynalezienia dysków magnetycznych. Mimo, że technologia wydaje się młoda, w ciągu 4 lat rozwinęła się na tyle, aby móc powoli zastępować leciwą już technologię talerzową. Jednakże są tutaj pewne wady, których już się raczej nie wyeliminuje. Trzeba zatem szukać rozwiązań nowych lub hybrydowych.
Jednym z pomysłów, które mają wyeliminować szybkie zużywanie się pamięci flash jest połączenie pamięci RAM z NAND. Technologia zwie się ReRAM i polega na tym, iż kilkanaście – kilkadziesiąt gigabajtów to najzwyklejsza pamięć RAM, natomiast cała reszta to pamięć flash. Jej zaletą jest praktycznie natychmiastowy dostęp do danych, bez potrzeby przeszukiwania całego dysku, a dodatkowo mniejsze zużycie komórek. Najpotrzebniejsze informacje są cały czas trzymane na pamięci podręcznej, a jeżeli zachodzi potrzeba, to następuje zapis lub doczytanie nowych.
Zalety:
- Bardzo szybki odczyt i zapis danych
- Bezgłośna praca
- Niski pobór prądu
- Odporność na uszkodzenia mechaniczne, niskie i wysokie temperatury oraz wibracje
- Niewrażliwość na fragmentację – brak ruchomych talerzy i głowicy
- Secure Erase, ale tylko niektóre dyski
Wady:
- W zależności od technologii żywotność komórek
- Wzrastająca awaryjność, w związku ze zmniejszaniem procesu technologicznego
- Duże koszta na gigabajt danych, ale jest coraz lepiej
Fajny tekst. Używam ssd w stacionarce i jestem zadowolony.
Tekst godny polecenia – już go przekazałem kilku osobom :)
Również mam SSD w dwóch komputerach i wzrost komfortu pracy jest zdecydowanie wyczuwalny. W tej chwili korzystam z "hybrydy" SSD+HDD, trzymając katalog główny na SSD a katalogi takie jak /home, /tmp czy /var na dysku HDD. Mam nadzieję, że to wydłuży czas życia dysku SSD ;-)
Zastanawiam się nad zakupem właśnie SSD, ale obawiam się tego, że on długo nie pociągnie :/
Producent z reguły daje przewidywalny czas życia. Jeżeli masz np. 3 lata gwarancji to przez ten okres nic ci się z nim nie stanie. Jeżeli dysk nie służy ci, jako baza danych w sensie biznesowym, to nic się z nim nie stanie przez długi okres.
niektórzy producenci dają nawet 5 lat gwarancji
Owszem. Niektóre sklepy pozwalają nawet wykupić dodatkowe lata na taki dysk, czyli możesz mieć 8 lat gwarancji na sprzęt :D
Czyli warto zainwestować w SSD dla Linuksa?
Jeżeli faktycznie nie chcesz zmieniać sprzętu przez najbliższe 3 – 5 lat, to tak. Ja osobiście bym ci polecał kupić OCZ Vertex 4 128GB, który posiada 5 lat gwarancji i można go dostać od 380 zł.
a czemu nie intela 330 lub 520?
Kiepski stosunek ceny do oferowanej gwarancji i szybkości. 330 i 520 są bardzo podobne, a Vertex 4 128GB jest w praktycznie tej samej cenie, co 330 a ma 5 lat gwarancji.
Vertex4 to marka OCZ… szczerze to ja bym tego kijem nie tykał. Gwarancja 5 lat to fajna rzecz, ale czy Ci ją uznają, to inna bajka, ja osobiście wolałbym nie mieć gwarancji 5 lat, ale by dysk działał 5 lat.
Samsung 830, Crucial M4, moim zdaniem lepsze alternatywy
Dyski Ocz to akurat nienajlepsze dyski, o problemach jakie stwarzają kontrolery można wyczytać na wielu forach. Sam miałem Ocz i co mi z tego, że producent daje 5 lat gwarancji, skoro miałem dużo częstsze problemy niż na Samsungu 830, który jeszcze nic złego mi nie zrobił. Dlatego zgodzę się z opinią Ryśka.
O długowieczność nie masz się co martwić, tutaj możesz przejrzeć dostępne modele, większość na dość długą gwarancję http://www.kuzniewski.pl/k577,dyski-flashowe-ssd…. Szybciej pewnie padnie Ci inny komponent niż ten dysk
Mam SSD w laptopie i stacjonarnym komputerze (niedawno zrobiłem upgrade do Samsunga 830 256GB bo 128GB przestała wystarczać po tym jak dysk na dane się spalił) i nie wyobrażam sobie już pracy na tradycyjnym dysku. To męczarnia.
[…] Article from https://osworld.pl/czy-dyski-ssd-to-godni-nastepcy-hdd/Czy dyski SSD to godni następcy […]
Duże są nieścisłości co do czasów żywotności komórek i wydajności w czasie. Brakuje testu w ogóle.
-> podane dane dotyczą poszczególnych procesów technologicznych. 5 lat temu komórki MLC miały żywotność 10-30tys cykli. Wątpię by 10nm komórki MLC miały żywotność 3tys cykli. 10nm TLC….
W dodatku testy praktyczne potwierdzają, że deklarowana ilość 3000 tys cykli np. przez Intel-a mija się z prawdą. W rzeczywitości jest to dużo mniej… Zgadnijcie co…
Od tego czasu Intel wprowadził 20nm kości… Huray jeszcze krótszy czas działania.
Ps
Właśnie wyszedł nowy dysk OCZ… który ma gwarancję na 36TB zapisu. MLC z gwarą nie na 3000, ale na 140~280 cykli zapisu.
Serwis o Open Source a pisze o dyskach i kartach graficznych :D LOL :D
Bardzo dobry artykuł. Wejdź z domu, lolku…