Wymiana informacji pomiędzy dyskiem twardym a komputerem jest możliwa dzięki specjalnym interfejsom. Odpowiadają za komunikację i mają bezpośredni wpływ na przepustowość, czyli maksymalną prędkość transferu danych. Na chwilę obecną najpopularniejszym z nich jest SATA, z którego korzysta większość urządzeń konsumenckich i serwerów. Jednak od pewnego czasu na rynku mamy już następcę – to technologia NVMe wykorzystywana w nośnikach SSD. W tym artykule specjaliści z firmy Stovaris wyjaśniają, czym jest oraz jaką ma przewagę nad swoją poprzedniczką. Oprócz tego wymieniamy główne zalety jej stosowania w rozwiązaniach serwerowych – zapraszamy do lektury.
Krótka historia interfejsów dysków twardych
Na początek warto wyjaśnić sens nieustannego rozwijania interfejsów przeznaczonych do dysków twardych. Najlepszym sposobem na to jest przedstawienie ich historii. Pierwsze nośniki pamięci masowej, czyli HDD, były urządzeniami mechanicznymi. Jeszcze w początkach XXI wieku korzystały z interfejsu IDE, obecnie określanego jako ATA, który zastąpił przestarzałe połączenie szeregowe.
Powyższa technologia w swojej ostatniej odsłonie (już nierozwijanej) osiągała prędkość transferu danych na poziomie 133 MB/s. Jej następcą jest używana obecnie Serial ATA, czyli SATA. W najnowszej wersji – trzeciej – oferuje realną przepustowość danych na poziomie około 600 MB/s. Z kolei ostatnia nowość w interfejsach, czyli coraz lepiej znane wszystkim NVMe bazujące na szynie PCIe 3.0, może przesłać nawet 3500 MB na sekundę. Warto nadmienić, że obecnie dostępne są w sprzedaży dyski NVMe bazujące na najnowszej technologii PCIe 4.0. Dyski te mają ponadprzeciętne wartości odczytu i zapisu. Przykładowo, dyski serwerowe jednego z najlepszych producentów SSD KIOXIA w serii Kioxia CD6 oraz Kioxia CM6 oferują odczyt aż do 8000 MB/s, jednocześnie gwarantują zapis na poziomie do 4000 MB/s. Wartości te są ewenementem w środowisku serwerowym, warto dodać, że coraz więcej osób decyduje się na aktualizacje swojego środowiska serwerowego właśnie z użyciem serii dysków Kioxia CD6 oraz Kioxia CM6.
Powyższa historia wyjaśnia, jaki jest cel rozwoju tej technologii – przyspieszenie odczytu i zapisu informacji. Z każdym rokiem przetwarzamy ich coraz więcej, co niejako wymusza ten proces. Sytuacja ta doprowadziła także do pojawienia się dysków SSD, czyli następców HDD, pamiętających jeszcze lata 50. ubiegłego stulecia.
Dlaczego dyski SSD stopniowo wypierają HDD?
Warto wrócić jeszcze na chwilę do dysków HDD. Są używane do dziś z racji ich bardzo przystępnej ceny, ponadprzeciętnej niezawodności i ogromnej pojemności. Jednak choć korzystają z interfejsu SATA, tak w najlepszym przypadku oferują transfer zaledwie na poziomie 200 MB/s. Wynika to z ograniczeń technologicznych. Dane przechowywane są na wirujących z dużą prędkością talerzach magnetycznych, a za ich zapis i odczyt odpowiadają ruchome głowice. Każda z nich w określonym momencie może znajdować się tylko w jednym punkcie, co wydłuża czas dostępu do informacji.
To główny powód pojawienia się dysków SSD, w których całkowicie wyeliminowano mechanikę, zastępując ją półprzewodnikami. Ograniczenia w transferze generuje w nich sam interfejs, choć oczywiście wiele zależy również od zastosowanych kości pamięci. Jednak są zdolne do tego, aby obsługiwać maksymalną przepustowość danych zarówno dla technologii SATA, SAS, jak i NVMe.
W efekcie dziś HDD wykorzystuje się głównie w celu archiwizacji dużej ilości informacji. Główną zaletą HDD nadal pozostaje dość niski koszt $ per TB danych. Zazwyczaj na dyskach talerzowych umieszcza się tzw. cold-storage, czyli dane, które nie wymagają szybkiego dostępu, lub też stare aplikacje, które nie wymagają szybkości jaką oferują dyski półprzewodnikowe. Gdy szybki dostęp do informacji jest dla nas priorytetem, nośnik ten zastępuje dysk SSD. Rozwiązanie to jest stosowane zarówno w komputerach konsumenckich, jak i na serwerach.
NVMe vs SATA – co różni te technologie?
Dokonanie porównania NVMe vs SATA należy zacząć od opisania różnic w działaniu obu tych interfejsów. Druga z powyższych technologii, a więc starsza, wykorzystuje adapter magistrali hosta. Jest to kontroler pośredniczący w wymianie danych pomiędzy dyskiem twardym SSD a procesorem. W komputerach konsumenckich zwykle jego funkcję pełni mostek. To chip odpowiadający jednocześnie za realizację wielu innych zadań. Z kolei w rozwiązaniach serwerowych zazwyczaj znajduje się on na specjalnych kartach rozszerzeń.
W przypadku NVMe udało się wyeliminować tego „pośrednika”. Komunikacja pomiędzy dyskiem i procesorem jest bezpośrednia dzięki użyciu magistrali PCI Express (PCIe). Pozwoliło to na drastyczne zwiększenie przepustowości danych ze wspomnianych 600 MB/s dla interfejsu SATA do nawet 8000 MB/s przy wykorzystaniu dysków SSD NVMe PCI-e 4.0.
Prawdziwa moc NVMe drzemie w szybkości tej technologii
Podczas zakupu dysków twardych zawsze zwraca się uwagę na ich przepustowość. Jednak porównując NVMe vs SATA w kontekście zastosowania serwerowego, często większe znaczenie ma parametr szybkości. W skrócie opisuje się go jako IOPS, czyli „Input Output Per Second”. Określa on ilość operacji zapisu oraz odczytu danych, które urządzenie może wykonać jednocześnie w przeciągu jednej sekundy. Biorąc pod uwagę stosowane dziś interfejsy, jego wartość prezentuje się następująco:
-
50 do 80 – najlepsze dostępne na rynku nośniki HDD,
-
5 000 do 50 000 – dyski SSD SATA,
-
85 000 w przypadku zapisu oraz 1 000 000 w przypadku odczytu – dla NVMe PCI-e 4.0 oraz 50 000 do 400 000 – dla NVMe PCI-e 3.0
W przypadku serwerowych nośników pamięci masowej, wykorzystujących nową technologię komunikacji, IOPS dochodzi nawet do miliona.
Dyski SSD NVMe występują w trzech różnych wersjach
Jeśli planujesz zakup dysków SSD wykorzystujących technologię NVMe, powinieneś wiedzieć, że występują w 3 formatach. Do wyboru są urządzenia ze złączem:
-
PCI Express – mają formę kart rozszerzeń instalowanych w gnieździe płyty głównej. Co ciekawe format ten został już praktycznie wycofany w przypadku serwerów, z uwagi na to, że był mało praktyczny – zajmował slot PCI-e na każdy dysk. Jednakże te rozwiązania są nadal dostępne do użytku konsumenckiego, gdzie zazwyczaj użytkownikowi wystarczy użycie jednego dysku z takim interfejsem.
-
M.2 – następca mSATA, port taki znajduje się w większości nowoczesnych komputerów, oraz serwerów. Dyski M.2 mają bardzo małą wytrzymałość na zapis (czasem jest to nawet 0.4 DWPD). Powinny one służyć głównie do np. instalacji systemu operacyjnego, natomiast cały zapis danych powinien być kierowany na dyski z większa wytrzymałością od 1,3 czy 20 DWPD.
-
U.2 – ma zastosowanie głównie w serwerach, pozwala na największe upakowanie dysków na małej przestrzeni i wysokości serwera. Dzięki temu możemy osiągnąć nawet 2PB w serwerze 1U. Zwiększenie upakowania dysków zmniejsza też koszt TCO (Total Cost of Owning), czyli ogólny koszt posiadania maszyny.
Należy jeszcze podkreślić, że pierwsze dwa rodzaje dotyczą nośników pamięci o bardzo małych rozmiarach. Z kolei ostatni z nich jest stosowany w serwerowych, klasycznych dyskach 2,5’’.
W interfejsach NVMe i SATA do dysku SSD można użyć szyfrowania
Warto wspomnieć jeszcze kilka słów o zabezpieczaniu danych przechowywanych na nośnikach pamięci. Pod tym kątem w ostatnich latach ogromną popularnością cieszy się tzw. dysk szyfrowany. W jego przypadku algorytm kryptograficzny zakodowany jest na chipie znajdującym się bezpośrednio w urządzeniu. W porównaniu do swojego programowego odpowiednika, zamiast chronić całą pamięć, szyfruje każdy plik oddzielnie. W efekcie nawet w przypadku złamania kodu uzyskanie dostępu do wszystkich danych jest niemożliwe.
Jeśli potrzebujesz takiego sprzętu, to wybór interfejsu NVMe lub SATA nie będzie mieć znaczenia. Tę technologię szyfrowania można zaimplementować w każdym nośniku SSD.
Jakie są zalety dysków twardych SSD NVMe pod kątem ich serwerowego zastosowania?
Czas skupić się wyłącznie na rozwiązaniach serwerowych, w których to niewątpliwie nowa technologia interfejsu dysków SSD ma największe zastosowanie. Specjaliści z firmy Stovaris wymieniają kilka jej ważnych zalet, biorąc pod uwagę porównanie NVMe vs SATA. Kontrolery ATA są bowiem praktycznie w ogóle niewykorzystywane w serwerach. Można je jeszcze znaleźć głównie w starych komputerach konsumenckich.
W stosunku do swojego poprzednika nowy interfejs komunikacyjny pozwala m.in. na:
-
wykonywanie większej ilości operacji odczytu lub zapisu przy jednoczesnym zmniejszeniu zużycia zasobów procesora CPU – to efekt możliwości kolejkowania zapytań,
-
wyraźne zmniejszenie opóźnień przy przetwarzaniu informacji zapisanych na nośnikach,
-
obniżenie kosztów eksploatacji – urządzenia NVMe są bardziej energooszczędne od SATA zarówno w trybie gotowości, jak i po przejściu w stan czuwania,
-
zwiększenie stabilności działania w długookresowej perspektywie, co jest efektem stosowania w dyskach pojemnych kości pamięci operacyjnej DRAM.
Jakie jest zastosowanie dysków NVMe SSD?
Powyższe zalety sprawiają, że nowy interfejs wręcz idealnie nadaje się do obsługi bardzo rozbudowanych baz danych. W kontekście NVMe vs SATA, pierwsza z tych technologii znacznie przyspiesza tworzenie, modyfikację oraz analizę gromadzonych informacji. Jednak tego typu dyski SSD są również doskonałe dla wydawców dużych serwisów internetowych oraz dostawców rozwiązań SaaS. Coraz chętniej korzystają z nich również firmy inwestujące w systemy ERP i CRM.
Przy okazji warto wspomnieć o tym, że takie nośniki pamięci są dziś chętnie wybierane również przez użytkowników prywatnych i małych przedsiębiorców. Wysoka przepustowość i niezwykła szybkość IOPS czynią te urządzenia idealnymi m.in. dla:
-
miłośników nowoczesnych gier komputerowych,
-
programistów, fotografów, architektów i inżynierów,
-
osób zajmujących się filmowaniem lub montażem materiałów wideo o rozdzielczości obrazu powyżej FullHD.
Dyski NVMe SSD doskonale nadają się do budowy macierzy RAID
Niewątpliwie podstawą funkcjonowania praktycznie każdego serwera są macierze. Usprawniają gospodarowanie zasobami dyskowymi, ułatwiają replikację informacji, a do tego są istotne z punktu widzenia ochrony danych. Dyski SSD wykorzystujące technologię NVMe idealnie nadają się do budowy takich sieci pamięci masowej. Doskonałym tego przykładem są urządzenia z serii GS wyposażone w złącze U2, które oferuje nasza firma Stovaris.
Ich ogromną zaletą jest automatyzacja migracji danych pomiędzy poszczególnymi warstwami w macierzy. Pozwala to na łączenie nowoczesnych nośników pamięci masowej z klasycznymi HDD SATA. Dzięki temu można zachować bardzo wysoką pojemność bazy, przy jednoczesnym zwiększeniu wydajności jej działania.
Jednak korzyści z wyboru naszych dysków NVMe do budowy macierzy jest więcej, w tym m.in.:
-
ogromne możliwości rozbudowy dzięki funkcjom scale-out i scale-up – można dodawać nowe węzły oraz tworzyć kolejne klastry pamięci masowej,
-
uproszczenie zarządzania i obsługi,
-
zwiększenie niezawodności – specjalny algorytm optymalizuje pracę dysków, wydłużając ich żywotność. Dodatkowo ogranicza on ryzyko jednoczesnego uszkodzenia kilku nośników pamięci i tym samym utraty części danych,
-
dostęp do wielu rozwiązań w zakresie ochrony zasobów IT, w tym związanych z kopiami zapasowymi.
Budując serwer, zawsze stawiaj na sprawdzone dyski SSD!
Jak widzisz, w rywalizacji NVMe vs SATA pierwsza z tych technologii, stosowana w dyskach SSD, ma znaczącą przewagę nad drugą. Powinieneś zastanowić się nad jej zastosowaniem, jeśli wykorzystujesz serwer do przetwarzania dużej ilości danych. Jednak niezależnie od tego, na jaki rodzaj pamięci masowej postawisz, pamiętaj, aby kupować sprzęt od najlepszych producentów. Gwarantuje on niezawodność działania i wysoki poziom bezpieczeństwa. Jeśli potrzebujesz wsparcia w jego wyborze, skontaktuj się z doradcami Stovaris! Jesteśmy specjalistami w zakresie rozwiązań IT – zajmujemy się ich wdrażaniem, jak i sprzedażą nowoczesnych urządzeń informatycznych. Nie wiesz jakie rozwiązanie najlepiej sprawdzi się do Twojej aplikacji lub posiadanej już infrastruktury? Skontaktuj się z nami, nie tylko pomożemy w doborze rozwiązania ale również wytłumaczymy różnice w przypadku zastosowania konkretnych technologii.