Nośnik pamięciowy

W branży pamięci masowej badania te okrzyknięto naukowym potwierdzeniem tezy 0 eksplozji danych. Producenci uchwycili się „empirycznych dowodów” przedstawionych w raporcie, ale zignorowali fakt, że badacze ostrożnie zastrzegli swoje wnioski

1 podali dolny próg szacowanej objętości danych, stanowiący zaledwie jedną czwartą górnego progu. Pominęli też milczeniem inne odkrycie profesorów z Berkeley — że większość nowych danych nie jest generowana przez organizacje i przechowywana w korporacyjnych podsystemach pamięci masowej. Zalew danych cyfrowych był przede wszystkim dziełem osób prywatnych, które w akcie „demokratyzacji danych” zapisywały zdjęcia z aparatów cyfrowych, filmy wideo w formatach AVI i MPEG, książki elektroniczne oraz pocztę e-mail na dyskach swoich komputerów osobistych.

Producenci uzasadnili więc swoją tezę o eksplozji danych dość wybiórczą lekturą raportu z Berkeley. Mit ten wykorzystano zresztą szybko do innego celu: miał on wyjaśniać, czemu sieciowe technologie pamięciowe — zwłaszcza SAN — są niezbędne dla przedsiębiorstw. Jak twierdzili producenci, jedynym sposobem ekonomicznego rozwiązania problemu skalowalności (wywołanego eksplozją danych) miała być konsolidacja i centralizacja danych cyfrowych w sieci pamięci masowej.

Kluczowym argumentem producentów było to, że sieć SAN pozwala przezwyciężyć ograniczenia topologii pamięci masowej, która obecnie dominuje na rynku: pamięci podłączonej do serwera (ang. server-attached storage, SAS). Różnice między SAS i SAN przedstawiono na rysunku 2.1.

W przypadku pamięci podłączonej do serwera (czasem nazywanej pamięcią podłączoną bezpośrednio — ang. direct-attached storage, DAS) zwiększenie pojemności platformy pamięciowej wymaga dodania dysków do macierzy podłączonej do hosta z aplikacją. W tym celu trzeba najpierw zamknąć aplikacje działające na serwerze i wyłączyć sam serwer. Następnie możemy już rozbudować macierz pamięciową o dodatkowe dyski kiedy to zrobimy, ponownie włączamy serwer, uruchamiamy jego system operacyjny i rejestrujemy w systemie woluminy rozbudowanej macierzy.

Producenci argumentowali, że skalowanie pamięci SAS w opisany wyżej sposób powoduje wiele kosztownych przestojów. Co gorsza, ze względu na eksplozję danych przestoje takie będą coraz częstsze i dłuższe. Potrzebna jest więc alternatywna, „bez- zakłóceniowa” metoda skalowania pamięci masowej.

Według producentów taką alternatywą miały być sieci Fibrę Channel SAN. W sieciach tych rozmiar woluminu pamięci można zwiększać bez restartowania serwera, ponieważ pamięć i serwery są w tym przypadku rozdzielone. Wystarczy dodać więcej dysków do woluminu SAN — nawet wtedy, kiedy przetwarza on żądania odczytu i zapisu przesyłane przez serwery — żeby systemy operacyjne serwerów aplikacji oraz działające w nich aplikacje w „magiczny” sposób „dostrzegły” dodatkową pamięć i zaczęły z niej korzystać.

Oczywiście, skalowanie woluminów w sieci FC SAN nie przebiega aż tak gładko, o czym będziemy mówić w dalszej części książki. Na razie zadowolimy się stwierdzeniem producentów, że dzięki dynamicznie skalowanym woluminom pamięciowym sieci SAN stanowią technologię infrastrukturalną, bez której nie jest możliwe uporanie się z problemem eksplozji danych.

Z pozoru argument ten jest zarówno niezbijalny, jak i samopotwierdzający się. Jeśli zaakceptujemy początkową przesłankę, czyli twierdzenie o gwałtownym przyroście danych, musimy się zgodzić, że potrzebna jest skalowalna topologia pamięci masowej — którą, teoretycznie, zapewnić może sieć SAN .

One comment to Nośnik pamięciowy

  • TomaszJanota  says:

    To niebywałe jak przez lata na naszych oczach wręcz, nośniki pamięci stawały się coraz mniejsze i coraz pojemniejsze. Dzięki za dokładniejsze przybliżenie całej historii 🙂

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>