Sieciowa pamięć masowa — fakty i fikcja

Panaceum na eksplozję danych mają być rozwiązania określane wspólnym mianem „sieciowej pamięci masowej”. Sieciowa pamięć masowa to pojęcie „marketektoniczne”, które obecnie obejmuje sieci pamięciowe (ang. storage area network, SAN) oraz pamięć dołączoną przez sieć (ang. network attached storage, NAS).

W opracowaniach branżowych (broszurach, referatach, artykułach prasowych itp.) sieciowa pamięć masowa jest często opisywana jako rewolucyjne odejście od tradycyjnej pamięci podłączonej do serwera (czasem nazywanej „pamięcią uwięzioną w serwerze”). Ogólnie rzecz biorąc, obejmuje ona topologie, w których platformy pamięciowe tworzą odrębną infrastrukturę, co pozwala na:

– skalowanie pamięci masowej bez zakłócania pracy aplikacji,

– zwiększenie dostępności pamięci masowej,

– samoczynne zarządzanie pamięcią masową,

– inteligentne i automatyczne pozyskiwanie oraz konserwowanie pamięci.

Jeden z pierwszych opisów sieciowej pamięci masowej pojawił się w wizjonerskim artykule firmy Compaq Corporation, który omówiono w poprzedniej książce z serii Holy Grail. Kiedy w latach 90. Compaq nabyła firmę Digital Equipment Corporation, wraz z nią przejęła koncepcję sieciowej pamięci masowej znaną jako Enterprise Network Storage Architecture (ENSA), którą w 1997 roku przedstawiono w artykule przeglądowym o takim właśnie tytule.

W artykule zaproponowano infrastrukturę pamięci masowej, która cechowała się wymienionymi wyżej właściwościami: skalowalnością, dostępnością, zarządzalnością i inteligencją. Nikt w Compaq, przynajmniej początkowo, nie tłumaczył zalet infrastruktury ENSA eksplozją danych: ENSA miała po prostu zapewniać elegancką i ewolucyjną strategię zarządzania przechowywaniem danych.

Artykuł ENSA przewidywał malejące zyski ze sprzedaży coraz powszechniejszych dysków twardych oraz konieczność uzupełnienia oferty platform pamięciowych

0 oprogramowanie i usługi. Autorzy prawdopodobnie dostrzegli też zjawisko superpa- ramagnetyzmu i jego wpływ na pamięć dyskową.

Jak wiadomo, od połowy lat 90. dość systematycznie zwiększa się pojemność dysków 1 maleją ich ceny. Według obserwatorów branży pojemność dysków podwaja się mniej więcej co 18 miesięcy, a ceny zmniejszają się o połowę co 12 miesięcy (zobacz rysunek 2.3). Tendencja ta była motorem wzrostu sprzedaży produktów pamięciowych w minionej dekadzie, ale miała ten niefortunny skutek uboczny, że klienci zaczęli rozwiązywać problemy spowodowane złym zarządzaniem pamięcią, dokładając do swoich systemów coraz więcej niedrogich dysków.

W roku 2000 przypomniano sobie jednak o interesującej właściwości dysków magnetycznych: konwencjonalna technologia dyskowa narzucała nieprzekraczalny limit powierzchniowej gęstości danych (liczbę bitów na cal kwadratowy, które można niezawodnie zapisać i odczytać z talerza dysku). Ograniczenie to jest spowodowane zjawiskiem fizycznym znanym jako efekt superparamagnetyczny. Przy obecnym tempie wzrostu pojemności dysków granica ta zostanie osiągnięta już w 2005 albo 2006 roku.

Superparamagnetyzm, mówiąc prosto, to punkt, w którym energia magnetyczna utrzymująca bity zapisane na nośniku w ich zarejestrowanym stanie staje się równa energii termicznej wytwarzanej przez działanie dysku. Przekroczenie tej granicy powoduje przypadkowe przestawianie bitów i sprawia, że dysk staje się zawodny.

W przeszłości producenci wielokrotnie rozważali kwestię ograniczenia pojemności dysków spowodowanego efektem superparamagnetycznym. Kiedy jednak jeden z nich ogłosił nieprzekraczalny limit pojemności dysku, a następnie został „poprawiony”

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>