Wyobraźmy sobie samolot,
który leci milimetr nad powierzchnią
i okrąża Ziemię raz na 25 sekund,
licząc każde źdźbło trawy.
Gdy pomniejszymy to wszystko tak,
by zmieściło się w ludzkiej dłoni,
otrzymamy coś przypominającego
współczesny dysk twardy.
Przedmiot mieszczący
więcej informacji niż miejska biblioteka.
Jak to możliwe?
Sercem każdego dysku twardego są
bardzo szybko obracające się płyty.
Nad każdą z nich
umieszczona jest głowica zapisująca.
Płyty powleka folia mikroskopijnych
ziaren z namagnesowanego metalu.
Dane występują tam
w nierozpoznawalnej dla nas formie.
Zapisane są pod postacią
magnetycznego wzoru,
który tworzą mikroskopijne ziarna.
W każdym układzie znanym jako bit
ziarna są namagnesowane
w jednym z dwóch kierunków.
Każdy z nich odpowiada zeru lub jedynce.
Dane są zapisywane na dysku
przez zamianę ciągów bitów
w wiązki elektryczne
przechodzące przez elektromagnes.
Magnes wytwarza na tyle silne pole,
że może zmieniać kierunek
namagnesowania metalowych ziaren.
Gdy informacja zostaje zapisana na płycie,
dysk używa czytnika magnetycznego,
by nadać jej rozpoznawalną postać.
Tak jak igła gramofonowa
odczytuje rowki jako muzykę.
Skąd aż tyle informacji
z samych zer i jedynek?
Dzieje się tak poprzez ich łączenie.
Litera przedstawiana jest za pomocą
jednego bajta, czyli 8 bitów.
Zdjęcie składa się z kilku megabajtów.
Każdy megabajt to 8 milionów bitów.
Każdy bit musi zostać
fizycznie zapisany na płycie,
więc próbuje się powiększać
gęstość zapisu płyt
albo zwiększać liczbę bitów
na centymetr kwadratowy.
Gęstość zapisu na dysku twardym
to około 100 gigabitów
na centymetr kwadratowy.
300 milionów razy więcej
niż miał pierwszy dysk IBM z 1957 roku.
Ten niesamowity postęp w pojemności dysków
nie wziął się z samej idei
pomniejszania wszystkiego,
a z licznych innowacji.
Technologia cienkowarstwowa
pozwoliła inżynierom zmniejszyć
głowicę zapisująco-odczytującą.
Niezależnie od wielkości
głowice stały się bardziej czułe
dzięki odkryciom w dziedzinie
magnetycznych i kwantowych cech materii.
W zagęszczaniu bitów pomogły
matematyczne algorytmy,
które odfiltrowują magnetyczne zakłócenia,
wyszukując najbardziej pasujące sekwencje
bitów w trakcie przesyłu danych.
Zastosowanie ogrzewacza głowicy
umożliwiło kontrolę
jej rozszerzalności cieplnej.
Pozwoliło to unosić się głowicy nad płytą
w odległości poniżej pięciu nanometrów,
czyli takiej jak między dwiema nićmi DNA.
Przez kilka ostatnich dekad
przyrost pojemności i mocy obliczeniowej
komputerów w wykładniczym tempie
następował zgodnie z prawem Moore'a,
który w 1975 przewidywał,
że gęstość informacji
będzie podwajać się co 2 lata.
Przy około 15 gigabitach
na centymetr kwadratowy
dalsze pomniejszanie lub upychanie
ziaren magnetycznych
groziło wystąpieniem
efektu superparamagnetycznego.
Kiedy objętość ziarna
magnetycznego jest zbyt mała,
łatwo się ono rozmagnesowuje
pod wpływem energii cieplnej.
Bity zaczynają samoistnie
zmieniać kierunek,
co prowadzi do utraty danych.
Naukowcy łatwo pokonali to ograniczenie,
zmieniając kierunek zapisu
z podłużnego na prostopadły.
Umożliwiło to powiększenie gęstości zapisu
do 150 gigabitów na centymetr kwadratowy.
Ostatnio granica znów została przekroczona
dzięki wspomaganemu termicznie
zapisowi magnetycznemu,
który wykorzystuje nośniki
bardziej odporne na zmiany temperatury.
Opór magnetyczny
zostaje natychmiast zmniejszony
przez podgrzanie danego miejsca laserem,
co umożliwia zapis danych.
Choć dyski tego typu są
obecnie w fazie prototypu,
naukowcy mają już kolejnego asa w rękawie.
To nośniki o bitowej strukturze,
na których bity zajmują
wydzielone nanoregiony.
Zagęszczenie wyniosłoby wtedy
3 terabity na centymetr kwadratowy
lub więcej.
Wspólny wysiłek całych pokoleń inżynierów,
badaczy materiału
i fizyków kwantowych
sprawił, że to urządzenie
o niezwykłej mocy i precyzji
mieści się w ludzkiej dłoni.