Jak duże moce obliczeniowe mogą osiągać układy scalone?

Jak duże moce obliczeniowe mogą osiągać układy scalone?

W latach 60., na samym początku rewolucji komputerowej, Gordon Moore (jeden z późniejszych założycieli Intela) zauważył, że rozwój techniki komputerowej wykazywał niezwykłą cechę: maksymalna pojemność pamięci komputerów (ilość informacji, jaką mogą zmagazynować) podwajała się co dwa lata. Od tego czasu zaczęto sobie zdawać sprawę, że prawie każdy wskaźnik mocy obliczeniowej komputera – wielkość obwodów, prędkość, z jaką zachodzi przetwarzanie danych, i tak dalej – również wzrasta dwukrotnie co dwa lata. O obserwacjach tych mówi się ogólnie jako o prawie Moore’a.

Otóż powinno być jasne, że prawo Moore’a nie jest prawem przyrody, jakim jest na przykład prawo grawitacji Newtona. Jest to po prostu obserwacja, że technologia związana z obliczeniami i przetwarzaniem informacji gwałtownie się rozwija. To, co jest w tym dla mnie frapujące, to fakt, że rozwój ten jest chyba niezależny od zastosowanej technologii. Na przykład pod koniec lat 60. nikt nie mógł przewidzieć współczesnych metod wytwarzania układów scalonych ani metod projektowania obwodów, a jednak tempo rozwoju było w tych czasach prawie takie samo jak dzisiaj, niezależnie od rewolucji technologicznych, jakie zdarzały się po drodze.

Aby ukazać znaczenie tego rozwoju, porozmawiajmy o jednej z miar możliwości technologicznych – rozmiarach najmniejszego detalu, jaki możemy umieścić w układzie scalonym. Pod koniec lat 60. najmniejszy drucik, jaki mogliśmy wykonać, miał średnicę około 20 mikrometrów – w przybliżeniu 200000 średnic atomów (mikrometr jest jedną milionową metra). Od tego czasu rozmiary te ciągle zmniejszały się, osiągając 5 mikrometrów (około 50000 atomów) podczas szczytu rozwoju układów scalonych pod koniec lat 70., 1 mikrometr (około 10000 atomów) w erze komputerów/mikroprocesorów osobistych z lat 80., a dzisiaj znajduje się na poziomie 0,10 mikrometra – rozmiarów kilkuset średnic atomów. Nie wyobrażam sobie lepszego sposobu ilustracji faktu, że prawo Moore’a jest niezależne od technologii – metody, które stosowano do wykonania drucików, przeszły od lat 70. kilka zmian, a mimo to zmniejszanie się ich rozmiarów wydaje się trwałe i nieubłagane.

Jeżeli byliśmy w przeszłości świadkami rozwoju technologicznego tego rodzaju, to co możemy powiedzieć o przyszłości komputera? Zgodnie z moją wiedzą, istnieje kilka powodów, dla których mało prawdopodobne jest, by komputery stały się o wiele mniejsze, niż są teraz. Jednym z nich jest fakt, że obecnie nacisk kładzie się nie na wielkie systemy komputerowe, lecz na niewielkie jednostki, które mogą być ze sobą połączone w sieć. W tym wypadku granica rozmiarów komputera postawiona jest nie przez technologię, lecz fizjologię człowieka. Na przykład komputer laptop nie może stać się o wiele mniejszy, niż jest dzisiaj, z powodu wielkości ludzkiego palca – obecnie jedynym sposobem, w jaki można dostarczyć informację do maszyny, jest wprowadzenie jej za pomocą klawiatury. Oczywiście ograniczenie to może ulec zmianie, jeśli komputery nauczą się reagować na komendy wydawane głosem, jak w filmie Star Trek. Ponadto rozmiar ekranu, jakiego możemy użyć do wyświetlania wyników obliczeń, ograniczony jest wielkością liter odczytywanych z łatwością przez oko ludzkie. W związku z tym to nie wielkość układów scalonych będzie praktycznie decydować o rozmiarach i ciężarze komputerów przenośnych. Ciężar zależeć będzie przede wszystkim (tak jak i dzisiaj) od baterii, a rozmiary? – od wielkości ludzkiego palca i ostrości ludzkiego wzroku.

Ponadto, jeśli chodzi o układy scalone, dochodzimy niemal do punktu fundamentalnych ograniczeń fizycznych. Weźmy za przykład najmniejszy detal, jaki możemy umieścić w układzie scalonym. Programy badawcze są w miejscu pozwalającym na rozmiary kilkuset średnic atomów, lecz na tym poziomie zaczynamy napotykać trudności. Na przykład bardzo trudno jest utrzymać elektrony na „ostrych zakrętach”, gdy kanał, którym podążają, jest tak wąski – mają one wtedy skłonność do rozchodzenia się na wszystkie strony. Można się spodziewać narastania trudności tego rodzaju przy zmniejszaniu rozmiarów detali. Na dodatek występuje tu absolutna granica około jednej tysięcznej mikrometra (mniej więcej rozmiary pojedynczego atomu), którą, zgodnie z prawem Moore’a, osiągniemy około roku 2060. Niemożliwe jest, nawet teoretycznie, umieszczenie na płytce krzemowej struktury mniejszej od nich.

Jedną cechę wzrostu możliwości komputera uważam za szczególnie fascynującą. Rozmiary najmniejszego detalu, jaki zdołamy wytworzyć, wpływają oczywiście na wiele innych wielkości – na przykład liczbę tranzystorów, które można umieścić w pojedynczym układzie scalonym. Czyniąc sensowne założenia co do tych związków, a następnie ekstrapolując je w przyszłość, odkryjemy, że gdzieś pomiędzy rokiem 2020 a 2030 osiągniemy punkt, w którym będziemy mogli w układzie o rozmiarach kostki bulionowej zmieścić co najmniej 100 miliardów tranzystorów. Jest to mniej więcej tyle samo, ile neutronów zawiera ludzki mózg. Innymi słowy, jeśli technologia komputerowa będzie czynić takie postępy jak w przeszłości, to jeszcze za życia wielu osób czytających tę książkę będziemy potrafili wyprodukować (przynajmniej w teorii) sztuczny układ odpowiadający liczbą elementów (jeśli nie stopniem złożoności) ludzkiemu mózgowi. I co wtedy?