Myślę

Komputery genetyczne. Czy kiedykolwiek powstaną?


Czy komputery genetyczne powstaną? Odpowiedź jest twierdząca. Dlaczego więc w naszych pecetach i tabletach wciąż drzemią krzemowe serca?

Odpowiedź na postawione w tytule pytanie w zasadzie już jest. I co najciekawsze, jest to odpowiedź twierdząca. Komputery genetyczne, a właściwie komputery DNA, już są, i to nie tylko na kartach powieści science fiction. Pierwsze rzeczywiście istniejące rozwiązania pojawiły się prawie 20 lat temu. W 1995 roku za pomocą „komputera DNA” udało się rozwiązać pierwszy informatyczny problem. Ale po kolei.

Skąd pomysł na komputer DNA?

Dlaczego naukowy świat w ogóle zaczął rozważać stworzenie komputera genetycznego? Odpowiedź powinna nasunąć się sama każdemu, kto choć trochę rozumie, czym jest DNA. Kwas deoksyrybonukleinowy, bo tak brzmi pełna nazwa DNA, to w zasadzie nic innego jak nośnik informacji. W bardzo dużym uproszczeniu można powiedzieć, że DNA zawiera w sobie przepis na budowę organizmu żywego.

Przepis ten zakodowany jest w postaci „cegiełek” – zasad azotowych. Są to bity informacji genetycznej, tyle że w informatyce mamy do czynienia z dwiema wartościami: zerem i jedynką, w naturze zaś zestaw bitów to 4 białka: adenina, guanina, cytozyna oraz tymina. W skrócie A, G, C oraz T. Zasady te mogą łączyć się w pary, ale tylko w postaci A-T oraz G-C. Czyli w zasadzie wracamy do kodowania dwubitowego.

Poprzez analogię do informatyki można każdy bit informacji cyfrowej zakodować na jednej parze zasad. I w ogromnym skrócie na tym polega idea działania komputera genetycznego.

Rozdzielając problem informatyczny na dwa odrębne zagadnienia, w komputerze mamy do czynienia z dwoma podstawowymi zagadnieniami: obliczeniami oraz magazynowaniem danych. To pierwsze realizowane jest przez procesory (główny, graficzny), a drugie przez szereg różnego rodzaju pamięci (RAM, twarde dyski, pendrive’y). Do obu tych zadań można zaprząc naturę.

Pamiętając, że zasady mogą się łączyć tylko w formy A-T oraz G-C, możemy „zmusić” pojedyncze łańcuchy takich zasad do łączenia się ze sobą w pary. Tak tworzą się podwójne helisy, czyli dokładnie takie twory, jakimi są łańcuchy DNA. Zmuszanie do łączenia to wprowadzanie do środowiska enzymów, czyli substancji wpływających na warunki biologiczno-chemiczne, ułatwiających tworzenie par. Poprzez odpowiednie wpłynięcie na sposób łączenia łańcuchów można zmusić naturę do wykonywania obliczeń.

W porównaniu z tworzeniem procesora magazynowanie danych w DNA wydaje się banalne. W tym wypadku wystarczy w odpowiedniej kolejności ułożyć zasady w łańcuchu, aby informacja została zakodowana. Aby uzmysłowić sobie potęgę drzemiącą w pojemności DNA, najlepiej porównać ją do obecnego klasycznego magazynowania danych. Aby przechować 2 PB danych, wystarczy mieć 1 gram DNA! 2 PB danych to 1024 TB, czyli 1024 klasyczne dyski twarde. A to całkiem spora objętość…

Widać oczywistą korelację między klasycznymi komputerami krzemowymi a genetyką. Czy jest coś jeszcze, co skłania uczonych do poszukiwań w tej dziedzinie? Otóż jest: znikomy pobór energii. Operacje na genach zużywają energię, która jest generowana przez układ oraz znikomą jej ilość wymaganą do wprowadzenia enzymów w środowisko. Brzmi więc kusząco.

Na jakim jesteśmy etapie?

Jak wspomniałem na początku, pierwsze sukcesy nauki w zakresie wykorzystywania DNA do obliczeń to rok 1995 (lub 1994, jak podają inne źródła). Wtedy to prof. Leonard Adleman z University of Southern California za pomocą obliczeń na genach rozwiązał tzw. problem komiwojażera. To, można powiedzieć, klasyczne zadanie, o którym studenci informatyki słyszą na pierwszych zajęciach. Problem streszcza się w jednym zdaniu: Jak można odwiedzić X miast połączonych Y drogami bez dwukrotnego przechodzenia przez to samo miasto? Wersja podstawowa zawiera 7 miast połączonych 14 drogami. Problem wydaje się dość dziwaczny, ponieważ człowiek ręcznie rozwiązuje go w kilkanaście sekund…

Ale dla komputerów to nie lada wyzwanie. Jest to zadanie tzw. NP-trudne, co w uproszczeniu oznacza, że nauka nie zna dla niego odpowiednio szybkich algorytmów. Poszukiwania optymalnego rozwiązania dla kilkudziesięciu miast za pomocą klasycznego komputera mogą trwać nawet kilkadziesiąt lat! Z zagadnieniem 7 miast komputer genetyczny Adlemana z 1994 roku poradził sobie w tydzień. Czyli, mówiąc wprost, działał!

Obecny stan techniki wygląda odrobinę lepiej. Przez ostatnie 20 lat udało się znacznie przyspieszyć obliczenia genetyczne. Dzisiejsze komputery DNA osiągają prędkości ponad 300 teraflopsów przy objętości „procesora” równej łyżeczce do herbaty. Dla porównania, krzemowy superkomputer Blue Gene/L firmy IBM osiąga prędkość dwukrotnie większą. Dysproporcja rozmiarów i poboru energii idzie jednak w setki tysięcy, oczywiście na korzyść genetyki…

A na jakim etapie jest zapis informacji w kwasie? I pod tym względem nauka nie pozostaje w tyle. W zeszłym roku dwóch uczonych z European Bioinformatics Institute, Ewan Birney i Nick Goldman, przeprowadziło dość widowiskowy eksperyment. Udało im się zapisać dość pokaźną ilość informacji w postaci genomu. Nie były to bynajmniej jakieś naukowe „głupoty”. Stworzona przez nich genetyczna nić przechowywała m.in.: wszystkie sonety Szekspira, wideo z przemową Martina Luthera Kinga, piosenkę „I have a dream” w formacie mp3, zdjęcie uczelni, na której pracują naukowcy, a także PDF z przełomową dla genetyki pracą Watsona i Cricka.

Zapisane dane w formie genu są bardzo trwałe i łatwe do kopiowania. Ta metoda ma jednak jeden poważny mankament. W tej chwili jest niesamowicie droga. Zapisanie 1 MB danych (czyli trochę mniej niż mityczna już dyskietka, pamięta ją ktoś jeszcze?) w nici DNA kosztuje „jedynie” 12 tysięcy dolarów… Widać więc, że do komercjalizacji jeszcze daleko.

Doczekamy się czy nie?

Z powyższego jasno wynika, że komputery genetyczne właściwie już istnieją. Może nie w takiej formie, jakiej oczekujemy, ale wydaje się, że to tylko kwestia czasu. Jak wszystko… Zasadnicze pytanie brzmi, o jak długim czasie mówimy. Widać, że nauka nie jest jeszcze gotowa do komercjalizacji pomysłu. Rynek prawdopodobnie też nie. O ile możliwości krzemu w zakresie obliczeń już powoli się kończą, o tyle rynek pamięci musi jeszcze przeżyć renesans SSD. Pozostaje tylko mieć nadzieję, że i na tę rewolucję technologiczną się załapiemy…

A jako postscriptum polecam doskonały wywód jednego z barwniejszych wizjonerów naszych czasów – Michio Kaku. Czy jego przewidywania się sprawdzą? Oby!

Powiązane wpisy

[FM_form id="2"]
Myślę
Jak zaoszczędzić na dojazdach do pracy?
Myślę
Le Corbusier – papież tragiczny
Myślę
Telewizor – da się bez niego żyć?