E-Machina
- Szczegóły
- Utworzono: 07 listopada 2016
- Jarosław Świątek
Demis Hassabis od wczesnych lat dzieciństwa rozmyślał o myśleniu. Te rozmyślania pchnęły go do studiowania informatyki oraz neurobiologii. Jego obsesją stało się stworzenie sztucznej inteligencji.
Wielu badaczy i osób zajmujących się tą problematyką uważa, że to jemu może się udać jako pierwszemu dokonanie tego przedsięwzięcia. Sam Hassabis dąży jednak do czegoś znacznie większego niż to, co współcześnie rozumiemy pod terminem sztuczna inteligencja i możemy spotkać w algorytmach Google'a oraz wielu różnych programach i aplikacjach, które wyszukują i prezentują nam treści zgodne z naszymi upodobaniami, odpowiadają płynnie na proste pytania itp. Hassabis mówi o tym, że niebawem uda się jego zespołowi z DeepMind powołać do życia superinteligencję. Ta będzie się rozwijać w tempie geometrycznym. Co to oznacza? Najprawdopodobniej to, że już chwilę po swoich narodzinach, będzie ona na poziomie, który ciężko jest ogarnąć najbardziej wybujałą wyobraźnią.
Stephen Hawking wystosował niedawno apel o powściągliwość w pracach nad projektami SI (Sztucznej Inteligencji). Ryzyko, że ściągniemy na siebie sami zagładę uważa on za bardzo prawdopodobne. Nic w tym dziwnego. Jeśli myślące maszyny, miałyby dzielić z nami planetę. Mogłyby nie zwracać na nas uwagi, ale ponieważ eksploatujemy Ziemię w tak dużym stopniu i w dodatku się na niej szarogęsimy jako póki co najinteligentniejsze istoty na planecie, możliwe jest, że postanowią się nas pozbyć. Co ważniejsze nie musiałyby nawet wystrzelić naboju, ani tym bardziej wypuszczać wirusa czy odpalać ładunku nuklearnego. Myśląc od nas miliony razy szybciej, łącząc ze sobą miliardy danych, dokonując miliardów obliczeń i symulacji na sekundę, mogą nas po prostu przechytrzyć. Samo odcięcie nas od technologii, wody, prądu, medycyny, zdziesiątkowałoby ludzkość. To są jednak scenariusze, które jesteśmy w stanie sobie wyobrazić. Bardziej prawdopodobne jest to, że bylibyśmy jak homary w powoli gotującym się garnku i nawet nie zauważylibyśmy kiedy by nas nie było i co powoduje naszą zagładę.
Jeżeli superinteligencja by powstała, to nie jesteśmy w stanie przewidzieć żadnego scenariusza. Możliwe, że po prostu wsiedliby na zbudowany przez siebie statek kosmiczny i zostawili nas sobie samych, uznając, że nie ma powodu, żeby robić nam krzywdy, ale także współżyć z nami na tym łez padole. Superinteligencja to coś, czego nie jesteśmy w stanie objąć umysłem, ani teorią umysłu, ponieważ nie posiadamy zasobów poznawczych, które byłyby w stanie zrozumieć twór, który posiadałby tak ogromną zdolność analizy i dokonywania obliczeń, zestawiania pakietów danych, jakiej sami nie mamy i nigdy mieć nie będziemy, ze względu na ograniczenia naszego układu nerwowego. Nawet przy założeniu, że zastąpilibyśmy własne neurony nanouronami a węgiel w naszym ciele krzemem, i tak bylibyśmy zdani na ograniczenia wynikające z konstrukcji naszego mózgu. Musielibyśmy całkowicie zmienić jego strukturę, żeby stać się partnerami dla maszyn. Pies nie potrafi wyobrazić sobie scenariuszy, które mogą nastąpić po tym, jak sięgnie po szynkę, która leży na stole. Może jedynie posłużyć się pamięcią ostatniego razu, kiedy sięgnął ze stołu po kawałek kurczaka. Nie skończyło się to dobrze. Bolało. Dlatego nie zrobi tego ponownie, chyba że wie, że źródło bólu nie patrzy. Jednak jeśli sięgnie i mimo to znowu będzie bolało, to kolejny raz nie będzie wcale ryzykował. Nie stanie się to jednak dlatego, że dokonał on symulacji mentalnych wszystkich możliwych scenariuszy, które był w stanie sobie wyobrazić i przewidzieć. Nie mógł ich dokonać, ponieważ nie posiada odpowiednio dużego mózgu i odpowiednich obwodów neuronalnych, które mogłyby doprowadzić do stworzenia teorii umysłu.
Bardzo podobnie sytuacja przedstawia się w przypadku sztucznej superinteligencji. Nie posiadamy obwodów, ani zasobów, które potrafiłyby pomyśleć w sposób przybliżony do tego, w jaki ona by myślała. Możemy spekulować w odwołaniu do naszych doświadczeń. A my co? Cóż...jemy inne zwierzęta, wybijamy innowierców czy prymitywne plemiona lub inne narody, tylko po to, żeby posiąść ich ziemię. Nic dziwnego, że boimy się co mogłaby z nami zrobić superinteligencja. Prawda jest jednak taka, że nie możemy mieć zielonego pojęcia a każdy scenariusz będzie nieudolną próbą antycypacji ruchów szachisty, który widzi nie trzy a trzydzieści trzy ruchy do przodu i zanim jeszcze usiadł do gry, już ją wygrał. Czy obawy są zatem zasadne? Tak samo jak i nie są. Czy istnieje jednak jakiś przycisk, wentyl bezpieczeństwa który mógłby powstrzymać SI przed ewentualną chęcią naszej eksterminacji? Instalowanie takowego byłoby bez sensu, ponieważ jeśli coś myśli miliony razy szybciej od nas, to po prostu w pewnym momencie by samo usunęło coś, co uniemożliwia mu dokonanie określonych działań. Można mieć nadzieję na skuteczność impulsu elektromagnetycznego, ale i tutaj – do czasu.
Jedynym ratunkiem dla ludzkości jest wyposażenie maszyn w receptory czuciowe i stworzenie analogicznych struktur do: kory przedniej części zakrętu obręczy, przedniej części wyspy, zakrętu czołowego dolnego, grzbietowo-przyśrodkowej i brzuszno-przyśrodkowej kory przedczołowej, połączenia potyliczno-skroniowego i płacika ciemieniowego dolnego. Są to obszary odpowiedzialne za odczuwanie...empatii. Gdybyśmy mogli nauczyć psy mówić lub pomóc im wykształcić teorie umysłu, to prawdopodobnie chętnie byśmy to zrobili, bo pies to nasz najlepszy przyjaciel i ogólnie, w przeważającej mierze, kochamy psy. Nawet jeśli uważamy je za znacznie głupsze od nas i nie mylimy się w tym osądzie. Nie pozwolilibyśmy jednak na to, żeby stała im się krzywda i chcielibyśmy im pomóc się rozwinąć do granic ich możliwości.
Jeżeli twórcy SI spróbowali stworzyć czujące a nie jedynie myślące maszyny, to istnieje szansa, że te nie chciałyby doprowadzić do naszej eksterminacji, nawet jeśli uznałyby nas za zagrożenie dla planety. Można wyobrazić sobie wtedy scenariusz, w którym podejmują się one oduczenia nas szkodliwych nawyków i zaproponowanie lepszych rozwiązań.
Czy obwody empatii mogłyby uratować nas przy założeniu, że SI mogłaby rozważać zakończenie istnienia naszego gatunku? Być może. Nie jest wykluczone, że superinteligencja postanowiłaby pozbyć się mechanicznych obwodów empatii, uznając je za ograniczające i wyłączyłaby je w toku swojej dalszej ewolucji. Jednak jeżeli cokolwiek uczy nas psychologia pozytywna, to że doświadczanie życia tu i teraz daje największe poczucie szczęścia i spełnienia. Jeżeli więc maszyny także poza swoją ewolucją, uznałyby, że odczuwanie stanowi sens istnienia, to możliwe, że nie chciałaby doprowadzić do pozbycia się obwodów empatii. A to jedyna rzecz, która mogłaby zapewnić nam przetrwanie w sytuacji, w której wszelka zaawansowana logika podpowiadałaby superinteligencji, że należy wyeliminować homo-sapiens.