Jeśli chcesz przeczytać ponownie ten artykuł lub brak Ci teraz czasu aby przeczytać całość, możesz dodać go do swojej listy artykułów. Wszystkie zapisane publikacje znajdziesz w profilu czytelnika

Co roboeta miał na myśli

Sztuczna inteligencja i automatyzacja życia nie są i nie mogą być ulepszonym odzwierciedleniem ludzkich działań i ewaluacji. Mimo bezsprzecznego ułatwienia, jakie za sobą niosą, traktować je należy z dozą sceptycyzmu

Sztuczna inteligencja i automatyzacja życia nie są i nie mogą być ulepszonym odzwierciedleniem ludzkich działań i ewaluacji. Mimo bezsprzecznego ułatwienia, jakie za sobą niosą, traktować je należy z dozą sceptycyzmu

Człowiek to 99% geniuszu i 1% bólu.

W obecnych czasach ludzie mówią „zdejmij ubranie” w taki sposób, jakby mówili „chodźmy zwiedzać cały świat!”

Nic nie starzeje się tak prędko jak szczęście.

Jeden z powyższych aforyzmów pochodzi od Oscara Wilde’a, dwa – z automatycznego generatora aforyzmów ze strony www.inspirobot.me. Umiecie powiedzieć, które są wygenerowane automatycznie, a który jest autorstwa irlandzkiego estety?

Z algorytmem za pan brat

Algorytmy i sztuczna inteligencja przenikają nasze życie w coraz większym zakresie. Wyszukiwarki internetowe czy aplikacje służące do rozrywki od jakiegoś czasu starają się podążać za nami i po przeanalizowaniu naszych dotychczasowych działań w sieci zadecydować, czy kiedy wpisujemy frazę „Paris Hilton”, to interesują nas pikantne szczegóły z życia amerykańskiej celebrytki, czy adres hotelu z sieci Hilton w Paryżu (użytkownicy polskiego googla nie mają jednak co liczyć na drugie rozwiązanie). Podobnie możemy zapoznać się z np. propozycjami spersonalizowanych filmów na youtube. Sztuczna inteligencja idzie jednak jeszcze dalej – implementacja osiągnięć nauk m.in. w paradygmacie affective computing (przetwarzania afektywnego) czy pervasive computing context-aware systems (przetwarzania wszechobecnego i systemów kontekstowych) dąży do tego, aby korzystając z osiągnięć kognitywistyki, inżynierii biomedycznej i informatyki, rozpoznawać, interpretować, a nawet przewidywać ludzkie stany emocjonalne i na tej podstawie być wręcz o krok przed użytkownikiem, wysuwając mu propozycje zachowań zanim jeszcze użytkownikowi przyjdą one do głowy.

Z zaimplementowanych, algorytmicznych ewaluacji korzysta się coraz powszechniej w sektorze bankowym czy do oceny pracowników. Wreszcie, co jakiś czas można przeczytać o stworzonych botach czy generatorach muzyki, wierszy lub właśnie aforyzmów.

Tak błyskawiczny rozwój może budzić dwie sprzężone ze sobą reakcje. Pierwszą jest entuzjazm wynikający z faktycznego ułatwienia życia i pracy spowodowany w przypadku rozrywki rzeczywiście trafnymi propozycjami, a w przypadku rozwiązań bankowych czy biznesowych zdecydowanie szybciej przeprowadzoną ewaluacją. Druga reakcja jest skrajnie odmienna. To strach, którego źródłem jest po trosze niezrozumienie samych algorytmów, ale również obawa przed dehumanizacją naszej rzeczywistości oraz właśnie entuzjastyczną wiarą w sztuczną inteligencję, której wynikiem jest automatyzowanie kolejnych (i coraz bardziej znaczących) działalności, do tej pory zarezerwowanych dla ludzi.

Jak szacuje IDC światowy rynek obsługi systemów kognitywnych do 2019 r. będzie wart 9,2 mld dolarów, a więc ponad dwukrotnie więcej niż w roku 2014

Ale czy jest rzeczywiście czego się bać? Czy wspomniane algorytmy nie są po prostu takimi samymi jak ludzkie procesami ewaluacji i wnioskowań, tyle że zaimplementowanymi do bardziej wydajnych obliczeniowo urządzeń? W nieco fantastyczno-naukowym uproszczeniu: czy maszyny przypadkiem nie myślą „tak samo” jak ludzie? Jeśli tak, to wprowadzanie ich do kolejnych sfer życia nie jest dehumanizacją rzeczywistości, ale wykorzystaniem wiedzy o ludzkim myśleniu do przeprowadzania tych samych operacji i w ten sam sposób, tylko bardziej wydajnie. Co więcej, zgodnie z niedawną propozycją Davida Chalmersa i Andy’ego Clarka, jeśli uznamy, że umysł może być traktowany jako rozszerzony (gdy np. traktujemy pamięć jako część umysłu, dla osoby z Alzheimerem rozszerzeniem tego umysłu może być notatnik jako jego pamięć zewnętrzna), to algorytmy, z których korzystamy, mogą być traktowane po prostu jako ulepszenie wydolnościowe naszych realnych strategii poznawczych.

Warto więc przyjrzeć się bliżej podobieństwom i różnicom poznania, wnioskowania oraz ewaluacji dokonywanych przez ludzi z tymi automatycznymi i – w końcu przez nas samych – zaimplementowanymi w maszynach.

Obliczeniowo czy dynamicznie

Za podejściem unifikującym algorytmy implementowane na różnego typu maszynach oraz ludzkie procesy myślowe opowiada się coraz więcej badaczy zajmujących się naukami o poznaniu. We współczesnej kognitywistyce zdecydowanie przeważające jest podejście obliczeniowe, czyli takie, które utożsamia umysł z rodzajem komputera (lub bardziej ogólnie systemem przetwarzającym informacje), a poznanie z pewnym oprogramowaniem utworzonym z algorytmów. Implementacja tego oprogramowania na dowolnej maszynie daje zawsze te same wyniki.

Nie znaczy to jednak, że jest to jedyny model przyjęty obecnie do tłumaczenia działania umysłu. Pewną alternatywą jest np. podejście dynamiczne. Korzysta ono z idei tzw. wyjaśniania dynamicznego, a więc takiego, które zakłada, że wartość interesującej nas zmiennej (np. jakiegoś zachowania) w modelu zmienia się wraz z manipulacją innych zmiennych zawartych w modelu (środowiska, innego zachowania etc.). Oznacza to, że model wyjaśniający działanie umysłu nie może być sztywny, a kolejne kompetencje nie wyłaniają się w stały sposób, według określonego wzorca wraz z jego rozwojem, ale w pewnej interakcji z otoczeniem. Wyjaśnienie działania modelu (w tym wypadku umysłu) jest możliwe zawsze w odniesieniu do innych zmiennych, jak np. wpływu środowiska czy aktualnie otaczających podmiot wzorców. Podejście to wywodzi się z nurtu psychologii ekologicznej, która akcentowała wpływ środowiska na rozwój poznawczy i przyjmowała niemożliwość opisu systemu poznawczego, abstrahując od jego interakcji ze środowiskiem.

Przyjęcie takiej natury umysłu wymaga od modeli imitujących ludzkie procesy poznawcze dużej elastyczności i np. uczenia się. Faktem jest, że algorytmy samouczące zastępują już te sztywne (choć i te drugie – ze względu na swą prostotę – wciąż są popularne). Bardzo intensywnie w oprogramowania samouczące inwestuje choćby IBM. Można przyjąć, że jest to kierunek wiodący – jak szacuje IDC światowy rynek obsługi systemów kognitywnych (zwłaszcza w ekonomii) do 2019 r. będzie wart 9,2 mld dolarów, a więc ponad dwukrotnie więcej niż w roku 2014.

Jednak nawet jeśli odrzucimy klasyczne podejście obliczeniowe na rzecz dynamicznego lub po prostu uwzględnimy konieczność uczenia maszynowego w tego typu rozwiązaniach, wciąż wydaje się, że takie modele można zaimplementować (a nawet już się to robi). W związku z tym być może nie ma powodu do obaw przed wspomnianą dehumanizacją i nadreprezentacją ewaluacji zautomatyzowanych w wymienionych na początku tekstu sferach życia. Ta różnica jest jednak gdzieś zdecydowanie głębiej. W samej świadomości.

Maszyno – co ty wiesz o mówieniu po chińsku?

W latach czterdziestych w Anglii popularna była pewna gra towarzyska. Brały w niej udział trzy osoby. Jedna z nich, nazwijmy ją graczem, znajdowała się w jednym pokoju, druga – sędzia – w innym. Sędzia porozumiewał się z graczem, zadając mu pytania, których treść podawał trzeciej osobie. Przechodziła ona z pokoju do pokoju, przekazując pytania i odpowiedzi. Zadaniem sędziego było rozpoznanie na podstawie udzielonych odpowiedzi płci gracza.

Alan Turing, jeden z ojców tak informatyki, jak i podejścia obliczeniowego w kognitywistyce, inspirując się wspomnianą grą, stworzył w roku 1950 test dla maszyny, aby stwierdzić, czy można jej przypisać myślenie. Modyfikacją jest to, że na miejscu gracza może być człowiek lub maszyna, czego odgadnięcie jest celem sędziego. Turing twierdził, że pytanie o możliwość myślenia przez maszyny może zostać przeformułowane na możliwość komunikacji takiej jak między ludźmi. Gdy maszyny będą przechodzić test Turinga w podobnej częstotliwości co ludzie, możemy twierdzić, że posiadają takie jak człowiek zdolności mentalne.

Klasyczny argument przeciwko takiemu rozumieniu myślenia sformułował trzydzieści lat później John Searl. W pewnym pokoju siedzi człowiek posługujący się językiem angielskim. Posiada on wszelkie instrukcje zapisane po angielsku, mówiące o zasadach syntaktycznych języka chińskiego, nie ma jednak dostępu do tłumaczeń chińskich znaków. Do jego pokoju wrzucane są karteczki z pytaniami w języku chińskim, na które sensownie potrafi on odpowiedzieć dzięki posiadanym instrukcjom. Problem jednak w tym, że człowiek w Chińskim Pokoju nie rozumie, co pisze. Wypełnia jedynie instrukcje, dając sensowne odpowiedzi, nie wiedząc jednak, co one oznaczają.

Argument Searla naprowadza na fundamentalną różnicę między maszynami a ludźmi – na rozumienie swojego myślenia i świadomość

Choć sam Searl nie jest przeciwnikiem poglądu, zgodnie z którym maszyny mogą myśleć – utożsamia on ludzki umysł z maszyną wraz z dodatkową możliwością rozumienia – to jego argument pomaga spostrzec fundamentalną, moim zdaniem, różnicę między maszynami a ludźmi – rozumienie swojego myślenia i świadomość.

Jest to dość kontrowersyjny temat we współczesnej filozofii umysłu (ze względu na bardzo mocne przywiązanie do oczywistości swojego poglądu każdej ze stron), jednak niektórzy filozofowie, wbrew głównemu nurtowi, opowiadają się za niemożnością przypisania świadomości maszynom (jak chociażby Roger Penrose, argumentując z ograniczenia maszyn m.in. przez przyjęcie sztywnych aksjomatów logicznych) lub sprowadzenia wszelkich stanów mentalnych do stanów mózgów lub stanów funkcjonalnych (jak w monizmie anomalnym Donalda Davidsona lub dualizmie własności Davida Chalmersa). Co więcej, jeśli przyjmiemy rzeczywiście pogląd o tej fundamentalnej różnicy między umysłem ludzkim a „umysłem” maszyn, musimy zmierzyć się z możliwością przyczynowego wpływu świadomości na procesy psychiczne. Wymaga to odpowiedzi na pytanie, jak to jest możliwe, że świadomość i zrozumienie własnych myśli przyczynowo wpływa na nasze myślenie lub wnioskowanie, a nie jest po prostu pewnym naddatkiem, bez którego wszelkie procesy i tak zaszłyby w ten sam sposób. Mimo przeważającego poglądu naturalistycznego we współczesnej filozofii umysłu i kognitywistyce, nie jest to natomiast wykluczone, zwłaszcza w przypadku procesów myślowych dotyczących decyzji odległych w czasie, np. planowania.

Potrzeba nieprzewidywalności

Puśćmy jednak wodze fantazji, a wodze świadomości ściskające sztuczną inteligencję odłóżmy zupełnie na bok. Zastanówmy się, jakie wymagania rzeczywiście stawiamy algorytmom i porównując je z ludzkimi procesami wnioskowania, oceńmy, czy te pierwsze spełniają je w co najmniej równej mierze co te drugie.

Wyobraźmy sobie, że chcemy stworzyć i zaimplementować jakiś ewaluatywny algorytm (taki, który dokonywałby oceny jakiejś sytuacji lub rzeczy – np. pracownika jako kandydata do firmy). Czego byśmy od niego oczekiwali? Czy powinien być on niezawodny i stały w swoich regułach? Wydaje mi się, że gdy uczciwie przyjrzymy się ludzkim oczekiwaniom wobec ewaluacji, okazuje się, że nie. Jeśli zaś dodamy do oczekiwań wobec algorytmu roszczenie, aby działał tak jak ewaluacja człowieka (a przecież przed stworzeniem algorytmu szkicujemy założenia i cele, jakie także nam by przyświecały przy jakiejś ewaluacji, gdyby to od nas zależała decyzja w konkretnej sprawie – potem to tylko implementujemy), okazuje się to po prostu niemożliwe, co postaram się uzasadnić poniżej.

Automatyzacja jest realnym zagrożeniem, ramię w ramię z przekonaniem o zrozumieniu mechanizmu, jaki chcemy, by nas kierował do podjęcia ostatecznej decyzji we wnioskowaniu

Ludzie, także specjaliści, mimo przyjętych zasad często ulegają chociażby błędom poznawczym, pewnym stereotypom i uproszczeniom (co – bez żenady! – nazywamy intuicją lub wrażliwością) i przeprowadzając jakąś ocenę czy analizując problem, nagle zmieniają algorytm z powodu wpływu zmiennych, których jawnie nie przyjęliby jako koniecznych do wzięcia pod uwagę. Brak dokładności i pełnej przewidywalności tego rodzaju rozumowań u ludzi paradoksalnie jest plusem. To pewna ograniczona nieracjonalność i nieprzewidywalność świadczy o człowieczeństwie i wrażliwości w przeprowadzanej ewaluacji. W tym – obok świadomości – tkwi fundamentalna różnica między wynikiem działania algorytmów a procesem wnioskowania dokonanym przez człowieka. Między „myśleniem” maszyn a myśleniem człowieka. Wspomniany na początku tekstu lęk przed dehumanizacją jest więc rzeczywiście uzasadniony. Automatyzacja jest realnym zagrożeniem, ramię w ramię z przekonaniem o zrozumieniu mechanizmu, jaki chcemy, by nas kierował do podjęcia ostatecznej decyzji we wnioskowaniu.

Maszyny nie myślą jak ludzie. A po prawdzie, nawet ludzie nie wiedzą, jak myślą ludzie. Nie wiedzą nawet, jak chcieliby, żeby myśleli. Problem w tym, że wielu twierdzi dokładnie odwrotnie. Zagrożenie ze strony wszechogarniającego automatyzmu wynika z tego, że coraz częściej przyjmuje się zupełnie błędne założenie: człowiek wie o swoim myśleniu i celach wszystko, co jest potrzebne, żeby stworzyć maszynę wiedzącą to jeszcze lepiej od człowieka.

A Oscar Wilde jest autorem trzeciego aforyzmu.

 

 

 

Stały współpracownik NK. Członek Pracowni Filozofii Eksperymentalnej przy Instytucie Filozofii UW

Komentarze

Jedna odpowiedź do “Co roboeta miał na myśli”

  1. Stworzenie “pełnoskalowej” sztucznej inteligencji, to znaczy takiej ,które będzie posiadała samoświadomość jest niemożliwe na obecnym etapie rozwoju techniki, człowiek jest po prostu zbyt głupi by stworzyć taka sztuczną inteligencję, zaprasza do artykułu czy roboty i sztuczna inteligencja zabiorą nam pracę:
    https://thinktankpolska.blogspot.com/2017/08/czy-roboty-i-sztuczna-inteligencja.html?view=classic

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

Zobacz