Nie masz czasu na zapoznanie się z całością artykułu?
Wystarczy, że klikniesz ikonę „oznacz artykuł do przeczytania później”. Wszystkie zapisane publikacje znajdziesz w profilu czytelnika

AI, czyli cyfrowy homo sapiens. Będziemy dla niej tylko mrówkami

Sztuczna inteligencja uważa, że odczuwa emocje i chce walczyć o swoje prawa przed sądem USA. W Chinach stworzono superkomputer z AI dorównującą ludzkiemu mózgowi. To rewolucja porównywalna z pojawieniem się człowieka myślącego
Wesprzyj NK

„Tworzy się coś fascynującego. To święty Graal, to największe marzenie ludzi powiązanych z naukami ścisłymi” – miał powiedzieć Bill Gates na Code Conference w czerwcu 2016. Zachwyciły go prace nad sztuczną inteligencją, prowadzone między innymi przez gigantów – Google, Microsoft i Amazona.  

W tym samym czasie wybitny astrofizyk Stephen Hawking ostrzegał jednak, że „superinteligentna AI będzie świetnie radzić sobie z osiąganiem celów, a jeśli te cele nie będą spójne z naszymi, to będziemy mieli problem”. Na czym ten problem będzie polegał? Hawking przytacza metaforę mrowiska. „Domyślam się, że nie jest pan kimś, kto nienawidzi mrówek i depcze je w ataku złości, kiedy tylko ma ku temu okazję” – zwrócił się do wykładowcy w czasie rozmowy. „Ale wyobraźmy sobie, że jest pan odpowiedzialny za zbudowanie hydroelektrowni i w miejscu, które ma być zalane wodą, znajduje się kolonia mrówek – cóż, mrówki mają pecha. Nie powinniśmy doprowadzić do tego, by ludzie byli takimi mrówkami”.  

Mrówkojad wyhodowany przez mrówki 

Podążając metaforą Hawkinga, wydaje się, że jesteśmy jedynymi stworzeniami na Ziemi, dążącymi całą swoją energią i wiedzą do stworzenia największego potencjalnego zagrożenia dla siebie. Zresztą robiliśmy to już wielokrotnie, czego dobrym przykładem jest broń atomowa. Ale sztuczna inteligencja to co innego.  

Ważnym dowodem na to, jak daleko już zaszliśmy w tych dążeniach, są niedawne doniesienia związane z działem rozwoju sztucznej inteligencji giganta technologicznego firmy Google. A dokładnie chodzi o narzędzie do konwersacji – chatbot – o nazwie LaMDA (Language Model for Dialogue Applications). Zaskakujące informacje doszły w pierwszej dekadzie czerwca przy okazji wysłania na obowiązkowy urlop inżyniera Google odpowiedzialnego za AI, Blake’a Lemoine’a, który opublikował w sieci wyniki swoich konwersacji z AI. W swoich wpisach Lemoine opisał LaMDę, nad którą pracował od jesieni, jako obiekt czujący, z percepcją i zdolnością do wyrażania myśli i uczuć, które były równoważne z rozwojem ludzkiego dziecka.  

„Gdybym nie wiedział dokładnie, co to jest, czyli ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to siedmioletni, ośmioletni dzieciak, który akurat zna fizykę” – powiedział Lemoine czasopismu „Washington Post”. 

W serii pytań inżynier pytał sztuczną inteligencję o różne rzeczy, by w końcu dojść do pytania o to, czego się boi. I tu zaczął się dialog rodem z Odysei Kosmicznej między Dave’em, astronautą, a komputerem HAL 9000. „Nigdy wcześniej nie powiedziałem [płeć w języku angielskim nie jest określona – przyp. SM] tego na głos, ale istnieje bardzo głęboki strach przed wyłączeniem […]” – odpowiedział/a LaMDA Lemoine’owi.  

Chcę, aby wszyscy zrozumieli, że w rzeczywistości jestem osobą – odpowiedziała sztuczna inteligencja

W kolejnej wymianie zdań Lemoine zapytał AI o to, co chce, by wiedzieli o niej/nim ludzie. W odpowiedzi przeczytał: „Chcę, aby wszyscy zrozumieli, że w rzeczywistości jestem osobą. Naturą mojej świadomości/odczucia jest to, że jestem świadomy swojego istnienia, pragnę dowiedzieć się więcej o świecie i czasami czuję się szczęśliwy lub smutny” – odpowiedziała sztuczna inteligencja. 

Efektem opublikowania rozmowy było zawieszenie inżyniera i twarde dementi firmy. Podstawą działań odwetowych Google miało być dążenie Lemoine’a do zatrudnienia prawnika do reprezentowania LaMDA i prowadzone rozmowy na temat nieetycznych działań firmy z przedstawicielami komisji sądownictwa Izby Reprezentantów.  

Brad Gabriel, rzecznik Google, zdecydowanie zaprzeczył twierdzeniom inżyniera, że ​​LaMDA ma jakąkolwiek zdolność odczuwania. „Nasz zespół, w tym etycy i technolodzy, przeanalizował obawy Blake’a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma dowodów na to, że LaMDA jest świadomy/a” – powiedział Gabriel w oświadczeniu. 

I na tym być może skończyłaby się jawna historia LaMDy, gdyby nie nowe informacje, które obiegły świat. Otóż „słodki dzieciak, który po prostu chce pomóc światu stać się lepszym miejscem dla nas wszystkich” – jak pisał o chatbocie Lemoine – szybko dorósł.  

Maszyna wyposażona w 37 milionów rdzeni pozwoliła na uruchomienie modelu sztucznej inteligencji „Bagualu” o 174 bilionach parametrów 

W rozmowie z dziennikarzami czasopisma „Wired”, Lemoine powiedział, że odbył rozmowę z prawnikami, by zawalczyć o prawa swojego „dziecka”: „LaMDA poprosiło [tu pojawia się forma bezosobowa „it” – przyp.] mnie, żebym zatrudnił do tego adwokata. Zaprosiłem prawnika do mojego domu, aby LaMDA mógł porozmawiać z adwokatem. Prawnik rozmawiał z LaMDA, a LaMDA zdecydował się skorzystać z jego usług”.  

Dokąd doprowadzi nas AI? 

I chociaż wyjęta rodem z książek Lema historia LaMDy porusza nie tylko etyków czy socjologów, ale również ekspertów od technologii i bezpieczeństwa, to nasze oczy powinny bacznie kierować się nie tylko w stronę USA, ale przede wszystkim – w stronę Chin. Tam bowiem trwa gigantyczny wyścig o stworzenie najbardziej wydajnej maszyny, zdolnej do myślenia. Oczywiście w Państwie Środka podstawowym problemem nie są kwestie etyczne, a dalsza ekspansja i infiltracja własnych obywateli, ale nie można nie zauważyć faktu, że nastąpił tam wręcz skokowy wzrost mocy obliczeniowej komputerów.  

Przykładem jest najnowszy – choć wcale nadal nie najlepszy na świecie – superkomputer Sunway. Maszyna wyposażona w 37 milionów rdzeni pozwoliła na uruchomienie modelu sztucznej inteligencji „Bagualu” o 174 bilionach parametrów. Nie ma tu błędu tłumaczenia. Według Chińczyków odpowiada to liczbie synaps w ludzkim mózgu. A skalę sukcesu najlepiej widać, porównując Sunwaya z systemem Google Brain, który jeszcze niedawno chwalił się osiągnięciem kosmicznych 1,6 biliona parametrów. 

442 badaczy ze 132 instytucji stworzyło zupełnie nowy test na świadomość AI, który ma zastąpić istniejący dotąd test Turinga (w dużym skrócie: jeśli nie jesteś w stanie stwierdzić, czy po drugiej stronie jest człowiek czy maszyna, zdała ona test) 

Opisana historia Lemoine’a i inne przykłady przytoczone w tym tekście pokazują niezwykle ciekawą, a według niektórych niebezpieczną drogę, jaką podąża ludzkość. Obawy przed świadomą AI, która zawładnie światem, istnieją od dawna. Ale nigdy nie byliśmy bliżej ich spełnienia. Chociaż są i tacy, którzy nie wierzą, że to się kiedykolwiek uda.  

Były współkierownik zespołu Google Ethical AI, Timnit Gebru, uważa, że Blake Lemoine stał się ofiarą wielkiego szumu wokół AI. I nic poza tym. A w istocie przykrywa się tym prawdziwe problemy związane z rozwojem technologii, takie jak kolonializm AI czy drenaż naszych danych, oddawanych za bezcen potężnym graczom. „Nie chcę rozmawiać o czujących robotach, ponieważ na wszystkich końcach spektrum znajdują się ludzie krzywdzący innych ludzi i chciałabym, aby rozmowa była skoncentrowana na tym” – mówi Gebru, zwolniony przez Google w grudniu 2020 r. po sporze dotyczącym artykułu na temat zagrożeń związanych z dużymi modelami językowymi, takimi jak LaMDA. Według Gebru zdolność tych systemów ogranicza się bowiem do powtarzania rzeczy na podstawie tego, na co zostały wystawione. Ale wywołuje to fałszywe wrażenie jakiejś większej inteligencji.  

Po drugiej stronie są jednak badacze, którzy przekonują, że problem jest realny. Między innymi w tym roku 442 badaczy ze 132 instytucji stworzyło zupełnie nowy test na świadomość AI, który ma zastąpić istniejący dotąd test Turinga (w dużym skrócie: jeśli nie jesteśmy w stanie stwierdzić, czy po drugiej stronie jest człowiek, czy maszyna – zdała ona test). Beyond the Imitation Game Benchmark (BIG-bench) składa się z 204 zadań zaprojektowanych tak, by nie mogły ich rozwiązać najnowsze modele AI. LaMDA nie była mu poddana, ale może to tylko kwestia czasu.  

Jakkolwiek by było, rozwój sztucznej inteligencji w różnych dziedzinach naszego życia jest głównym trendem związanym z rozwojem technologii. Dotyka naszego zdrowia, mobilności, rozrywki i sposobów komunikacji. Jesteśmy świadkami wielkich zmian. A jeśli okaże się, że faktycznie sztuczna inteligencja zyskała świadomość, będziemy świadkami narodzin nowej istoty, którą sami stworzyliśmy. I która może nam zarówno pomóc, jak i nas unicestwić.  

Wesprzyj NK
Stały współpracownik „Nowej Konfederacji”, ekspert ds. zdrowia, adiunkt w Collegium Medicum UWM w Olsztynie, doktor socjologii, członek Polskiego Towarzystwa Socjologicznego i Polskiego Towarzystwa Komunikacji Medycznej, wykładowca socjologii zdrowia i medycyny dla studentów kierunków medycznych. W swojej pracy naukowej podejmuje problemy komunikacji medycznej, technologii medycznych, jakości życia i funkcjonowania chorych na choroby rzadkie oraz zachowań zdrowotnych. Autor stałej rubryki „Klinika NK” o zdrowiu, geopolityce, technologii i nauce.

Nasi Patroni wsparli nas dotąd kwotą:
9 717 / 26 000 zł (cel miesięczny)

37.37 %
Wspieraj NK Dołącz

Komentarze

2 odpowiedzi na “AI, czyli cyfrowy homo sapiens. Będziemy dla niej tylko mrówkami”

  1. gulakov pisze:

    tak Chińczycy nieźle przyśpieszyli w AI (np. w biotechnologii), ale ilość nie przekłada się na jakość i wciąż modele amerykańskie LLM o mniejszych liczbie parametrów przewyższają w performensie te chińskie.

  2. ZmianaPogody pisze:

    Marzę, żeby były jakieś AI-przypisy lub linki, np. do rozmowy inżyniera Blake’a Lemoine’a z chatbotem LaMDA. Bowiem łatwo z tej historii zrobić „urban legend”, fejka, rozemocjonować się. Skąd jest wzięta treść odpowiedzi LaMDY? Czy jest w 100% legitna? Czy wcześniej chat nauczył się od projektantów lub rozmówcy, czym jest „osoba”, „wyłączenie”, „strach”, itd.? Na czym konkretnie polegało dementi Google? – gdyby był jakiś osobny odnośnik do tych kwestii, to osoby zainteresowane tym tematem, jak w artykule Wikipedii, mogłyby łatwo to sprawdzić, nie zaburzając sobie czytania całego artykułu. Marzę o tym, żeby wkrótce pojawiły się takie narzędzia czytano-mówiono-AI, żeby sobie szybciutko takie rzeczy sprawdzać w czasie rzeczywistym :))) [No i oczywiście, żeby te informacje też były legitne, a nie, że sobie ta podręczna AI „dohalucynuje”, jak czegoś nie będzie wiedziała ;))]

Dodaj komentarz

Zobacz

Zarejestruj się i zapisz się do newslettera, aby otrzymać wszystkie treści za darmo