Nie masz czasu na zapoznanie się z całością artykułu?
Wystarczy, że klikniesz ikonę „oznacz artykuł do przeczytania później”. Wszystkie zapisane publikacje znajdziesz w profilu czytelnika

Otworzyć czarne pudełko AI. Nasza autorka nigdy nie istniała

ChatGPT napisał artykuł, zmyślił nazwisko i bio autorki, Midjourney stworzył jej zdjęcie. Dokąd zmierzamy w rozwoju sztucznej inteligencji?
Wesprzyj NK

30 stycznia na łamach „Nowej Konfederacji” zamieściliśmy artykuł pod tytułem „Ostrzeżenia przed technologią. Peterson i Hawking o zagrożeniach rozwoju sztucznej inteligencji” autorstwa Anny Nowak, znanej dziennikarki technologicznej, absolwentki dziennikarstwa i komunikacji medialnej… która nigdy nie istniała. Tekst był zaś w pełni napisany przez ChatGPT – o czym za chwilę. Artykuł został przez czytelników odebrany neutralnie, nikt go specjalnie nie strollował, kilka komentarzy w tym odniesienie do Lema, kilkanaście lajków. Nikt nie zwrócił też uwagi, że „coś tu nie gra”, nie wygarnął braku spójności itp. Słowem – Pani Nowak poszło całkiem nieźle w swoim debiucie. Choć tekst wedle standardów NK był na granicy publikowalności – wedle słów naszego
redaktora naczelnego: „osobiście nie opublikowałbym w NK takiego tekstu żywego autora, ale jest to tekst, który spokojnie mógłby pójść w wielu tytułach, lepszy niż wiele tekstów poczatkujących autorów”.

Jaki był cel tego eksperymentu? Po pierwsze chcieliśmy sprawdzić, czy AI jest w stanie w pełni, od początku do końca napisać wartościowy artykuł, nie będący plagiatem i wyczerpujący zadany temat. To się w większości udało. Ale głównym celem było ukazanie czytelnikowi jak bardzo już dziś jesteśmy zanurzeni w świecie algorytmów i jak łatwo możemy im ulec. Jest to niewątpliwie duży przełom. Ale on też wymaga komentarza.

Biorąc pod uwagę, że tekst nie był poddany edycji, algorytm sam wymyślił tytuł i lead, oraz oczywiście treść wpisu opatrzoną cytatami, a nawet dane i bio autorki, i zajęło mu to kilkanaście sekund – to cała sytuacja daje nam wiele do myślenia

Celem pani Nowak było zmierzenie się z problemem rozwoju technologii, w szczególności sztucznej inteligencji, oczami dwóch słynnych myślicieli – psychologa Jordana Petersona i astrofizyka Stephena Hawkinga, znanych ze swojego ostrożnego, a może raczej alarmistycznego stosunku do AI. Eksperyment przebiegł dość prosto: poprosiliśmy ChatGPT o napisanie artykułu popularnonaukowego z cytatami o zagrożeniach w rozwoju sztucznej inteligencji z prac dwóch myślicieli. Nie było założeń ramowych. Jedynie takie, że „autorka” ma też zaproponować tytuł (w efekcie dopytywania uzyskaliśmy kilka propozycji) i lead. Podobnie było z danymi i bio autorki.

Jak „jej” wyszło? Tak, zdajemy sobie sprawę, że nie były to może najwyższe loty. Ale biorąc pod uwagę, że tekst nie był poddany edycji, algorytm sam wymyślił tytuł i lead, oraz oczywiście treść wpisu opatrzoną cytatami, a nawet dane i bio autorki, i zajęło mu to kilkanaście sekund – to cała sytuacja daje nam wiele do myślenia. W międzyczasie drugi algorytm stworzył jeszcze zdjęcie autorki i gotowe.

Czy to oznacza ostateczny upadek ludzkiej pracy intelektualnej?

Perpetuum mobile nie istnieje

Należy sobie odpowiedzieć na następujące pytania: jak technicznie przebiega praca sztucznej inteligencji? Czy jej sposób działania różni się w jakiś sposób od normalnej analizy, jaką przeprowadziłby dziennikarz? Skąd „pani Nowak” czerpała swoją wiedzę?

Zacznijmy od metodologii pracy. Nie wiemy, skąd ChatGPT czerpał swoje informacje, jak je zestawiał, czy je tłumaczył sam, czy korzystał z polskich źródeł itp. Zapytany o to, zasłania się ogromnymi zbiorami danych, z których korzysta. Nie ma więc pewności, że czegoś nie zmyślił. Wszak ludzie też kłamią. Ujawnia to „blackboxowy” charakter działania ChatuGPT i podstawowy, wyjątkowo irytujący problem działania sztucznej inteligencji – często nie wiemy, jak przebiega jej praca i nie potrafimy tego skontrolować. Zostało to już wcześniej zidentyfikowane jako problem zaufania przy użyciu AI w medycynie – jeśli diagności i pacjenci mają zaufać sztucznointeligentnej diagnostyce, trzeba „otworzyć czarne pudełko”. Oznacza to, że algorytmy muszą być przejrzyste i możliwe do prześledzenia.

Nie wiemy, skąd ChatGPT czerpał swoje informacje, jak je zestawiał, czy je tłumaczył sam, czy korzystał z polskich źródeł itp. Zapytany o to, zasłania się ogromnymi zbiorami danych, z których korzysta. Nie ma więc pewności, że czegoś nie zmyślił

Gdybym znał panią Nowak osobiście – oczywiście gdyby istniała – poprosiłbym ją o podanie źródeł i miałbym pewność, że cytaty są faktycznie wzięte z wypowiedzi Petersona i Hawkinga. Tu takiej pewności nie mam. Czy mogę więc polegać na jej wiedzy?

Załóżmy jednak, że AI generalnie nie zmyśla. To implikuje stwierdzenie, że jej wiedza jest wtórna. Bo jeśli faktycznie ChatGPT czerpie wiedzę z tego, co wytworzyłczłowiek (opiera się na źródłach), to niewiele różni się od zwykłego dziennikarza czy studenta piszącego esej: ot bierze informacje znalezione w sieci i zestawia je w ciągi tworzące pewną całość. Naśladuje więc naszą pracę.

Tu też dochodzimy do trzeciego – być może bardziej krzepiącego problemu: perpetuum mobile nie istnieje. Sztuczna inteligencja, będąc w istocie efektem kumulacji wiedzy, czerpie informacje z tego, co już stworzyli ludzie.

Znakomicie problem ten pokazały skrypty służące do generowania grafiki cyfrowej – okazało się, że wiele z nich to zwyczajne plagiaty, nawet można było znaleźć na „stworzonych” zdjęciach zamazane podpisy oryginalnych twórców. Niedawno pojawiły się informacje, że firma Google stworzyła algorytm MusicLM, który tworzy własną muzykę na podstawie zapytań. Dostęp do narzędzia nie został jednak upubliczniony, bo okazuje się, że jest etyczny problem: około 1 procenta „stworzonej” przez algorytm muzyki to plagiat. Ba! Nawet ChatGPT nie jest idealny i istnieją narzędzia (na razie obarczone sporym błędem) do analizy tekstu pod kątem wytworzenia przez algorytm.

Nie składamy broni

Co to oznacza? Sztuczna inteligencja potrzebuje człowieka, potrzebuje wiedzy, którą może analizować i przekształcać. Tak jak nauka potrzebuje odkryć innych ludzi, na podstawie których może się rozwijać. Na razie sztuczna inteligencja nie doszła bowiem jeszcze do momentu, w którym coś faktycznie tworzy. Ona przetwarza. Jest geniuszem-sawantem w zapamiętywaniu i zestawianiu, brakuje jej jednak geniuszu twórcy, o czym pisał niedawno Jarema Piekutowski.

Okazuje się, że jest etyczny problem: około 1 procenta „stworzonej” przez algorytm muzyki to plagiat

Ale… Filozoficznie można by zapytać: czy to, co my tworzymy nie jest po prostu efektem doświadczeń innych ludzi? Sprzężeniem zwrotnym historii i nauki? Czy wynalazek samolotu nie był po prostu efektem obserwacji ptaków? Czy nowa molekuła wynaleziona w jakimś laboratorium, to nie efekt lat studiów różnych osób, które przetwarzając informacje i eksperymentując, dochodzą do kolektywnego odkrycia?

Skoro już filozofujemy, to odbijmy i tę piłeczkę. Bo czy na końcu to nie człowiek stworzył algorytmy AI i czy to nie człowiek korzysta z nich, by zaspokajać swoje potrzeby? Dyskutowaliśmy niedawno w gronie „Nowej Konfederacji”, czy sztuczna inteligencja będzie przełomem w analizach strategicznych i geopolitycznych. Odpowiedź nie była jednoznaczna. Bo z jednej strony niezwykłe możliwości analityczne komputerów w zakresie tzw. big data, czyli analizowanie ogromnych zbiorów danych, niemożliwych do objęcia umysłem nawet pokaźnego zespołu ekspertów, już od kilku lat są wsparciem w podejmowaniu decyzji o charakterze strategicznym, biznesowym i związanym z bezpieczeństwem. Z drugiej jednak strony już pomijając nawet fakt, że to człowiek na końcu podejmuje decyzję, analizy strategiczne to nie tylko zestawianie danych. To także błyskotliwe pomysły związane z rozwiązywaniem problemów, naświetlanie tego, co może wydawać się istotne. To też wreszcie komunikacja między ludźmi, której sztuczna inteligencja nie zastąpi.

Analizy strategiczne to nie tylko zestawianie danych. To także błyskotliwe pomysły związane z rozwiązywaniem problemów, naświetlanie tego, co może wydawać się istotne. To też wreszcie komunikacja między ludźmi, której sztuczna inteligencja nie zastąpi

Nie mam oczywiście wątpliwości, że stoimy dziś u progu epokowych przemian. Podobnie jak kiedyś Tesla, Skłodowska-Curie, Marconi, bracia Wright i Edison, tak my dziś jesteśmy świadkami rewolucji technologicznej. A jak wiadomo z historii, rewolucja zawsze wiąże się ze zniszczeniem poprzedniego porządku i powołania nowego. Jaki będzie nowy świat, tego nie wiemy. Ale raczej nie zabraknie w nim miejsca dla ludzkiego umysłu.

Zapytałem o to ChatGPT:

SM: Jaki będzie świat po rewolucji związanej z rozwojem sztucznej inteligencji?

ChatGPT: Trudno jest przewidzieć dokładnie, jak świat będzie wyglądać po rewolucji związanej z rozwojem sztucznej inteligencji. Może ona przynieść zarówno pozytywne, jak i negatywne skutki, w tym zmiany w sposobie wykonywania wielu zawodów i usprawnienie wielu procesów, ale także zwiększenie nierówności społecznych i wystąpienie nowych zagrożeń bezpieczeństwa. Kluczowe jest, aby proces rozwoju sztucznej inteligencji był odpowiedzialny i uwzględniał zarówno potrzeby ludzi, jak i dobro wspólne.

SM: Skąd to wiesz? Podaj źródła.

ChatGPT: Jako model language model AI OpenAI, nie posiadam własnego doświadczenia ani opinii, ale zostałem wytrenowany na dużych zbiorach tekstów, które obejmują informacje na temat potencjalnych skutków rozwoju sztucznej inteligencji. Te informacje pochodzą z różnych źródeł, w tym artykułów naukowych, raportów i analiz opublikowanych przez ekspertów i think-tanki, a także debat i dyskusji na ten temat. Aby uzyskać bardziej szczegółowe informacje, zalecam wyszukiwanie w wiarygodnych źródłach, takich jak publikacje naukowe i wypowiedzi ekspertów w dziedzinie sztucznej inteligencji.

[Artykuł wygenerowany przez ChatGPT można znaleźć TUTAJ]

 

Wesprzyj NK
Stały współpracownik „Nowej Konfederacji”, ekspert ds. zdrowia, adiunkt w Collegium Medicum UWM w Olsztynie, doktor socjologii, członek Polskiego Towarzystwa Socjologicznego i Polskiego Towarzystwa Komunikacji Medycznej, wykładowca socjologii zdrowia i medycyny dla studentów kierunków medycznych. W swojej pracy naukowej podejmuje problemy komunikacji medycznej, technologii medycznych, jakości życia i funkcjonowania chorych na choroby rzadkie oraz zachowań zdrowotnych. Autor stałej rubryki „Klinika NK” o zdrowiu, geopolityce, technologii i nauce.

Nasi Patroni wsparli nas dotąd kwotą:
9 791 / 29 500 zł (cel miesięczny)

33.19 %
Wspieraj NK Dołącz

Komentarze

2 odpowiedzi na “Otworzyć czarne pudełko AI. Nasza autorka nigdy nie istniała”

  1. Kleps pisze:

    To jest narzędzie językowe które analizuje język. Czyli pierwsi znikną prawnicy – nie bedzie trzeba im wysylac umowy do analizowania przez tydzien. Wystarczy kliknac i jest to samo.

  2. Kamil_Jedryczek pisze:

    Ech, ponownie droga Nowa Konfederacjo bierzecie się za temat, który w mojej opinii, jest poza waszymi możliwościami technicznymi (smutno mi, że ponownie piórem Pana Stanisława Maksymowicza). Dodatkowo wskazuje to na dalsze odpływanie w neoluddyzm i katastrofalne przewidywania oparte na wyredagowanych przewidywaniach, rzadko na niezbitych dowodach – tak na marginesie: w książce “Cyber kontra real” z wieloma wątpliwościami z mojej strony, dajecie platformę komunikacji prof. Zybertowiczowi, który tak bardzo tępi i uważa, że “Memokracja” obniża zdolności kognitywne społeczeństw, ale nie przeszkadza to wam od jakiegoś miesiące zasypywać wasz portal na fb miernymi memami, które mają przyciągnąć do waszych treści. Słowem ostatnio widzę przykry u was trend “pompowania balonika” a nie dogłębnej analizy, dekonstrukcji, syntezy problemów (szczególnie technologicznych).
    
Autor, ponownie niestety, nie odrobił lekcji jak działają modele językowe i co jest ich celem oraz jaką odpowiedź mogą wygenerować – są to po prostu funkcje matematyczne, których celem jest wypredykowanie rozkładu warunkowego dla zadanego pytania/dokończenia zdania. Prosty przykład: podajecie algorytmowi początek zdania “Mamy dzisiaj bardzo słoneczną …” a algorytm próbuje przypisać największe prawdopodobieństwo słowu “pogodę”. Takie modele jak ChatGPT są oparte dokładnie o taki sam mechanizm dodatkowo inkorporują pytanie od użytkownika. Zatem: celem jest aby odpowiedź była możliwie pasująca do pytania, tak aby człowiek uznał ją za poprawnie odnoszącą się do pytanie a nie za PRAWDĘ. To są dwie różne rzeczy.

    Przejdźmy do innego zagadnienia: moim zdaniem największym problemem w braku zrozumienia przez przeciętnego obywatela (w tej grupie niestety wiedzę również was droga redakcjo skoro nie przeprowadzacie wystarczająco dogłębnej analizy opisywanego przez was problemu, tylko korzystacie bezwiednie z narzędzi) jak działają algorytmy uczenia maszynowego jest ich personifikacja. Konwersując z ChatGPT większość ludzi, nawet na podświadomym poziomie, zachowuje się jakby rozmawiało z człowiekiem – np. zakłada, że jeśli taki rozmówca skłamie/oszuka to może zostać pociągnięty do odpowiedzialności. Gdyby nie takie normy społeczne nasza cywilizacja była by kompletną anarchią. Niestety wy wykorzystaliście dokładnie ten sam mechanizm – bazując na zaufaniu czytelników, wypuściliście syntetyczny tekst, i dziwicie się, że nikt nie podniósł alarmu – Bo Wam Zaufaliśmy! I jeszcze macie odwagę na tej podstawie wyciągąć daleko idące wnioski… Chyba już brak mi komentarza jak to się ma z zasadami dokładnej i przemyślanej analizy. Z mojej strony wywołaliście tylko zmniejszenie zaufania do was.

Dodaj komentarz

Zobacz

Zarejestruj się i zapisz się do newslettera, aby otrzymać wszystkie treści za darmo