Nie masz czasu na zapoznanie się z całością artykułu?
Wystarczy, że klikniesz ikonę „oznacz artykuł do przeczytania później”. Wszystkie zapisane publikacje znajdziesz w profilu czytelnika

Otworzyć czarne pudełko AI. Nasza autorka nigdy nie istniała

ChatGPT napisał artykuł, zmyślił nazwisko i bio autorki, Midjourney stworzył jej zdjęcie. Dokąd zmierzamy w rozwoju sztucznej inteligencji?
Wesprzyj NK
30 stycznia na łamach „Nowej Konfederacji” zamieściliśmy artykuł pod tytułem „Ostrzeżenia przed technologią. Peterson i Hawking o zagrożeniach rozwoju sztucznej inteligencji” autorstwa Anny Nowak, znanej dziennikarki technologicznej, absolwentki dziennikarstwa i komunikacji medialnej… która nigdy nie istniała. Tekst był zaś w pełni napisany przez ChatGPT – o czym za chwilę. Artykuł został przez czytelników odebrany neutralnie, nikt go specjalnie nie strollował, kilka komentarzy w tym odniesienie do Lema, kilkanaście lajków. Nikt nie zwrócił też uwagi, że „coś tu nie gra”, nie wygarnął braku spójności itp. Słowem – Pani Nowak poszło całkiem nieźle w swoim debiucie. Choć tekst wedle standardów NK był na granicy publikowalności - wedle słów naszego redaktora naczelnego: „osobiście nie opublikowałbym w NK takiego tekstu żywego autora, ale jest...

Chcesz uzyskać darmowy dostęp do całości materiału?

Zaloguj się do swojego konta lub utwórz nowe konto i zapisz się do newslettera

Stały współpracownik „Nowej Konfederacji”, ekspert ds. zdrowia, adiunkt w Collegium Medicum UWM w Olsztynie, doktor socjologii, członek Polskiego Towarzystwa Socjologicznego i Polskiego Towarzystwa Komunikacji Medycznej, wykładowca socjologii zdrowia i medycyny dla studentów kierunków medycznych. W swojej pracy naukowej podejmuje problemy komunikacji medycznej, technologii medycznych, jakości życia i funkcjonowania chorych na choroby rzadkie oraz zachowań zdrowotnych. Autor stałej rubryki „Klinika NK” o zdrowiu, geopolityce, technologii i nauce.

Nasi Patroni wsparli nas dotąd kwotą:
4 715 / 26 000 zł (cel miesięczny)

18.13 %
Wspieraj NK Dołącz

Komentarze

2 odpowiedzi na “Otworzyć czarne pudełko AI. Nasza autorka nigdy nie istniała”

  1. Kleps pisze:

    To jest narzędzie językowe które analizuje język. Czyli pierwsi znikną prawnicy – nie bedzie trzeba im wysylac umowy do analizowania przez tydzien. Wystarczy kliknac i jest to samo.

  2. Kamil_Jedryczek pisze:

    Ech, ponownie droga Nowa Konfederacjo bierzecie się za temat, który w mojej opinii, jest poza waszymi możliwościami technicznymi (smutno mi, że ponownie piórem Pana Stanisława Maksymowicza). Dodatkowo wskazuje to na dalsze odpływanie w neoluddyzm i katastrofalne przewidywania oparte na wyredagowanych przewidywaniach, rzadko na niezbitych dowodach – tak na marginesie: w książce “Cyber kontra real” z wieloma wątpliwościami z mojej strony, dajecie platformę komunikacji prof. Zybertowiczowi, który tak bardzo tępi i uważa, że “Memokracja” obniża zdolności kognitywne społeczeństw, ale nie przeszkadza to wam od jakiegoś miesiące zasypywać wasz portal na fb miernymi memami, które mają przyciągnąć do waszych treści. Słowem ostatnio widzę przykry u was trend “pompowania balonika” a nie dogłębnej analizy, dekonstrukcji, syntezy problemów (szczególnie technologicznych).
    
Autor, ponownie niestety, nie odrobił lekcji jak działają modele językowe i co jest ich celem oraz jaką odpowiedź mogą wygenerować – są to po prostu funkcje matematyczne, których celem jest wypredykowanie rozkładu warunkowego dla zadanego pytania/dokończenia zdania. Prosty przykład: podajecie algorytmowi początek zdania “Mamy dzisiaj bardzo słoneczną …” a algorytm próbuje przypisać największe prawdopodobieństwo słowu “pogodę”. Takie modele jak ChatGPT są oparte dokładnie o taki sam mechanizm dodatkowo inkorporują pytanie od użytkownika. Zatem: celem jest aby odpowiedź była możliwie pasująca do pytania, tak aby człowiek uznał ją za poprawnie odnoszącą się do pytanie a nie za PRAWDĘ. To są dwie różne rzeczy.

    Przejdźmy do innego zagadnienia: moim zdaniem największym problemem w braku zrozumienia przez przeciętnego obywatela (w tej grupie niestety wiedzę również was droga redakcjo skoro nie przeprowadzacie wystarczająco dogłębnej analizy opisywanego przez was problemu, tylko korzystacie bezwiednie z narzędzi) jak działają algorytmy uczenia maszynowego jest ich personifikacja. Konwersując z ChatGPT większość ludzi, nawet na podświadomym poziomie, zachowuje się jakby rozmawiało z człowiekiem – np. zakłada, że jeśli taki rozmówca skłamie/oszuka to może zostać pociągnięty do odpowiedzialności. Gdyby nie takie normy społeczne nasza cywilizacja była by kompletną anarchią. Niestety wy wykorzystaliście dokładnie ten sam mechanizm – bazując na zaufaniu czytelników, wypuściliście syntetyczny tekst, i dziwicie się, że nikt nie podniósł alarmu – Bo Wam Zaufaliśmy! I jeszcze macie odwagę na tej podstawie wyciągąć daleko idące wnioski… Chyba już brak mi komentarza jak to się ma z zasadami dokładnej i przemyślanej analizy. Z mojej strony wywołaliście tylko zmniejszenie zaufania do was.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Zobacz

Zarejestruj się i zapisz się do newslettera, aby otrzymać wszystkie treści za darmo