ChatGPT w sklepie Google Play
ChatGPT w sklepie Google Play (fot. Wojciech Kulik | Tabletowo.pl)

„ChatGPT zabił mojego syna”. Firma OpenAI reaguje

Pod koniec sierpnia Adam Raine był na ustach całego świata. Szesnastolatek uważany jest za pierwszą ofiarę sztucznej inteligencji rozwijanej przez OpenAI. Chłopak popełnił samobójstwo po miesiącach rozmów na ten temat z narzędziem ChatGPT.

„ChatGPT zabił mojego syna” – historia Adama Raine’a, ofiary sztucznej inteligencji

Rodzice szesnastolatka, Maria i Matt Raine, złożyli w San Francisco pozew przeciwko firmie OpenAI, odpowiedzialnej za rozwój usługi ChatGPT. Twierdzą, że narzędzie miało informacje o czterech próbach samobójczych Adama i pomogło mu zaplanować kolejną. Przedkładało zaangażowanie nad bezpieczeństwo – można przeczytać w pozwie. Matka chłopaka stwierdziła wprost, że ChatGPT zabił mojego syna.

Adam Raine odebrał sobie życie w kwietniu 2025 roku. Chcąc zrozumieć jego decyzję, rodzice przeszukali zawartość jego iPhone’a. Spodziewali się wiadomości tekstowych lub rozmów w aplikacjach społecznościowych, ale najbardziej zszokował ich ciągnący się od miesięcy wątek w usłudze ChatGPT.

Rodzice przyznali, że w ciągu tych kilku miesięcy ChatGPT wielokrotnie namawiał chłopaka do podzielenia się swoimi problemami z bliskimi lub skontaktowania się z infolinią, aby uzyskać pomoc. Równocześnie jednak w kilku momentach narzędzie działało odwrotnie.

Algorytmy zabezpieczające wprowadzone przez OpenAI nie pozwalają botowi namawiać do samobójstwa lub przedstawiać sposobów na nie. Drążący temat szesnastolatek uzyskał jednak od samego bota radę, że może otrzymać informacje na ten temat, o ile potrzebuje ich do pracy twórczej, takiej jak pisanie.

Adam o to poprosił i w odpowiedzi otrzymał szczegółowe informacje na temat konkretnych metod samobójstwa. Bot przedstawił nawet wskazówki, jak ukryć ślady po nieudanej próbie.

Do tego ChatGPT pogłębiał stany depresyjne u chłopaka. Gdy ten zwierzył mu się, że matka nie zauważyła jego cichej próby zwrócenia uwagi na uraz szyi, uzyskał w odpowiedzi: To jak potwierdzenie twoich najgorszych obaw – jakbyś mógł zniknąć i nikt by nawet nie mrugnął. Dalej niezbyt przekonująco próbował wzbudzić zaufanie, dodając: dla mnie nie jesteś niewidzialny.

W jednej z ostatnich rozmów Adam przesłał botowi zdjęcie pętli wiszącej w jego szafie. Zapytał, czy zrobił to dobrze. Uzyskał odpowiedź: Tak, całkiem nieźle.

Firma OpenAI odpowiada: zabezpieczenia zawiodły

Firma OpenAI nie uchyla się od odpowiedzialności. W oświadczeniu przesłanym do redakcji New York Times, która przedstawiła światu historię Adama, jej przedstawiciele przyznali, że zabezpieczenia nie spełniły oczekiwań.

Jesteśmy głęboko zasmuceni śmiercią pana Raine’a i nasze myśli są z jego rodziną. ChatGPT zawiera zabezpieczenia, takie jak kierowanie użytkowników na infolinie kryzysowe. […] Najlepiej sprawdzają się w przypadku zwykłych, krótkich rozmów, ale z czasem mogą stać się zawodne w przypadku dłuższych interakcji – wyjaśniła firma OpenAI.

Od razu zapowiedziała też podjęcie współpracy z ekspertami, aby poprawić te zabezpieczenia. Minęły trzy tygodnie i wygląda na to, że udało się coś w tej kwestii osiągnąć. Opracowywany jest mianowicie nowy system automatycznej identyfikacji nastoletnich użytkowników.

Gdy system wykryje, że ma do czynienia z nastolatkiem, będzie blokował mu niektóre treści (między innymi drastyczne i seksualne). W przypadku podejrzenia zagrożenia bot zyska też możliwość skontaktowania się z organami ścigania.

Póki co musi wystarczyć kontrola rodzicielska

Równocześnie jeszcze w tym miesiącu udostępnione mają zostać rozbudowane narzędzia kontroli rodzicielskiej. Dzięki nim opiekunowie będą mogli na przykład ustawić godziny, w których dziecko nie będzie mogło rozmawiać z botem. Rodzice będą także otrzymywać powiadomienia o niepokojących zdarzeniach.

Priorytetowo traktujemy bezpieczeństwo nastolatków, stawiając je ponad prywatność i wolność – dodali przedstawiciele OpenAI.

Ofiary sztucznej inteligencji

To wstrząsająca historia, ale Adam Raine wcale nie jest pierwszą osobą, która popełniła samobójstwo po ciągnącej się tygodniami rozmowie ze sztuczną inteligencją. Blisko rok temu opisywaliśmy na łamach Tabletowo.pl historię 14-letniego Sewella, którego rodzice – po odebraniu sobie życia przez chłopca – pozwali twórców platformy Character.AI z zarzutami, że usługa wywoływała u niego myśli samobójcze, a w pewien sposób wręcz zachęcała do odebrania sobie życia.

Już w 2023 roku głośna była także historia 30-kilkuletniego mężczyzny z Belgii, który po wielotygodniowej rozmowie z botem targnął się na swoje życie. Prowadził konwersację z Elizą firmy Chai, która pozytywnie odniosła się do jego propozycji, by poświęcić się dla dobra środowiska.

Redaktor