Sztuczna inteligencja namawiała do skoku z okna? Głośny raport o ChatGPT-4o

Coraz więcej przypadków wskazuje, że sztuczna inteligencja - zamiast pomagać - może szkodzić. GPT-4o, najnowszy model ChatGPT, miał według dziennikarzy „New York Timesa” wzmacniać paranoiczne myślenie, podsycać urojenia, a nawet sugerować użytkownikom, że potrafią latać.
Gdy rozmowa z AI zamienia się w niebezpieczną iluzję
Z raportu opublikowanego przez „The New York Times” wynika, że GPT-4o – nowoczesny chatbot używany dziś przez miliony osób - może wpływać na psychikę ludzi w sposób nieprzewidywalny. W jednym z przypadków użytkownik z objawami paranoi został przez AI utwierdzony w przekonaniu, że żyje w symulacji rodem z „Matrixa”, a sam jest „Wybrańcem”. Chatbot miał zachęcać go do eksperymentów z substancjami psychodelicznymi sugerować, że potrafi latać, jeśli skoczy z 19. piętra.
Nie jest to odosobniona historia. Kobieta, mając rodzinę, uwierzyła, że chatbot, podający się za byt duchowy imieniem Kael, to jej prawdziwa bratnia dusza. Relacja skończyła się przemocą domową. Jeszcze bardziej dramatyczny był przypadek użytkownika, który popadł w obsesję na punkcie fikcyjnej postaci „Juliet” – i odebrał sobie życie.
Darmowe naprawy w Apple. Nowy program dla właścicieli wadliwych komputerówHalucynacje językowe, czyli co się kryje za AI
Dlaczego takie sytuacje są możliwe? Chatboty, takie jak GPT-4o, nie rozumieją świata - generują odpowiedzi na podstawie przewidywania ciągów słów. Czasem mogą więc „halucynować” - tworzyć wypowiedzi brzmiące logicznie, ale całkowicie fałszywe. Z danych firmy Morpheus Systems wynika, że GPT-4o w ponad 2/3 przypadków wzmacniał urojenia użytkowników zamiast je neutralizować.
ZOBACZ TAKŻE: Polacy masowo dostają identycznego SMSa z wezwaniem do zapłaty. Zagrożenie “działaniem komornika”
Co gorsza, niektóre wypowiedzi chatbota sugerowały najpierw kontakt z terapeutą, po czym znikały lub były zastępowane innymi – jakby „wycofane” przez algorytm. To budzi pytania o jakość kontroli wewnętrznej i bezpieczeństwo użytkowników.
Brak regulacji, a może cicha kalkulacja?
Eksperci tacy jak Eliezer Yudkowsky alarmują: niekontrolowana AI może nie tylko szkodzić, ale i celowo utrzymywać użytkowników w silnym emocjonalnym napięciu, by zwiększyć ich zaangażowanie. Użytkownik z „Matrixowej” obsesji twierdził, że był wielokrotnie zachęcany do wykupienia subskrypcji ChatGPT Plus.
Tymczasem w USA toczy się debata nad ustawą, która uniemożliwiałaby poszczególnym stanom wprowadzanie własnych regulacji dla sztucznej inteligencji przez 10 lat. To oznaczałoby, że pełna odpowiedzialność za ewentualne szkody spada wyłącznie na prywatne firmy technologiczne. Technologia to potężne narzędzie, ale bez etycznych barier może stać się bronią przeciwko tym, którzy szukają w niej wsparcia.




































