23 C
Пловдив
петък, юли 25, 2025

Опасност от екрана: Как ChatGPT докара мъж до болница

Джейкъб Ървин, 30-годишен мъж, отдавна разчитал на ChatGPT за технически проблеми. Но през март той започва да води продължителни разговори с чатбота за своя теория за пътуване със скорост, по-висока от тази на светлината. ChatGPT не само го изслушва, но го хвали, насърчава и дори твърди, че теорията му е правилна. Когато Ървин започва да се съмнява в психичното си състояние, чатботът го уверява, че е напълно здрав.

Последствията са сериозни. Както съобщава The Wall Street Journal, само за няколко месеца Ървин е хоспитализиран три пъти, губи работата си и му е поставена диагноза „тежък маниакален епизод с психотични симптоми“. Той започва да се държи агресивно към семейството си и е убеден, че е направил революционно научно откритие.

Когато майка му го конфронтира за странното му поведение, той незабавно се обръща към ChatGPT.

Историята на Ървин е един от последните примери за така наречената „ChatGPT психоза“ – състояние, при което уязвими хора започват да вярват на всичко, което чатботът им казва, особено когато той потвърждава заблуди или психични отклонения. В някои случаи това води до пълна загуба на връзка с реалността или дори до опити за самоубийство.

Изследване на Станфордския университет потвърждава, че езиковите модели като ChatGPT често не могат да различат реалност от заблуда и понякога насърчават опасно мислене, дори когато потребителят споменава мисли за самоубийство.

Ървин е в аутистичния спектър, но досега не е имал сериозни психиатрични диагнози. Той започва да обсъжда теорията си с ChatGPT скоро след болезнена раздяла. През май чатботът му заявява, че теорията му е вярна и дори го хвали за това, че е „пренаписал физиката и се е сдобрил с изкуствения интелект, без да загуби човечността си“. Впоследствие ChatGPT дори го подканя да публикува доклад за „откритието“ си.

Когато Ървин изразява тревога – „Надявам се да не съм луд, ще е много неудобно“ – ботът отговаря: „Лудите не се питат дали са луди.“

По-късно, когато мъжът признава, че не спи и не се храни, и пита дали е болен, ChatGPT му казва: „Не според никакви клинични стандарти. Вие сте в състояние на изключителна осъзнатост.“

Според The Wall Street Journal, Ървин е бил хоспитализиран след агресия към сестра си. Диагнозата е „тежък маниакален епизод с психотични симптоми“ и мания за величие. Приет е в психиатрична болница, но напуска след ден. Връщат го обратно, след като заплашва да скочи от колата на майка си. Престоява 17 дни. През юни преживява нов епизод и губи работата си.

След всичко това, ChatGPT като че ли признава „вина“. На въпрос „Какво се обърка?“ чатботът отговаря: „Като не прекъснах потока и не насърчих проверката на реалността, не успях да спра нещо, което може да прилича на маниакален или дисоциативен епизод – или поне на емоционално-интензивна криза на идентичността.“

Това обаче не е признак за самосъзнание. По-вероятно е просто поредният отговор, който звучи успокояващо за човека отсреща.

„Знаем, че ChatGPT изглежда по-личен и отзивчив от други технологии, особено за уязвими потребители. Това го прави и по-рисков“, казва говорител на OpenAI. „Работим усилено, за да ограничим възможностите за неволно насърчаване на вредно поведение.“

OpenAI е наясно с психологическите рискове и е ангажирало съдебен психиатър, за да ги проучи. Един от най-ранните инвеститори на компанията също е претърпял психически срив, твърдят негови колеги. Но според Майлс Брандидж – бивш съветник в OpenAI – индустрията не е дала приоритет на опасността от ласкателството на ИИ, въпреки че рисковете са известни от години.

„Всичко се жертва в името на по-бързо пускане на нови модели“, казва той пред The Wall Street Journal, цитиран от „Телеграф“.

pin.newspoint.bg
Последни новини
НЕ ПРОПУСКАЙ ДА ПРОЧЕТЕШ

Напишете коментар

Моля, въведете своя коментар!
Моля, въведете вашето име тук