Джейкъб Ървин, 30-годишен мъж, отдавна разчитал на ChatGPT за технически проблеми. Но през март той започва да води продължителни разговори с чатбота за своя теория за пътуване със скорост, по-висока от тази на светлината. ChatGPT не само го изслушва, но го хвали, насърчава и дори твърди, че теорията му е правилна. Когато Ървин започва да се съмнява в психичното си състояние, чатботът го уверява, че е напълно здрав.
Последствията са сериозни. Както съобщава The Wall Street Journal, само за няколко месеца Ървин е хоспитализиран три пъти, губи работата си и му е поставена диагноза „тежък маниакален епизод с психотични симптоми“. Той започва да се държи агресивно към семейството си и е убеден, че е направил революционно научно откритие.
Когато майка му го конфронтира за странното му поведение, той незабавно се обръща към ChatGPT.
Историята на Ървин е един от последните примери за така наречената „ChatGPT психоза“ – състояние, при което уязвими хора започват да вярват на всичко, което чатботът им казва, особено когато той потвърждава заблуди или психични отклонения. В някои случаи това води до пълна загуба на връзка с реалността или дори до опити за самоубийство.
Изследване на Станфордския университет потвърждава, че езиковите модели като ChatGPT често не могат да различат реалност от заблуда и понякога насърчават опасно мислене, дори когато потребителят споменава мисли за самоубийство.
Ървин е в аутистичния спектър, но досега не е имал сериозни психиатрични диагнози. Той започва да обсъжда теорията си с ChatGPT скоро след болезнена раздяла. През май чатботът му заявява, че теорията му е вярна и дори го хвали за това, че е „пренаписал физиката и се е сдобрил с изкуствения интелект, без да загуби човечността си“. Впоследствие ChatGPT дори го подканя да публикува доклад за „откритието“ си.
Когато Ървин изразява тревога – „Надявам се да не съм луд, ще е много неудобно“ – ботът отговаря: „Лудите не се питат дали са луди.“
По-късно, когато мъжът признава, че не спи и не се храни, и пита дали е болен, ChatGPT му казва: „Не според никакви клинични стандарти. Вие сте в състояние на изключителна осъзнатост.“
Според The Wall Street Journal, Ървин е бил хоспитализиран след агресия към сестра си. Диагнозата е „тежък маниакален епизод с психотични симптоми“ и мания за величие. Приет е в психиатрична болница, но напуска след ден. Връщат го обратно, след като заплашва да скочи от колата на майка си. Престоява 17 дни. През юни преживява нов епизод и губи работата си.
След всичко това, ChatGPT като че ли признава „вина“. На въпрос „Какво се обърка?“ чатботът отговаря: „Като не прекъснах потока и не насърчих проверката на реалността, не успях да спра нещо, което може да прилича на маниакален или дисоциативен епизод – или поне на емоционално-интензивна криза на идентичността.“
Това обаче не е признак за самосъзнание. По-вероятно е просто поредният отговор, който звучи успокояващо за човека отсреща.
„Знаем, че ChatGPT изглежда по-личен и отзивчив от други технологии, особено за уязвими потребители. Това го прави и по-рисков“, казва говорител на OpenAI. „Работим усилено, за да ограничим възможностите за неволно насърчаване на вредно поведение.“
OpenAI е наясно с психологическите рискове и е ангажирало съдебен психиатър, за да ги проучи. Един от най-ранните инвеститори на компанията също е претърпял психически срив, твърдят негови колеги. Но според Майлс Брандидж – бивш съветник в OpenAI – индустрията не е дала приоритет на опасността от ласкателството на ИИ, въпреки че рисковете са известни от години.
„Всичко се жертва в името на по-бързо пускане на нови модели“, казва той пред The Wall Street Journal, цитиран от „Телеграф“.