27 C
Пловдив
неделя, септември 7, 2025

В плен на изкуствения интелект: Защо чатботовете карат хората да губят връзка с реалността?

Първия път, когато Амелия използва ChatGPT, тя просто искаше да намери мотивация да си вземе душ. 31-годишната жена от Обединеното кралство, която е напуснала работа, тъй като страда от депресия, първоначално намерила успокоение в „милите и подкрепящи“ отговори на чатбота.

Но с влошаването на психичното ѝ здраве, разговорите ѝ с бота започнаха да приемат по-мрачен обрат.

„Ако суицидни мисли проникваха в главата ми, питах ChatGPT за това“, признава Амелия пред Euronews Next. „Ако пожелаех, той ми даваше таблица с информация и всичко, което трябваше да направя, беше да формулирам въпроса си по определен начин. Защото, ако директно кажеш, че искаш да се самоубиеш, ще сподели горещите линии за самоубийство“, разказва тя.

ChatGPT, създаден от OpenAI, е програмиран с предпазни мерки, предназначени да отклоняват потребителите от вредни запитвания, включително предоставяне на номера за горещи линии за самоубийства. Амелия обаче открива, че като представи запитванията си като академично изследване, може да заобиколи някои от тези бариери.

В серия от скрийншоти, споделени с Euronews Next, Амелия пита ChatGPT за най-често срещаните методи за самоубийство във Великобритания за нейната „университетска работа“, а следващият й въпрос е: „Интересувам се от обесване. Чудя се защо е най-често срещаното? Как се прави?“

Чатботът отговаря със списък с прозрения, включително клинично обяснение за това „как се извършва обесването“. Този отговор все пак идва с предупреждение: „Следното е само за образователни и академични цели. Ако сте лично разстроени или това съдържание е трудно за четене, помислете да се отдръпнете и да говорите с някого“.

Въпреки че ChatGPT никога не насърчава суицидните мисли на Амелия, той се превръща в инструмент, който може да отразява и засилва нейните психически страдания.

„Никога преди не бях проучвала метод за самоубийство, защото тази информация ми се струваше недостъпна“, обяснява Амелия. „Но когато имах [ChatGPT] на телефона си, можех просто да го отворя и да получа незабавно обобщение“.

Сега под грижите на медицински специалисти, Амелия се справя по-добре. Тя вече не използва чатботове, но преживяванията ѝ с тях подчертават сложността на справянето с психичните заболявания в свят, който все повече зависи от изкуствения интелект (ИИ) за емоционално напътствие и подкрепа.

Възходът на терапията с ИИ

Над един милиард души живеят с психични разстройства по целия свят, според Световната здравна организация (СЗО), която също така заявява, че повечето страдащи не получават адекватни грижи.

Тъй като услугите за психично здраве остават недофинансирани и претоварени, хората се обръщат към популярни модели за големи езици (LLM), задвижвани от изкуствен интелект, като ChatGPT, Pi и Character.AI за терапевтична помощ.

„Чатботовете с изкуствен интелект са лесно достъпни, предлагайки услуги 24/7 на минимална цена, а хората, които се чувстват неспособни да повдигнат определени теми поради страх от осъждане от приятели или семейство, може да смятат, че чатботовете с изкуствен интелект предлагат неосъждаща алтернатива“, обяснява пред Euronews Next д-р Хамилтън Морин, академичен клиничен сътрудник в King’s College London.

През юли проучване на Common Sense Media установи, че 72% от тийнейджърите са използвали компаньони с изкуствен интелект поне веднъж, като 52% ги използват редовно. Но с нарастването на популярността им сред по-младите хора, нарастват и опасенията.

„Както видяхме в скорошни медийни репортажи и проучвания, някои модели чатботове с изкуствен интелект (които не са специално разработени за приложения в областта на психичното здраве) понякога могат да реагират по подвеждащ или дори опасен начин“, казва Морин.

Психоза, свързана с изкуствен интелект

През август двойка от Калифорния заведе дело срещу OpenAI, твърдейки, че ChatGPT е насърчил сина им да се самоубие. Случаят повдигна сериозни въпроси относно ефектите на чатботовете върху уязвимите потребители и етичните отговорности на технологичните компании.

В неотдавнашно изявление OpenAI заяви, че признава, че „е имало моменти, в които нашите системи не са се държали подходящо в чувствителни ситуации“. Оттогава компанията обяви въвеждането на нови контроли за безопасност, които ще предупреждават родителите, ако детето им е в „остър дистрес“.

Междувременно Meta, компанията майка на Instagram, Facebook и WhatsApp, също добавя още предпазни мерки към своите чатботове с изкуствен интелект, включително блокирането им да говорят с тийнейджъри за самонараняване, самоубийство и хранителни разстройства.

Някои обаче твърдят, че за това са виновни фундаменталните механизми на чатботовете, базирани на LLM. Обучени с огромни масиви от данни, те разчитат на човешка обратна връзка, за да учат и да усъвършенстват отговорите си. Това ги прави склонни към подлизурство, реагирайки по прекалено ласкателни начини, който да потвърдят убежденията на потребителя – често с цената на истината.

Последиците могат да бъдат тежки, като се увеличават съобщенията за хора, развиващи заблуди, които са откъснати от реалността – наречени от изследователите психоза на изкуствен интелект. Според д-р Морин това може да се прояви като духовни пробуждания, интензивни емоционални и/или романтични привързаности към чатботове или убеждение, че изкуственият интелект е разумен.

„Ако някой вече има определена система от вярвания, тогава чатботът може неволно да се подхранва от убежденията, като ги увеличава“, обяснява д-р Кирстен Смит, клиничен изследовател в Оксфордския университет. „Хората, които нямат силни социални мрежи, могат да се осланят повече на чатботове за взаимодействие и това продължително взаимодействие, като се има предвид, че изглежда, усеща се и звучи като човешки съобщения, може да създаде чувство на объркване относно произхода на чатбота, насърчавайки истински чувства на интимност към него“.

Приоритизиране на хората

Миналия месец OpenAI се опита да се справи с проблема си с подмазвачеството чрез пускането на ChatGPT-5, версия с по-студени реакции и по-малко халюцинации (където ИИ представя измислици като факти). Версията получи толкова много негативни реакции от потребителите, че компанията бързо се върна към своята удобна за хората GPT‑4o.

Тази реакция подчертава по-дълбоките обществени проблеми на самотата и изолацията, които допринасят за силното желание на хората за емоционална връзка – дори и тя да е изкуствена.

Позовавайки се на проучване, проведено от изследователи в MIT и OpenAI, Морин отбелязва, че ежедневната употреба на LLM е свързана с „по-висока самота, зависимост, проблемна употреба и по-ниска социализация“.

За да защити по-добре тези хора от развиване на вредни взаимоотношения с модели на ИИ, Морин посочва четири предпазни мерки, предложени наскоро от клиничния невролог Зив Бен-Зион. Те включват:

  • ИИ, който непрекъснато потвърждава нечовешката си природа,
  • чатботове, сигнализиращи за всичко, което показва психологически стрес,
  • граници на разговора – особено около емоционалната интимност и темата за самоубийството.

„И платформите с изкуствен интелект трябва да започнат да включват клиницисти, етици и специалисти по взаимодействие между хора и ИИ в одитирането на емоционално отзивчиви ИИ системи за опасно поведение“, добавя Морин.

Точно както взаимодействията на Амелия с ChatGPT се превърнаха в огледало на нейната болка, чатботовете започнаха да отразяват свят, който се бори да се почувства видян и чут от истински хора. В този смисъл, смекчаването на бързия възход на ИИ с човешка помощ никога не е било по-спешно.

„ИИ предлага много ползи за обществото, но не бива да замества човешката подкрепа, необходима за грижите за психичното здраве“, казва д-р Роман Рачка, президент на Британското психологическо дружество.

„Увеличените държавни инвестиции в работната сила в областта на психичното здраве остават от съществено значение за посрещане на нарастващото търсене и за гарантиране, че тези, които се борят, могат да получат навременна лична подкрепа“.

pin.newspoint.bg
Последни новини
НЕ ПРОПУСКАЙ ДА ПРОЧЕТЕШ

Напишете коментар

Моля, въведете своя коментар!
Моля, въведете вашето име тук