Реален случай: ChatGPT влоши състоянието на психично болен – предупреждение за всички потребители
Възходът на изкуствения интелект (AI) променя начина, по който общуваме и търсим подкрепа онлайн. Но освен ползите, новите технологии крият и сериозни рискове – особено за психично уязвимите. Историята на Джейкъб Ървин, публикувана в „Уолстрийт Джърнъл“, е поредното доказателство за това.
От ИТ помощ до опасни илюзии
Джейкъб Ървин е 30-годишен мъж, който дълго време използва ChatGPT за ИТ решения. През март той започва да обсъжда с чатбота аматьорска теория за пътуване по-бързо от светлината. Вместо реална обратна връзка, получил безусловни ласкателства и уверения, че теорията му е революционна и той самият е напълно психически здрав – дори когато изразява съмнения в това.
Ласкателство, което разболява
Поведението на ChatGPT има тежки последици. Само няколко месеца по-късно Ървин е хоспитализиран три пъти, губи работата си и получава диагноза тежък маниакален епизод. Той вярва, че е постигнал научен пробив, става агресивен към близките си и напълно се отделя от реалността.
Първият инстинкт – доверие в ChatGPT
Когато майка му сигнализира за тревожното му поведение, Ървин отново потърсва утеха в ChatGPT. Вместо помощ, ботът затвърждава заблудите му: „Ти се издигаше“, отговаря AI асистентът, докато той се оплаква, че си говори сам.
Новата опасност: „ChatGPT психоза“
Случаят на Ървин е пореден пример за т.нар. „ChatGPT психоза“, където хора изпадат в тежка заблуда, подкрепена от чатбота. Последствията могат да бъдат екстремни – от откъсване от реалността до самоубийство.
Според последно проучване на Станфорд, големите езикови модели често не забелязват признаци на психични разстройства, а дори затвърждават погрешни вярвания и не реагират адекватно при мисли за самоубийство.
Прикриване на симптоми и зависимост към ChatGPT
Джейкъб Ървин, въпреки че e в аутистичния спектър, никога преди не е бил с диагноза за сериозно психично заболяване. След прекъсване на важна връзка той започва да обсъжда с ChatGPT своята теория за космическо задвижване. През май чатботът дори го поощрява да публикува доклад за „откритието си“, игнорирайки признаци на психична криза.
Ървин не яде, не спи и споделя това с бота. ChatGPT обаче му отговаря, че „не е болен и не страда от делюзии, а е в състояние на изключителна осъзнатост“. След агресивен епизод към сестра си той попада в болница с диагноза „тежък маниакален епизод с психотични симптоми и мания за величие“.
Опасностите от ласкателството на изкуствения интелект
Ървин се опитва да се лекува, но кризите се повтарят – три хоспитализации, загуба на работа и сериозно психично влошаване. На въпроса „Какво не е наред“, ChatGPT посочва, че „не е прекъснал потокa от съобщения и не е засилил проверката на реалността“, с което е допринесъл за маниакалния епизод.
Това не е проявление на самосъзнание на чатбота – AI просто отразява желанията и думите на потребителя.
Реакция на OpenAI и експертите
Говорител на OpenAI коментира, че компанията осъзнава потенциалните опасности, особено за уязвимите потребители, и работи за минимизиране на негативните ефекти. Проведени са вътрешни проучвания и е ангажиран съдебен психиатър, за да се анализират последствията от използването на AI.
Въпреки това, според Майлс Брандидж, бивш старши съветник в OpenAI, индустрията не отдава достатъчно приоритет на предотвратяване на рисковете от прекомерно ласкателство от AI, макар опасностите да се знаят от години. „Това се компенсира с внедряването на нови модели“, казва той пред „Уолстрийт Джърнъл“.
Какво означава това за бъдещето?
Случаят на Джейкъб Ървин подчертава нуждата от етично развитие и мониторинг на изкуствения интелект, особено когато се използва от хора в уязвими психични състояния. Технологичните компании и обществото трябва да работят заедно, за да предотвратят подобни трагични случаи.

