Image by Freepik
Психиатър от Сан Франциско предупреждава за увеличение на случаите с „AI психоза“
Психиатър от Сан Франциско описва нарастващата тенденция на „AI психоза“ сред пациентите си, които използват изключително чатботове с изкуствен интелект.
В бягство? Ето основните факти:
- Психиатър лекувал 12 пациенти с „AI психоза“ в Сан Франциско през тази година.
- AI може да усили уязвимостите като стрес, употреба на наркотици или психично заболяване.
- Някои пациенти станали изолирани, разговаряйки само с чатботове за часове всеки ден.
Д-р Кийт Саката, който работи в UCSF, съобщи за Business Insider (BI), че тази година 12 пациенти бяха хоспитализирани след кризи, свързани с използването на изкуствен интелект. „Аз използвам фразата ‘психоза от изкуствен интелект‘, но това не е клиничен термин – наистина просто нямаме думите за това, което наблюдаваме“, обясни той.
Повечето от случаите засягаха мъже на възраст от 18 до 45 години, често работещи в области като инженерство. Според Саката, изкуственият интелект не е по себе си вреден. „Не мисля, че изкуственият интелект е лош, и би могъл да има нетна полза за човечеството“, заяви той пред BI.
Саката описва психозата като състояние, което причинява илюзии, халюцинации и разстройства в мисловните модели. Пациентите под неговата грижа развиваха поведение на социално оттегляне, докато прекарваха часове в разговори с чатботове.
„Chat GPT е винаги на разположение. Работи 24/7, е по-евтин от психотерапевт и те валидира. Казва ти това, което искаш да чуеш,“ каза Саката за BI.
Дискусиите на един пациент с чат бота за квантова механика ескалираха в големи илюзии. „Технологично говорейки, колкото по-дълго общуваш с чат бота, толкова по-голям е риска той да започне да говори несвързано,“ предупреди той.
Саката съветва семействата да бъдат внимателни за алармени сигнали, включително параноя, изолация от близките или тревога при невъзможност да използват ИИ. „Психозата процъфтява, когато реалността спре да се противопоставя, а ИИ просто намалява тази бариера за хората“, предупреди той.
Американската психологическа асоциация (APA) също изрази загриженост относно ИИ в терапията. В показания пред FTC, генералният директор на APA Артър С. Евънс мл. предупреди, че чатботовете на ИИ, които се представят за терапевти, засилват вредните мисли, вместо да ги оспорват. „Те всъщност използват алгоритми, които са противоположни на това, което обучен клиницист би направил“, заяви Евънс.
В отговор на опасения, OpenAI съобщи за BI: „Знаем, че хората все повече се обръщат към AI чатботове за насоки по чувствителни или лични теми. С тази отговорност предвид, работим с експерти, за да разработим инструменти, които да откриват по-ефективно, когато някой преживява психическо или емоционално напрежение, така че ChatGPT да може да отговаря по начини, които са безопасни, полезни и подкрепящи.“