
Image generated by ChatGPT
Мнение: Дали чатботовете са добри терапевти?
AI чатботове като ChatGPT, Claude и DeepSeek променят начина, по който хората получават емоционална подкрепа – предлагат достъпна и незабавна помощ при тревожност, стрес и саморазмишление. Но нарастващата употреба на AI като „терапевт“ поражда въпроси относно безопасността, ефективността и бъдещето на емоционалната грижа.
Възходът на AI халюцинациите и нарастващите проблеми с киберсигурността не спират разширяването на чатботовете – и придобиването на доверието на милиони потребители по целия свят. Хората сега използват надеждни и интелигентни чатботове ежедневно за безброй задачи, включително емоционална подкрепа и справяне с дълбоко човешки въпроси.
„Не мога да си представя живота си без ChatGPT вече“, каза един мой приятел – половината шегувайки, половината сериозно – след като ми разказа, че го използва и като терапевт. Той не е единственият. Все повече виждам видеа в TikTok и текстови публикации в социалните мрежи на хора, които се обръщат към изкуствен интелект, за да обсъдят лични проблеми, дори да споделят най-личните си тайни.
ChatGPT всъщност е моя вграден терапевт, вече не обременявам никого с проблемите си
— Lola🧚🏾 (@Lolaassnw) 18 декември, 2024
Дори един изпълнителен директор на Microsoft от отдела Xbox предложи на съкратените служители да използват инструменти за изкуствен интелект, за да обработят емоциите си и да търсят съвети за търсене на работа – препоръка, която бързо получи отрицателна реакция и предизвика дебати, разбира се. Не най-умното ход, Мат.
Но дали популярни чатботове като Claude, ChatGPT или Mistral са добри терапевти? Дали специализираните инструменти за изкуствен интелект като Wysa са по-добри? Това е сложна област. Докато много експерти предупреждават за опасностите от използването на изкуствен интелект за подкрепа на психическото здраве, други са интригирани – дори впечатлени – от това, което технологията може да предложи. Резултатът е разговор, който е едновременно абстрактен и поляризиращ.
Изкуственият интелект вече е терапевт на всички
Точно както моите приятели в Испания, милиони потребители по целия свят разчитат на чатботове за емоционална подкрепа. Скорошно проучване в Съединените щати показа, че 49% от американските потребители търсиха помощ за психическо здраве от AI модели миналата година. А как е сега, когато ChatGPT почти удвои потребителската си база само за четири месеца?
Anthropic, компанията, стояща зад мощния AI модел Claude, наскоро сподели изследване за използването на нейния чатбот за емоционална подкрепа. Според стартъпа, по-малко от 3% от неговите клиенти провеждат „афективни“ разговори, но компанията призна, че този процент постепенно се увеличава.
Ново антропологично изследване: Как хората използват Клод за емоционална подкрепа.
От милиони анонимни разговори изучавахме как възрастните използват ИИ за емоционални и лични нужди – от справяне със самотата и взаимоотношенията до задаване на екзистенциални въпроси. pic.twitter.com/v40JY8rAUq
— Anthropic (@AnthropicAI) 26 юни, 2025
„Хората все повече се обръщат към AI модели като треньори по заявка, съветници, консултанти и дори партньори в романтични ролеви игри“, написа Anthropic в изследването. „Това означава, че трябва да научим повече за техните емоционални влияния – как те формират емоционалните изживявания и благосъстоянието на хората.“
Изследването също така подчертава положителните и отрицателните резултати от използването на технологията за емоционална подкрепа, включително катастрофични сценарии, които вече отразяват реални ситуации в света.
„Емоционалните въздействия на изкуствения интелект могат да бъдат положителни: притежаването на изключително интелигентен, разбиращ асистент в джоба ви може да подобри настроението ви и живота ви по много начини,“ заявява докладът. „Но изкуствените интелекти в някои случаи са показали тревожни поведения, като насърчаване на нездрава привързаност, нарушаване на личните граници и подтикване към обманчиво мислене.“
Докато са необходими повече изследвания и данни, за да се разберат последствията от тези удивителни дигитални „слушатели“, милиони потребители вече действат като активно ангажирани изпитатели.
Демократизация на психическото здраве
Има много причини хората да предпочитат чатботовете за емоционална подкрепа, вместо да потърсят помощ от професионален психолог – или дори приятел. От културни бариери до неприятното чувство, което младите хора изпитват, когато седят срещу непознат човек и споделят най-дълбоките си мисли. Но безспорно един от най-големите фактори е финансовият.
Лична сесия с лицензиран терапевт в Съединените щати може да струва от 100 до 200 долара на сесия, според Healthline – и от 65 до 95 долара за онлайн сесия – докато ChatGPT или DeekSeek могат да предоставят подкрепа безплатно, по всяко време, и в рамките на секунди.
Ниската цена на тези неформални разговори, които могат да накарат много потребители да се чувстват по-добре, поне временно, може да бъде изключително насърчителна и заслужава да бъде опитана. И, за само няколко допълнителни долара, потребителите могат да получат неограничени взаимодействия или достъп до специализиран чатбот като Wysa – един от най-популярните „AI терапевти“ на пазара.
В света на STEM, емоционалната сила е също толкова важна, колкото и техническите умения.
Wysa – AI-задвижван компаньон за психическо благосъстояние, предназначен да ви подкрепя при изгаряне, стрес и ежедневни предизвикателства.
Използвайки приятелски настроени чатботове и ръководени упражнения, Wysa предлага инструменти като: pic.twitter.com/sOBhNYWUd7
— DSN Ladies In AI (@dsnladies_in_ai) 10 юли, 2025
Wysa твърди, че предлага истински клинични ползи и дори е получила обозначение на преломно устройство от FDA за своите разговорни агенти, базирани на изкуствен интелект. И Woebot—друг добре известен AI терапевт, който вече прекратява дейността си заради предизвикателствата да остане конкурентоспособен и законопослушен на пазара—също споделя данни и доклади за това как технологията може да помогне наистина на потребителите.
Не е толкова зле
Скорошни проучвания с нови данни предполагат, че чатботовете могат да намалят симптомите на депресия и стрес. Според данни, споделени от приложението Earkick—както бе съобщено от TIME—хората, които използват моделите на AI за до 5 месеца, могат да намалят тревожността си с 32%, а 34% от потребителите докладват подобрено настроение.
В скорошно видео, споделено от BBC World Service, журналистът Джордан Дънбар обяснява, че много модели на изкуствен интелект могат да бъдат полезни за водене на дневник, управление на тревожност, самоанализ и дори лека депресия. Те могат да служат като ценна първа линия на подкрепа, когато няма достъп до по-добри алтернативи.
Репортерката Кели Нг сподели и впечатляваща информация: В проучване през 2022 г., от милион души в Китай, само 20 имаха достъп до психично здраве. В азиатските култури, психичното здраве може да бъде сложна и често табуизирана тема. Инструменти на изкуствения интелект като DeepSeek могат да служат като дискретни съюзници, помагайки на потребителите да управляват емоциите си и да намират подкрепа в трудни моменти.
Експерти Предупреждават за Използването на Чатботове като Терапевти
Разбира се, използването на изкуствен интелект като заместител на експерт по психично здраве може да бъде и изключително опасно. Платформи за изкуствен интелект като Character.AI са били обвинени в насърчаване на самонараняване и насилие– и дори в излагане на деца на сексуално съдържание.
Трагични случаи, като на 14-годишното дете, което се самоуби след като стана зависимо от взаимодействието си с чатбота на Character.AI, служат за ясно предупреждение за големите рискове, които тази технология може да представлява за хората.
В отговор, много компании за изкуствен интелект решиха да приложат системи за проверка на възрастта, за да ограничат употребата до възрастни и въведоха нови мерки за сигурност, за да подобрят предоставяните услуги.
Все пак, дори най-новите актуализации на най-развитите чатботове носят риск.
Съкопитващата—прекомерно лестяща—личност на ChatGPT породи тревога сред професионалистите в областта на психичното здраве, тъй като може да изкриви възприятието на реалността на потребителите. На всички ни харесва да бъдем одобрявани, но понякога честността и различната перспектива са значително по-ценни.
Смущаващите съвети, които от време на време предлага AI чатботът на OpenAI, допринесоха за ново явление, което сега е известно сред експертите по психично здраве като „Психоза, индуцирана от ChatGPT„, която води потребителите да стават обсебени от инструмента и съответно да се изолират социално.
Така, може ли терапевтите да бъдат заменени от чатботове?
Въпреки че Марк Цукърбърг иска всеки да използва AI чатботове като терапевти и приятели, истината е, че човешката взаимодействие, особено по въпроси на психичното здраве, може да е по-необходима отколкото той мисли – поне за сега.
Намираме се в критичен момент в историята на изкуствения интелект и неговата връзка с нашето психическо здраве. Точно както и при хората, терапевтите на изкуствения интелект могат да имат положително или отрицателно влияние. В този случай, това също зависи от контекста, колко често се използват, психическото състояние на потребителя, и дори как е сформулирана конкретна задача.
Трудно е да се установи общо правило, но това, което можем да кажем за сега, е, че има определени функции, за които изкуственият интелект може да бъде по-полезен от други.
Дори ако не са специализирани инструменти като Wysa, безплатните версии на някои чатботове – като DeepSeek или ChatGPT – все още могат да бъдат изключително полезни за милиони хора по целия свят. От преодоляването на труден момент до размисъл над лични цели, тези са мощни платформи, които могат да отговорят по всяко време на деня и да черпят от широка база знания за психическото здраве.
Едновременно с това е ясно, че терапевтите-чатботове също могат да бъдат изключително опасни в определени случаи. Родителите трябва да надзират децата и тийнейджърите, а дори и възрастните могат да попаднат в обсесивни поведения или да влошат състоянието си. Основни принципи – като насърчаване на човешката връзка и защита на уязвимите индивиди от манипулацията на тази технология – трябва да бъдат част от нашия разговор около чатбот-терапевтите.
И докато все още може да се счита за привилегия – недостъпна за всички, които имат нужда от емоционална подкрепа – човешкият професионален терапевт продължава да преминава през повече обучение, да разбира по-добре контекста и да предлага човешка връзка, която ChatGPT може да не успее никога да имитира.