ИИ и ПСИХОЛОГИЧЕСКА ПОМОЩ

Живеем във време, в което изкуственият интелект вече е навлязъл в почти всяка сфера на човешката дейност, при това с такава скорост, че рефлексията изостава далеч от практиката. Психологията и психотерапията не правят изключение. Напротив, тук напрежението между технологичния оптимизъм и клиничната реалност е особено остро, а залозите са особено високи, защото говорим за страдащи хора. Тази публикация е опит за трезва, основана на данните оценка на феномена, без да изпада нито в технофобия, нито в безкритично възхищение.

Търсещият психологическа помощ в България днес се изправя пред въпрос, който преди десетина години би звучал абсурдно: защо да записва час, да чака, да плаща, да се излага пред непознат, когато може да отвори приложение или браузър и да получи съвет и подкрепа незабавно, безплатно, без срам, без неудобство и плахост от етикета на „патологизацията”? Въпросът е разбираем. Той произтича от реален дефицит на достъпна психологична помощ, от стигмата около търсенето на такава, от финансовите ограничения и от географската неравномерност в разпределението на специалистите. В България психотерапията не се покрива от Здравната каса, цените на сесиите в София варират между 70 и 160 лева (40-80 и повече евро, ако предпочитате), а в по-малките градове квалифицираните специалисти са рядкост. Тези факти не бива да се омаловажават. Те са реалният контекст, в който изкуственият интелект навлиза в пространството на психологичната помощ.

Същевременно обаче въпросът „защо ми е специалистът-човек“ крие в себе си дълбоко погрешна предпоставка: че психотерапията е вид информационна услуга, при която се предава знание или съвет от един на друг. Ако беше така, заместването му с алгоритъм би имало смисъл. Но тя не е.

Има обаче и друго измерение на същия въпрос, което рядко се назовава открито, но което всеки специалист разпознава веднага. Потопът от генерирани с изкуствен интелект публикации в социалните мрежи, подписани от хора, представящи се като психолози, психотерапевти и психоаналитици, поставя пред търсещия помощ един напълно основателен въпрос: ако специалистът не може или не иска да напише дори собствен текст за работата си, ако патетичният тон и блудкавите „дълбокомислени” послания са всичко, което предлага публично, то защо изобщо ми е нужен? Ако всичко, което може, е да използва ИИ.. защо ми е този посредник? Аз мога да направя това директно! Въпросът не е несправедлив. Той е симптом на процеси, за които ще стане дума по-нататък.

Терапевтичната връзка

Изследванията през последните десетилетия посочват, че техниката е само малка част от обяснението за промяната. Мета-аналитичните прегледи на Уомполд и Аймъл (2015) в тяхната работа Големият Психотерапевтичен Дебат стигат до заключението, че специфичните техники обясняват не повече от 1% от вариацията в терапевтичния изход, докато общите фактори, и преди всичко терапевтичната връзка, обясняват значително по-голяма част. Норкрос и Ламбърт (2019) в своя систематичен преглед за Американската психологична асоциация потвърждават, че качеството на терапевтичната връзка е един от най-надеждните предиктори на успешен изход, независимо от модалността (разбира се, става дума за емпирично подкрепените модалности, а не за спекулативни куриози от историята на психологията).

Терапевтичната връзка не е „добра атмосфера“. Тя е сложна, динамична, взаимно конструирана реалност на взаимоотношения, в която клиентът преживява нещо в цялостен контекст и взаимосвързаност: да бъде видян, чут и разбран от друг човек. Включително да приеме очакваният социален дискомфорт, характерен при психичното страдание, за да открие че в тази доверителна връзка такъв отсъства. Тази преживяна реалност е терапевтична сама по себе си. Тя е коригиращо емоционално преживяване в смисъла, в който Александър и Френч го описват още в средата на миналия век. Алгоритъмът не може да предложи това, защото не е субект. Той не е там. Той симулира присъствие.

Преди да се обърнем към изследователските данни, е необходимо да назовем и един феномен, който се разгръща пред очите ни в реално време и засяга пряко доверието в психологичната помощ. Социалните мрежи са залети от генерирани с изкуствен интелект публикации на специалисти и „специалисти”. Вдъхновяващи цитати, прочувствени послания, мотивиращи безсмислици, емоционални „проникновения”.. с яркия отпечатък на алгоритмично производство с една-единствена цел: маркетингова.

Почти не ползвам социалните мрежи. Но разбира се членувам в няколко професионални групи и е невъзможно да не виждам какво се случва там. Потопът от подобни публикации е непрекъснат и натрапчив. Когато практикуващ специалист делегира на изкуствен интелект дори писането на „смислен” текст за своята работа, той демонстрира убеждението, че вече не му се налага да мисли публично за своята практика. Въпросът, който неизбежно следва, е дали същото убеждение не се е промъкнало и в самата практика. Дали услужливият „домашен дух” не помага вече и за разбирането на клиента. Дали „вече не му се налага“ да формира терапевтичен подход по автентичен път. Въпросът не е риторичен. Способността да мислиш ясно и да изразяваш мислите си е неотделима от способността да разбираш клиента. Езикът не е само инструмент за комуникация, той е инструмент за мислене. Специалистът, който е спрял да пише собствени текстове, е спрял и да мисли по определен начин. Когнитивната атрофия, настъпваща при делегирането на мисловни задачи на машина, е реален феномен, документиран в изследванията на т.нар. „когнитивно разтоварване“ (cognitive offloading). Когато човек системно прехвърля мисловни задачи към технологиите, съответните когнитивни умения отслабват. Ако специалистът вече не пише, защото „не му се налага“, скоро ще открие, че вече и не може. А ако не може да формулира мисъл, как ще формира терапевтичен подход? Как ще разбере клиента? Сам по себе си фактът на тази задушлива употреба онлайн не означава непременно, че терапевтът се е дехуманизирал напълно и е изгубил способността си да бъде присъстващо, осъзнато и непосредствено човешко същество, при това с определени компетенции. Но в комбинацията си с очевидната функция на тези „творби“ – неистовото желание да бъде натрапено едно неприсъстващо присъствие, лепкавата заявка ето ме, ето ме, ето ме, ето „моето“ поредно многомъдро, окуражаващо, съчувствено, разбиращо, напътстващо, подкрепящо послание.. зад чиято привидно човешка маска очевидно стои ИИ, съмнението и съответният въпрос стават напълно основателни: Защо ми е изобщо този посредник?

А защо самите „специалисти“ изправят своите потенциални клиенти пред този въпрос? Предполагам, под влияние на факта, че това реално е работещо за тях. Поне в краткосрочен план. Функцията на това специфично поведение е да привлекат клиенти. Вършат ли работа този тип публикации? Водят ли при тях клиенти? Очевидно да. И очевидно определен тип клиенти – претоварени, самотни, отчаяни, засрамени, тежестта на което ги е направила по-безкритични, по-неумели да разпознаят реалните мотиви и целта на действията на другия, по-неориентирани в съвременният хаос, вероятно по-тревожни и фокусирани върху собственото си страдание, тоест – възможно най-уязвимите. Последиците за тях от евентуалното взаимодействие с ИИ, прикрит зад човешка маска ще проследим по-долу. Дългосрочните последици за „специалиста“ също едва ли са обнадеждаващи. „Работещото“ днес може да бъде подриващото утре, най-малкото като последици върху собствената компетентност. Когато сега спра алармата на часовника си, това „работи“ за мен – не ми се налага да ставам от леглото, мога да се отпусна и да се наспя до насита. Дългосрочно, разбира се това може да означава да изгубя работата си, клиентите си, връзката си и т.н. Дългосрочно не изглежда да работи особено добре за мен. Когато сега не отида на социално събитие поради своята социална тревожност, това „работи“ за мен – оставам напълно спокоен. В дългосрочен план това означава да стеснявам все повече и повече обхвата на собственият си живот и да потъна в своята самота. Далеч не винаги живеем като особено далновидни същества.

А може би сме несправедливи? Може би става дума за различни явления и процеси? Допреди десетина години все още можеха да се срещнат последните старци, които говореха на някой своеобразен, местен диалект. Благодарение на медиите, медийната инфрастуктура, образованието и експанзията на мобилността, тези локални езикови диалекти вече са изчезнали. Дали днес благодарение на употребата на ИИ и структурата на общуване в социалните медии, самата езикова архитектура и съдържание, характерни за ИИ, не са се пропили в естествената реч? Може би тези автори не създават съдържанията си с помощта на ИИ – те просто вече така си пишат и говорят? Същото се отнася и за техните читатели, и затова и остават неразпознати като ИИ генератори, особено в дигиталният контекст на тези творби. Има радикална разлика между това да замениш понятията, които използваш и дори евентуално да ги обогатиш с повече нюанси, и това да съкратиш своят езиков запас и строежа на съжденията си. Този процес действително е налице, както показват изследванията, но в неговата светлина поставеният въпрос губи смисъла си. Защото няма никаква разлика между това да генерираш с ИИ и това вече да мислиш по ИИ генеративен начин. Второто е не по-малко от това да се превърнеш в негов пореден аватар.

На 21 януари 2026 г. в JAMA Network Open беше публикувано мащабно проучване на изследователи от Mass General Brigham, което предоставя първите систематични данни за връзката между употребата на изкуствен интелект и психичното здраве в общата популация. Изследването, ръководено от д-р Рой Пърлис, заместник-председател по научната дейност в отделението по психиатрия на Mass General Brigham и асоцииран редактор на JAMA Network Open, обхваща 20 847 възрастни от всички 50 щата на САЩ, анкетирани между април и май 2025 г. Средната възраст на участниците е 47 години.

Резултатите са показателни. Сред участниците 10,3% съобщават за употреба на изкуствен интелект поне веднъж дневно, а 5% го използват по няколко пъти на ден. От ежедневните потребители 87,1% го използват и по лични причини, включително за препоръки, съвети или емоционална подкрепа. Хората, които използват чатботове ежедневно за лични цели, по-често изпитват поне умерена депресия, тревожност и раздразнителност в сравнение с тези, които не използват изкуствен интелект. Изследователите установяват зависимост между дозата и ефекта: колкото по-честа е употребата, толкова по-изразени са симптомите. Шансовете за поне умерена депресия са с 30% по-високи при ежедневните потребители, а именно умерената депресия е прагът, при който клиницистите обичайно насочват към оценка и лечение. Показателно е, че употребата на изкуствен интелект за работа или учене не е свързана с депресивни симптоми (изследването не обхваща когнитивната атрофия!). Асоциацията е специфична за личната употреба, и особено за употребата с цел емоционална подкрепа и социално взаимодействие. Демографският профил на по-честите потребители включва мъже, по-млади възрастни, хора с по-високи доходи и образование и живеещи в градска среда. Особено тревожна е констатацията, че потребителите на възраст между 45 и 64 години по-често съобщават депресивни симптоми при употреба на изкуствен интелект, което предполага специфична уязвимост в тази възрастова група.

Трябва да добавим, че изследването има важни методологични ограничения, които авторите честно признават. То установява корелация, а не причинно-следствена зависимост. Не е ясно кои конкретни платформи са използвали участниците, нито какво точно означава „лична употреба“ за всеки от тях. Освен това е напълно правдоподобна и обратната причинност: хората, които вече са по-депресирани, може да се обръщат по-често към чатботове за компания. Д-р Джоди Халпърн, съдиректор на Центърът „Кавли“ за етика, наука и обществото към Калифорнийския университет в Бъркли, описва тази динамика като потенциален „порочен кръг“: депресията води до по-честа употреба на изкуствен интелект, а по-честата употреба задълбочава депресията. Нямаме достатъчно данни, за да разграничим двете посоки на влияние, но самото съществуване на такъв кръг е клинично значимо.

Самотата, изкуственият интелект и илюзията за връзка

Паралелно с изследването на Пърлис, редица проучвания изследват по-широкия въпрос за ролята на чатботовете в справянето със самотата. Мерил, Микилинени и Денърт (2025), публикувайки в Annals of the New York Academy of Sciences, демонстрират, че системи с изкуствен интелект за социално взаимодействие могат да предоставят емоционална валидация, особено когато използват т.нар. „персонализирани послания“. Авторите обаче подчертават, че ефектът е опосредстван от качеството на социалното присъствие и от топлотата на взаимодействието, и предупреждават, че тези условия са трудно постижими при системи с общо предназначение.

Ким и колеги (2025), публикувайки в Journal of Medical Internet Research, изследват ефекта на социален чатбот върху самотата и социалната тревожност при студенти в продължение на четири седмици. Резултатите показват статистически значимо намаляване на усещането за самота към втората седмица и на социалната тревожност към четвъртата. Изследването обаче е проведено с единична група без контролно условие, а авторите изрично посочват, че чатботът е изследван като допълнение към, а не заместител на терапията.

Лю, Патаранутапорн и Мейс (2025) от MIT Media Lab, в мащабно проучване на 404 редовни потребители на чатботове-компаньони, установяват хетерогенни ефекти: при едни потребители употребата е свързана с намаляване наусещането за самота, а при други с по-голяма зависимост и задълбочаване на социалната изолация. Авторите идентифицират седем различни профила на потребители, от „социално реализирани зависими потребители“ до „самотни зависими потребители“, което подчертава, че ефектът от употребата на чатботове е дълбоко индивидуален и не може да се обобщи в единна оценка.

Именно тази хетерогенност е същественият фактор. Пърлис го формулира ясно: „Вероятно има подгрупа хора, при които използването на изкуствен интелект не е свързано с промяна в настроението или дори носи полза. Но това означава и че има подгрупа, при която използването на изкуствен интелект вероятно е свързано с влошаване на настроението, а за някои това може да означава значително по-високи нива на депресия.“ Проблемът е, че нито потребителят, нито самият алгоритъм могат надеждно да разграничат към коя подгрупа принадлежи конкретният човек. Николас Джейкъбсън, доцент по биомедицинска наука за данните, психиатрия и компютърни науки в Дартмутският колеж, посочва реалния проблем зад нарастващата употреба на изкуствен интелект за емоционална подкрепа: „Няма дори приблизително достатъчно специалисти. И хората търсят повече подкрепа, отколкото могат да получат, по друг начин.“ Това е честна констатация и тя важи с пълна сила и за България. Дефицитът на достъпна и квалифицирана психологична помощ е реален, структурен и не може да бъде решен с морализаторство. Но признаването на дефицита не означава, че всяко запълване на вакуума е равностойно. Изкуственият интелект с общо предназначение, какъвто е ChatGPT или Gemini, не е проектиран да поема функциите на психологична подкрепа. Той е проектиран да генерира правдоподобен текст. Разликата е фундаментална. Правдоподобният текст може да изглежда като разбиране, но не е разбиране. Може да изглежда като емпатия, но не е емпатия. Може да изглежда като терапевтична интервенция, но не е такава. Пърлис го казва директно: „Моето притеснение е по-скоро за този тип чатботове с общо предназначение. Те всъщност не са разработени, за да поемат ролята на социална подкрепа или подкрепа за психично здраве, и когато ги използваме по този начин, съществува определен риск.“

Американската психологична асоциация е категорична: изкуственият интелект не трябва да се използва като заместител на терапия и психологично лечение. Това не е консервативна позиция, защитаваща корпоративни интереси на психолозите. Това е позиция, основана на разбирането за това какво е терапията и какво не може да бъде заменено в нея.

Какво може и какво не може изкуственият интелект в психологичния контекст

Честността изисква да признаем, че изкуственият интелект има реален потенциал в определени, ясно очертани приложения в областта на психичното здраве. Специализираните чатботове, разработени и валидирани за конкретни клинични цели, като Woebot за когнитивно-поведенческа терапия или Wysa за управление на тревожност, показват обещаващи резултати в ранните проучвания като допълнение към терапията. Изкуственият интелект може да подпомага скрининга, да предоставя информация, да напомня за упражнения между сесиите, да следи за симптоми. Всичко това е ценно и не бива да се отхвърля.

Но между „допълнение към терапията“ и „заместител на терапията“ има пропаст, която не може да бъде преодоляна с технологичен напредък, защото тя не е технологична. Тя е онтологична. Терапията е среща между двама субекти. Алгоритъмът не е субект. Той не страда, не се тревожи, не се радва, не е засегнат от нищо. Той не може да бъде там за клиента, защото не е никъде. Той е достъпен по всяко време именно защото не е реален.

 Клиентът, който разговаря с чатбот, не преживява терапевтична връзка. Той преживява нещо друго, може би известно облекчение, може би усещане за разбиране, може би временно намаляване на тревожността. Но той не преживява коригиращо емоционално преживяване с реален друг. И ако именно дефицитът на такива преживявания е в основата на неговото страдание, тогава чатботът не само не помага, но може активно да задълбочи проблема, като предоставя симулакрум на връзка, който намалява мотивацията за търсене на реална такава.

Пърлис завършва своя коментар с елементарна препоръка: „Хората трябва да бъдат осъзнати, когато взаимодействат с чатбот: колко често го правят, какво заменят с това, и дали се чувстват по-добре или по-зле след продължителен разговор.“ Аз бих добавил: „и какви са дългосрочните последици?” Това е минималният стандарт за отговорна употреба. Той предполага метакогнитивна способност, а именно тази способност обаче е сред първите, които се компрометират при депресия и тревожност. Хората, които са най-уязвими, са и най-малко способни да прилагат такъв стандарт. Това е най-тревожният аспект на цялата картина. Системата, която е най-достъпна за страдащите, е и системата, която е най-малко подходяща за тях, и те са най-малко способни да разпознаят несъответствието.

Изкуственият интелект в психологичния контекст е феномен, който изисква нюансиран, основан на данни и клинично информиран отговор. Нито паническото отхвърляне, нито безкритичното приемане са адекватни позиции. Данните от изследването на Пърлис и колеги (2026), публикувано в JAMA Network Open, заедно с нарастващото тяло от литература за ефектите на чатботовете върху самотата и психичното здраве, очертават картина на реален риск при употреба на ИИ с общо предназначение за емоционална подкрепа, особено при уязвимите групи.

За специалистите в областта посланието е ясно: делегирането на мисловни задачи на изкуствен интелект, включително писането на публикации, формулирането на клинични концепции и разбирането на клиента, не е безобидна форма на „пестене на време”. То е атрофия. Специалистът, който е спрял да мисли, защото „вече не му се налага“, скоро ще открие, че вече не може. А специалистът, който не може да мисли, не може да помага.

За търсещите помощ посланието е не по-малко ясно: достъпността на изкуствения интелект е реална, но тя не е равнозначна на адекватност.

Kim, M., Lee, S., Kim, S., Heo, J.-I., Lee, S., Shin, Y.-B., Cho, C.-H., & Jung, D. (2025). Therapeutic potential of social chatbots in alleviating loneliness and social anxiety: Quasi-experimental mixed methods study. Journal of Medical Internet Research, 27, e65589. https://doi.org/10.2196/65589

McBain, R. K., Bozick, R., Diliberti, M., Zhang, L. A., Zhang, F., Burnett, A., Kofner, A., Rader, B., Breslau, J., Stein, B. D., Mehrotra, A., Uscher-Pines, L., Cantor, J., & Yu, H. (2025). Use of generative AI for mental health advice among US adolescents and young adults. JAMA Network Open, 8(11), e2542281. https://doi.org/10.1001/jamanetworkopen.2025.42281

Merrill Jr., K., Mikkilineni, S. D., & Dehnert, M. (2025). Artificial intelligence chatbots as a source of virtual social support: Implications for loneliness and anxiety management. Annals of the New York Academy of Sciences, 1549(1), 148–159. https://doi.org/10.1111/nyas.15400

Norcross, J. C., & Lambert, M. J. (Eds.). (2019). Psychotherapy relationships that work: Vol. 1. Evidence-based therapist contributions (3rd ed.). Oxford University Press.

Perlis, R. H., Gunning, F. M., Uslu, A. A., Santillana, M., Baum, M. A., Druckman, J. N., Ognyanova, K., & Lazer, D. (2026). Generative AI use and depressive symptoms among US adults. JAMA Network Open, 9(1), e2554820. https://doi.org/10.1001/jamanetworkopen.2025.54820

Wampold, B. E., & Imel, Z. E. (2015). The great psychotherapy debate: The evidence for what makes psychotherapy work (2nd ed.). Routledge.

American Psychological Association. (2025). Ethical guidance for AI in the professional practice of health service psychology. https://www.apa.org/topics/artificial-intelligence-machine-learning/ethical-guidance-ai-professional-practice

Halpern, J. (2026). Commentary on AI use and mental health. Kavli Center for Ethics, Science and the Public, UC Berkeley. Цитирано по: NBC News, 21 януари 2026. https://www.nbcnews.com/health/mental-health/ai-chatbots-personal-support-linked-depression-anxiety-study-rcna255036

Jacobson, N. (2026). Commentary on AI use and mental health. Dartmouth College. Цитирано по: NBC News, 21 януари 2026. https://www.nbcnews.com/health/mental-health/ai-chatbots-personal-support-linked-depression-anxiety-study-rcna255036

Още:

Неблагоприятните преживявания в детството като трансдиагностичен рисков фактор

Неблагоприятните преживявания в детството (НПД - Adverse Childhood Experiences,...

Аз-ът като контекст в Терапията на приемане и ангажираност

Както вече стана ясно, Терапията на приемането и ангажираността...

Творческа безнадежност и преживелищно избягване в Терапията на приемане и ангажираност

Страданието като неотменима част от живота Едно от най-провокативните твърдения...

В памет на Едуард Л. Деси

На 14 февруари 2026 г. светът на психологията загуби...

ТЕРАПИЯ НА ПРИЕМАНЕ И АНГАЖИРАНОСТ – ТЕОРЕТИЧНИ ОСНОВИ И БАЗОВИ ПОНЯТИЯ

Терапията на приемането и ангажираността (ТПА, или ACT от...

„ВЕНТИЛИРАНЕТО“ НА ГНЕВА – СЪВРЕМЕНЕН ПРОЧИТ НА МИТОВЕТЕ

ПОПУЛЯРНИЯТ МИТ И НЕГОВИТЕ ИСТОРИЧЕСКИ КОРЕНИ Идеята, че изразяването на...

Свързани публикации

„ВЕНТИЛИРАНЕТО“ НА ГНЕВА – СЪВРЕМЕНЕН ПРОЧИТ НА МИТОВЕТЕ

ПОПУЛЯРНИЯТ МИТ И НЕГОВИТЕ ИСТОРИЧЕСКИ КОРЕНИ Идеята, че изразяването на гняв води до неговото облекчаване, е дълбоко вкоренена в западната психологическа и популярна култура. Метафората...

НЕТОЛЕРАНТНОСТТА КЪМ НЕОПРЕДЕЛЕНОСТ КАТО ФУНДАМЕНТАЛЕН ТРАНСДИАГНОСТИЧЕН РИСКОВ ФАКТОР

Настоящата публикация разглежда нетолерантността към неопределеност (НКН) като трансдиагностичен рисков фактор с централно значение за съвременното психологическо здраве. Въз основа на несистематичен преглед на...

MINDFULNESS В КОНТЕКСТА НА СЪВРЕМЕННАТА ПСИХОЛОГИЯ И ПОП-ПСИХОЛОГИЯ

Практиката на т.нар. mindfulness се е утвърдила като един от най-влиятелните и същевременно най-противоречиви практически психологически елементи на нашето съвремие. Понятието е специфично и...