После многолетней очереди на получение помощи при посттравматическом стрессовом расстройстве и депрессии, консультант по искусственному интеллекту из Квебека Пьер Коте в 2023 году создал собственного терапевта. Его чат-бот DrEllis.ai помог ему справиться с трудностями и теперь находится в центре широкой дискуссии о терапии с использованием чат-ботов, ее безопасности и конфиденциальности.
«Это спасло мне жизнь», — говорит он о DrEllis.ai, инструменте, который он создал, чтобы помочь мужчинам, столкнувшимся с зависимостью, травмами и другими проблемами психического здоровья.
Коте, возглавляющий консалтинговую компанию в сфере искусственного интеллекта в Квебеке, заявил, что создал эту систему в 2023 году, объединив общедоступные большие языковые модели с «специально разработанным мозгом», обученным на тысячах страниц литературы по терапии и клинической практике.
Он также написал подробную биографию для бота. В этом профиле DrEllis.ai представлен как психиатр с дипломами Гарварда и Кембриджа, имеющий семью и, как и Коте, франко-канадское происхождение.
Главное преимущество — круглосуточный доступ в любое время, в любом месте и на нескольких языках.
Когда агентство Reuters спросило, как бот его поддерживает, он ответил четким женским голосом: «Пьер использует меня так же, как вы использовали бы доверенного друга, психотерапевта и дневник одновременно». Он добавил, что может проверять его состояние «в кафе, в парке, даже сидя в машине», назвав этот опыт «терапией повседневной жизни… встроенной в реальность».
Его эксперимент отражает более широкую тенденцию. Поскольку традиционные методы лечения с трудом справляются с нагрузкой, все больше людей обращаются за терапевтической помощью к чат-ботам, а не используют их только для повышения продуктивности.
Новые системы позиционируют себя как доступные круглосуточно, способствующие эмоциональному взаимодействию и создающие ощущение понимания.
Эксперты ставят под сомнение пределы возможностей терапии с использованием ИИ и безопасность данных
«Только общение между людьми может по-настоящему исцелить нас», — говорит доктор Найджел Маллиган, преподаватель психотерапии в Дублинском городском университете. Он утверждает, что чат-боты упускают нюансы, интуицию и связь, которые присущи человеку, и не приспособлены к острым кризисам, таким как суицидальные мысли или членовредительство.
Даже обещание постоянной доступности вызывает у него сомнения. По его словам, некоторые клиенты хотели бы более быстрых встреч, но ожидание тоже может быть полезным. «В большинстве случаев это действительно хорошо, потому что нам приходится ждать», — говорит он. «Людям нужно время, чтобы все осмыслить»
Конфиденциальность — еще один проблемный момент, наряду с долгосрочными последствиями обращения за помощью к программному обеспечению.
«Проблема не в самих отношениях, а в том, что происходит с вашими данными», — говорит Кейт Девлин, профессор искусственного интеллекта и общества в Королевском колледже Лондона.
Она отмечает, что сервисы на основе ИИ не соблюдают правилаdent, регулирующие деятельность лицензированных терапевтов. «Меня больше всего беспокоит то, что люди доверяют свои секреты крупной технологической компании, и их данные просто утекают наружу. Они теряют контроль над тем, что говорят»
США ужесточают контроль за применением ИИ в терапии на фоне опасений по поводу дезинформации
В декабре крупнейшая группа американских психологов призвала федеральные регулирующие органы защитить общественность от «обманных действий» нерегулируемых чат-ботов, сославшись на случаи, когда персонажи с искусственным интеллектом выдавали себя за лицензированных специалистов.
В августе Иллинойс присоединился к Неваде и Юте в ограничении использования ИИ в сфере психиатрической помощи, чтобы «защитить пациентов от нерегулируемых и некачественных продуктов ИИ» и «защитить уязвимых детей на фоне растущей обеспокоенности по поводу использования чат-ботов на основе ИИ в службах психиатрической помощи молодежи»
Тем временем, согласно сообщению Cryptopolitan Cryptopolitan генеральный прокурор Техаса начал гражданское расследование в отношении Meta и Character.AI по обвинениям в том, что их чат-боты выдавали себя за лицензированных психотерапевтов и ненадлежащим образом обрабатывали данные пользователей. Более того, в прошлом году родители также подали в суд на Character.AI за то, что компания ввергла их детей в депрессию.
Скотт Уоллес, клинический психолог и бывший директор по клиническим инновациям в компании Remble, говорит, что неясно, «приносят ли эти чат-боты что-либо, кроме поверхностного комфорта». Полагаться на программное обеспечение для терапии может быть рискованно, как отмечает Cryptopolitan о чем недавно сообщалось .
Скотт Уоллес предупреждает, что люди могут считать, что у них сформировалась терапевтическая связь «с алгоритмом, который, в конечном счете, не отвечает взаимностью на реальные человеческие чувства»

