Никакой АИ психотерапии!
Или самое опасное искажение в попытках терапевтировать себя с помощью LLM.
LLM — это большая языковая модель, тип программы искусственного интеллекта, которая может распознавать и генерировать текст (типа chatgpt).
Хоть я до сих пор в процессе размышления и споров с самим собой, но постоянно возвращаюсь к одному и тому же выводу: в текущем состоянии АИ/ИИ никакой психотерапии с компьютером или программой быть не может. Может быть что-то другое, наверняка в чем-то полезное и так же наверняка в чем-то рискованное или опасное. Но точно не психотерапия.
Для начала возьмем определение психотерапии как «особый вид межличностных отношений» или «метод психологической коррекции, осуществляемый психотерапевтом». В этих определениях уже есть психотерапевт как другой человек. Т.е. психотерапия — это не оторванные от отношений методики или теория. Сами отношения с другим человеком, которого учат в таких отношениях находиться, — это часть психотерапевтического процесса.
И вот тогда мы приходим к пока что самому, на мой взгляд, опасному искажению реальности: печатая промпт «представь, что ты психоаналитик с миллионом лет практики, и я твой клиент…» воспринимать LLM как человека.
Конечно, мало кто прямо на 100% не будет видеть человека в программе, но будет ли он(а) на 100% видеть в ней не-человека?
Или, будет ли АИ пытаться вести себя как человек, выдавать себя за человека? Если нет, то тогда «что ты такое и как тебя ведать?». Что за тип отношений мы можем построить и можем ли вообще? Насколько человек, обращающийся за советом, поддержкой, эмпатией к машине, понимает, что она на самом деле не думает, не чувствует, не переживает эмпатию, а просто очень круто подбирает близкие по смыслу и контексту слова?
А что с границами? Есть ли ограничения на обращения к LLM за консультациями? Есть ли ограничения по времени консультации? Если нет ограничения, и человек может пользоваться ЛЛМ всегда, не создает ли это ощущение «власти» над «терапевтом»? Я в любой момент могу тебя выключить, убрать в карман, не ответить, обозвать, проигнорировать и поступить так, как с человеком не поступил бы.
Будет ли человек потом пытаться воссоздать такую же манеру общения с другими людьми, как с ЛЛМ? LLM не сможет «обидеться», «разозлиться», потому что не может чувствовать. И человек будет это понимать, даже если ЛЛМ будет пытаться воспроизвести эти чувства.
Отсутствие границ может быть губительно для пограничной организации характера. Там, где терапией мы помогаем клиенту обрести свои границы, как сделает это LLM, если нет сеттинга, если ему можно говорить, что хочешь? За радостью от очень точных и, казалось бы, эмпатичных ответов следует разочарование и усугубление одиночества.
Контр-перенос? Вряд ли он доступен LLM. Чатгпт не будет внезапно клонить в сон в середине сессии, или не появится парадоксальное отвращение, когда пользователь будет рассказывать о чем-то совсем контекстуально не похожим на отвратительное.
Чем пользователь платит за такое взаимодействие, которое желает выдать за психотерапию? Насколько я могу ценить эти отношения, советы и интервенции за 20 долларов в месяц, ради которых я даже футболку и штаны не переодену?
А смещение контекстов? Вот в соседнем чате вы спрашивали LLM, как лучше пропатчить KDE под FreeBSD, или просили нарисовать белорусский трактор, но в стиле фурри, и как это повлияет на ваше «терапевтическое» общение? Как я буду относиться к программе, которая в одном окне меня развлекает, в другом учит варить борщ, а в третьем начнет поддерживать в мыслях уйти с работы?
Ну и даже технический момент: почти вся психотерапия в мире проходит либо очно, либо онлайн с картинкой, где я вижу психотерапевта. Где у него на фоне может упасть картина, проехать за окном мотоцикл, заорать ребенок, наблевать собака, там живой какой-то человек сидит. А с АИ попытки терапии сейчас — это текст. Сколько вы раз в жизни трактовали смску или сообщение в телеграме не так, как оно было задумано? Видели в точке в конце предложения агрессию?