В продолжение вчерашнего поста [1] про то, что большие генеративные модели вроде ChatGPT с блеском прошли тест Тьюринга. Поигравшись с тестом еще немного (как я писала, каждый может зайти [2] и попробовать убедить человека, что он не робот, или угадать, кто из его собеседников – машина), я нашла беспроигрышную стратегию, которая в 100% случаев позволяет определить, машина перед тобой или человек.
Более того, в ходе диалогов с другими желающими проверить себя и роботов, мне назвали еще две такие стратегии. Обе рабочие, я проверила. Такие диалоги начинаются, когда оба участника понимают, что говорят с человеком. Я сейчас не буду рассказывать, как можно вычислить роботов, а то будет неинтересно, но факт тот, что декларируемый в статье якобы успех машин связан не столько с интеллектуальной мощью роботов, сколько с доверчивостью и неопытностью людей.
Чуть-чуть практики – и отличить человека от машины становится, простите за невольный каламбур, делом техники. Например, много времени проводящие в комментариях телеграм-каналов, немедленно вычисляют комментарии ботов. Для тех, кто не в курсе, они уже давно пишутся при помощи ИИ и, на первый взгляд, кажутся вполне осмысленными.
Да, ясно, что со временем ИИ дообучат, и он перестанет прокалываться так, как он это делает сейчас. И тест Тьюринга останется только как статья в Википедии, а не как практический инструмент – хотя, к слову, он никогда им и не был. Алан Тьюринг придумал его скорее как философский мысленный эксперимент. В 1980 году философ Джон Сёрл придумал аналогичный «тест» – китайскую комнату, которая, кстати, весьма точно описывает современные LLM.
Суть концепции Сёрла проста: представьте, что вы сидите в комнате, полной китайских иероглифов. Вы не знаете китайского, но у вас есть подробная инструкция: если пришёл такой-то значок, положить вот такой иероглиф, а если другой – то этот. Вы честно следуете алгоритму, и в итоге из комнаты выходит вполне себе осмысленный текст на китайском. Похоже на ChatGPT, верно? Только вот у нее не алгоритмы, а сложные методы обучения на гигантской выборке китайских и не-китайских текстов.
И хотя может оказаться, что китайская комната в пределе – это и есть сознание, пока до этого еще далеко. И, в любом случае, ни тест Тьюринга, ни китайская комната не были способами верификации, кто перед нами: машина или человек. Ключевой вопрос, на который они пытались ответить – могут ли машины имитировать человека.
И на этот вопрос, кажется, ответ уже получен. Хотя при внимательном рассмотрении и большом запасе времени (пока) нейросети не могут выдать себя за людей, если общение короткое (в стаье, к слову, было 5 мин) и касается каких-то несложных бытовых вопросов или, наоборот, связано с получением неких специальных данных (это, кстати, был хинт относительно стратегий вычислить робота), не понять, что ты общаешься с машиной, можно очень легко.
И этот факт сам по себе представляет проблему. Потому что ИИ может не только хорошо имитировать человека, но еще и отлично убеждать. Что открывает богатые возможности для манипулирования и просто банального мошенничества. И это мы еще не обсуждаем проблему неоправданного доверия к ИИ, так как он существенно облегчает поиск информации. И вместо того, чтобы возиться с поисковиком, читать источники, сравнивать их, анализировать, люди пишут: «ChatGPT/Grok/вставить нужное, скажи-ка мне, как оно вот тут и тут на самом деле». И, за несколько секунд получив краткую и убедительно выглядящую выжимку, принимают ее за истину. Причем так делают как обычные люди, так и обладатели академических степеней. Как всегда, лимбическая система играет с нами в игры и выигрывает, делая легкое более привлекательным.
Так что ИИ не нужно сознание для того, чтобы нагадить человечеству. Благодаря базовой мозговой установке на облегчение всего, что нам приходится делать, мы очень успешно воспользуемся даже несовершенным ИИ для того, чтобы еще меньше вникать в причины и следствия происходящего.