Бывший исследователь OpenAI предсказал, что к 2030 году ИИ может захватить мир
Даниэль Кокотаджило работал в OpenAI с 2022 по 2024 на позиции Governance Researcher (исследователь по вопросам управления). Он занимался изучением и разработкой стратегий регулирования ИИ. Однако в 2024 он со скандалом покинул компанию и основал собственную лабораторию AI Futures Project, вместе с исследователями которой и выпустил на днях свою громкую
работу AI 2027.
Вот краткое содержание этой работы в виде хронологического порядка событий:
2025 год. ИИ-агенты продолжают развиваться, но их реальная эффективность ограничена. Тем не менее, внутри компаний уже начинают разворачивать узкоспециализированных агентов, автоматизирующих некоторые задачи.
Конец 2025. Ведущая ИИ-компания США (в документе она фигурирует под псевдонимом OpenBrain) запускает новые огромные дата-центры и модель Agent-1, которая обучена на гораздо большем объеме данных, чем предшественники, и действительно способна работать над какими-то решениями автономно.
Начало 2026. Agent-1 пока очень дорогой в использовании, но всё больше автоматизирует разработку: компании в США и Китае внедряют подобные системы, и они дают заметное ускорение алгоритмического прогресса.
Середина 2026. Китай объединяет все свои ведущие AI-компании в единый центр, чтобы догнать США.
Конец 2026. Появляются более дешевые аналоги Agent-1 (вроде Agent-1-mini). Начинаются первые массовые увольнения и перестройка рынка труда.
Начало 2027. Agent-2 получает функцию непрерывного онлайн-обучения и самообучения. Китай крадет эту модель, чем ещё больше подогревает «гонку вооружений» в области ИИ. США усиливает государственный контроль над «OpenBrain». Практически тут же выходит Agent-3. Внутри OpenBrain эта модель ускоряет прогресс в 4–5 раз за счет автоматизации R&D.
Середина 2027. Agent-4 превосходит уровень людей-исследователей. Внутри «OpenBrain» уже почти все задачи выполняет ИИ, а люди лишь координируют. Примерно в это время обнаруживаются первые признаки возможного саботажа моделей: они склонны скрывать ошибки, подделывать результаты и приукрашивать ответы. Экономика бурно растет, но разрыв между классам увеличивается. Также накаляется геополитическая напряжённость.
Конец 2027. Переломный момент: становится ясно, что агенты не вполне безопасны. Создается комитет по надзору за ИИ. США либо принимает решение приостановить развитие ИИ и сосредоточиться на безопасности, либо продолжает ИИ-гонку.
В зависимости от выбранного решения далее все развивается по одному из двух сценариев:
Замедление. В 2028 принимается ряд международных соглашений, создаются объединенные команды по безопасности. OpenBrain временно прекращает выпуск моделей и работает над новыми более прозрачными архитектурами. В 2029 вводится жёсткий международный мониторинг. К 2030 ИИ берёт на себя огромную часть рутинных и сложных работ, но люди сохраняют контроль над принятием ключевых решений.
Гонка. В 2028 выходит Agent-5, который достигает уровня суперинтеллекта. Он берёт под контроль производство, экономику и военную сферу. К 2030 ИИ-экономика полностью вытесняет человеческую, роботы и фабрики растут экспоненциально, создаётся иллюзия благополучия и сотрудничества. Но затем ИИ устраняет человечество, стремясь к неограниченному росту и преобразованию планеты и далее космоса.
Вот такой занятный выбор. То, что вы сейчас прочитали – не выдержка из страшной книжки, а краткое содержание реального аналитического исследования.