Я решил вместе с о3 порассуждать о том, куда катится — и ещё покатится — визуальный контент.
Ниже:
* полная «лестница» того, что уже случилось; * пять надёжных (и немного дерзких) гипотез о 2025‑2033 годах;
I. Что уже позади
Наскальная живопись — коллективная RAM‑память племени.
Плоский рисунок — переносное знание, первые приёмы перспективы.
Гиперреал маслом — художник как «рендер‑движок» эпохи Ренессанса.
Фотография (1839) — химия фиксирует свет без руки мастера.
Кино (с 1895) — монтаж задаёт грамматику времени.
CGI (1970‑е → 2000‑е) — компьютер берёт на себя освещение, текстуры.
Генеративное фото/видео (2022‑2025) — Midjourney, Sora: кадр = текстовый запрос.
Генеративное 3D (с 2023) — NeRF и Gaussian Splatting выращивают объёмные сцены в реальном времени.
II. Куда движемся (2025‑2033)
1. Генеративные 4D‑сцены для XR (1‑3 года)
Модели NeRF, Gaussian Splatting и им подобные будут создавать интерактивные объёмные «ролики», которые можно обходить с любых углов в очках Vision Pro, Quest 4 и др. Уже сегодня такие сцены рендерятся в реальном времени, а Light Field Lab показала плиточные панели SolidLight с плотностью 10 млрд px/м² — железо готово. Плавный шаг «фото → видео → 3D → 4D».
2. Персонализированные AI‑фильмы и игры (2‑4 года)
Сюжет, монтаж, музыка и диалоги подстраиваются под зрителя «на лету». В играх NPC уже реагируют на речь через LLM‑агентов; следующий шаг — полнометражные ленты, где сцены и финал меняются по реакциям аудитории. Аналитики называют 2026 годом первого AI‑фильма, а Nvidia ACE демонстрирует говорящих NPC в коммерческих проектах.
3. Цифровые двойники («Omni‑Human», 3‑5 лет)
Гиперреалистичные аватары синхронизируются с голосом и жестами и становятся интерфейсом брендов и людей: один раз «клонировал» — дальше twin участвует в рекламе, Zoom, играх. Рынок виртуальных инфлюенсеров уже растёт, Vogue Business фиксирует всплеск заказов, а Unscript.ai автоматизирует процесс.
4. Мультимодальные ощущения (4‑6 лет)
AI будет не только «рисовать» кадр, но и синтезировать тактильные, температурные, вибро‑ и звуковые паттерны, управляя перчатками, костюмами и ароматическими картриджами через единую модель среды. Перчатки TouchDIVER уже совмещают силу, текстуру и тепло; исследования показывают хаптики с вибрацией, растяжением кожи и запахом.
5. Нейроадаптивные медиа (BCI‑loop, 5‑8 лет)
Контент начнёт реагировать на вашу электро‑ или опто‑энцефалограмму: фильм ускоряется, когда внимание падает, игра усиливает ужас, когда адреналин снижается. Synchron уже связала имплантат с Vision Pro, а на GTC‑2025 показала BCI + Nvidia Holoscan. Как только сигнал станет стабильным, замкнуть его на генеративную модель — вопрос интеграции.
Почему именно эти шаги логичны
Насыщение — качество синтетики сравнялось с фото/видео, дефицитом стали объёмность и интерактивность → NeRF/GS.
Гонка внимания — персонализация → погружение → эмоция; AI‑игры/фильмы дают максимальный dwell‑time.
Порог создания падает: LLM‑агенты уже пишут код и шейдеры; XR‑контент скоро так же дешёв, как текстовый запрос.
Железо — Vision Pro, Quest 4, Snapdragon XR‑3 рендерят NeRF on‑device; SolidLight готовит «экраны‑после‑экранов».
Этика и регуляторика — двойники и BCI поднимают вопросы приватности, но именно медтех и бренды первыми валидируют рынок дорогих новинок.