🐰 Бэкстейдж со съемо
к ролика PREY 🐰
Я уже как-то упоминал, что эта идея зрела у меня в голове довольно давно. Вы даже можете заметить зайчиху-ниндз
я в самом первом ролике на этом канале — такая вот пасхалочка. Но я долго не мог воплотить это в отдельный ролик — технологии банально не позволяли. Нейросети вроде SDXL, а потом и Flux просто не могли выдать нужный результат. Сцены получались вообще не такие, как я хотел. Десятки попыток генерации, а на выходе — разочарование, обёрнутое в шум и артефакты.
🎨 Генерация
И тут с двух ног врывается ChatGPT, сходу выдавая такие точные результаты, что я натурально не переставал охреневать от происходящего на протяжении всей работы. Я просто сгенерил по отдельности лес, зайчиху, оборотня, а потом в каждый новый промпт закидывал их как референсы и писал: «Те же персонажи, то же место действия, тот же стиль и атмосфера». И, чёрт возьми, он меня понимал!
Конечно, без челленджей не обошлось. Например, сцена с нападением зайчихи на оборотня — нейросеть упорно не хотела генерить нужные позы. Тогда я подумал: «А что если…» — и добавил в референсы картинки из интернета с нужными ракурсами, написав в промпте: «Поза зайчихи-ниндзя — как на картинке 1, поза оборотня — как на картинке 2». И этот сукин сын снова всё понял! Как будто мы с ним на одной волне.
В общем, я получил дикое удовольствие от работы с генератором изображений в ChatGPT. На сегодняшний день — это, пожалуй, самый мощный инструмент по части понимания промпта, композиции, ракурсов и прочего визуального шаманства.
🎬 Анимация
Когда сцены были готовы, пришло время анимации. Сначала, разумеется, я пошёл в Sora. И результат был… ошеломительно плох. Настолько плох, что я даже всерьёз подумал, что проблема не в нейросети, а в моих клешнях. После десятка попыток я психанул и вернулся в свой любимый Kling 1.6 — на мой взгляд, на сегодня он топчик для анимации изображений.
Но и тут не всё пошло по плану. Первая большая проблема — анимация спрыгивания зайчихи с дерева. Она не прыгала — она парила в воздухе, взлетала в небеса, зависала, как одержимая демонами. Только с пятой попытки она наконец-то приземлилась.
Вторая проблема — сцена, где зайчиха входит в куб из жидкого металла. Нейросеть просто отказывалась делать то, что я просил. Тогда я пошёл ва-банк: перевернул картинку набок и написал в промпте что-то типа «рука окунается в воду». И ЭТО СРАБОТАЛО! Видимо, мозги Kling ломались от вертикального жидкого металла, а вот с горизонтальным он, как ни странно, справился.
📺 Монтаж
Ну а дальше — уже дело техники и многолетнего опыта ручной работы: монтаж под музычку, цветокор, добавление визуальных и звуковых плюшек. Тут уже всё честно — ловкость рук и никакого мошенничества.
Сколько часов ушло на всё про всё? А хрен его знает! Но, думаю, где-то около 20 часов.
Такой вот творческий процесс: нейросети, баги, шаманство с бубном — и немного техномагии.
🤔 И что?
Нейросети для генерации изображений уже почти (!) достигли пика. А вот с видео — всё ещё туговато. До полноценной реализации задуманного там пока далеко. Но это вопрос времени: думаю, через пару лет нейронки для видео догонят генераторы картинок. И вот тогда — заживём, ух!
#AI_Pics #AI_Video