Нейросетевое
BOOKER - Мертвый. Сделано в FusionBrain. Смонтировано в CapCut.
Крч, я перед тем как выложить видео - хотел его апскельнуть, но мой ноут выдал цифру в 1д 17ч 00м и разогрелся до 85 градусов при попытке провернуть это через app TopazAi, а ноут мой мне дорог.
Остальные нейросетки, что попались в мои гугл запросы, обладая столь нужной мне функцией - либо имеют ватермарку, либо ограничение на триал в количество секунд меньшее, чем есть в этом клипе.
Хотя какая-то из (уже и не вспомню название) предлагала триал аж в месяц, но спасибо деду.
Поэтому вот он я и “Booker - Мертвый” созданный дуэтом с нейросеткой от сбера - fusionbrain (оно же Кандинский, какая-то там версия).
Хрен его знает точно, но какое-то время назад я заходил на их сайт и НЕ видел там вкладки “Видео”.
А когда увидел (дней 6 назад) решил потестить и посмотреть, че там с ней и как. До фьюженбрейна я потраил, аж на бесплатные 30 секунд генерации/обработки видео, нейросеть runway, которая показалась мне более интересной, но платной и без одной фишки, которую я не видел больше нигде.
Смотрите, фьюжебрейн (на данный момент) генерирует два типа видео, собственно - видео (7секунд, вроде) и анимация - аж 16.
Видео генерится одним шматком и кажется абсолютно бестолковой пятой лапой - движения в кадре почти нет, а при должном запросе такой же уровень можно получить в анимации, но сразу на 16 секунд и
(!!!)
Может это есть у всех, а я слепой, но у фьюженбрейна есть прикольное дополнение к простой генерации анимации по вашему запросу
(впрочем, в кадре никто так же не будет бегать, даже если вы так и напишите “пусть футболист бежит за мячем”)
так вот генерация анимации делится на 4 сцены - по 4 секунды каждая.
Ни больше, ни меньше. Прибавить, разделить, объединить вы не сможете.
Зато есть офигительная функция - движение камеры по сцене. При чем у каждой сцены можно выбрать своё движение камеры.
Вы можете выбрать (вроде как) 16 прессетов движения а ля - вперед назад, вверх вниз, вокруг оси, зум ин, зум аут и чет там еще.
Не смотря на рамки и частый конфликт запроса и движения (человек ровно в центре+движение камеры вокруг центра - три человека появляющиеся один за другим в разных позах и местах) функция охуенная, правда не надейтесь, что вы сможете шить видео без шрамов.
Нейросеть не запоминает то, что генерировала только что. Если сгенерировать 16 секунд, взять последнюю сцену, перенести вперед, придумать и закинуть оставшиеся три - сцена которую вы перенесли не трогая промт - будет сгенерированна по запросу заново и будет отличаться от той, что заканчивала ваши первые 16 секунд.
К слову, зуб даю - это будет одна из функций премиума, ибо (как мне видится) технически это сделать не так и сложно, ведь нейросеть сама делит видео на куски в 4 секунды и тебе нужно лишь подгрузить один из них в кэш.
Но повторюсь, это всё равно пиздатый функционал в целом, и движение камеры в частности.
ОДНАКО Нейросеть (пока?) не слушается (меня?) и не особо реагирует на попытки задать движение и скорость камеры самостоятельно. Движение иногда багует, двигается рывками и запарывает вам блять как всегда - самый лучший вариант, что вы сидите и генерите уже часа два.
При этом уж не знаю зачем, но нейросеть отчаянно пиздит вкидывая тебе в примеры промта “бабушка на велосипеде, 2/4/8к”.
Меж тем реальность
Видео в 16:9 - 640/384. Анимация в 16:9 - 854/480.
Чтобы вы не вписали (на данный момент) - разницы не будет, совсем не будет. Да, анимация ваша пикселить по черному не будет, но как только вы откроете рядом по настоящему четкое видео, разница будет видна сильно, даже просто с честными 1920/1080.
(я проверял на нейросетях с ватермарками прогоняя кусок в несколько секунд и разница огромна кнш)
Мне показалось, что на английском языке результат больше соответствует вашему запросу, но это может быть просто мой баг. У меня соотношение где-то 3/5 инглиш и 2/5 рашен.
Результат вы видите.
На днях выложу на ютуб и еще раз вас этим заебу