Как создать мультик в Нейросетях: Простой гайд для начинающих

Информация о загрузке и деталях видео Как создать мультик в Нейросетях: Простой гайд для начинающих
Автор:
Сергей БелякДата публикации:
04.04.2025Просмотров:
242KОписание:
►Присоединяйтесь в наш клуб Нейротворцов - ► Как оплачивать нейросети из РФ - ► Бот со всеми нейросетями - ► Мой Телеграм - ► Мой Инстаграм - ►Ссылки и материалы с видео - Привет нейротворцы! Хотите узнать, как создать мультик в нейросетях? В этом видео — простой гайд для начинающих, где я шаг за шагом покажу, как сделать мультик с нуля с помощью ИИ. Мы используем ChatGPT для создания идеи и сценария, Midjourney — для генерации персонажей, Kling AI — для анимации и видео, а ElevenLabs — для озвучки. Если ты давно хотел попробовать создание мультфильма с помощью нейросетей, но не знал, с чего начать — это видео для тебя! Узнай, как сделать мультик в нейросетях быстро и без навыков в анимации. Идеально подходит как гайд для начинающих!
Транскрибация видео
Привет, нейротворцы!
Наконец настало то время, когда мы можем полностью создать мультфильм, используя только нейросети.
Ну и еще немного наших мозгов.
А это идея, сценарий, раскадровку, видео с сохранением стилистики и персонажа, озвучка, диалоги, звуки и музыка.
И все это я говорю не для того, чтобы нагнать пафоса на нейросети, какие они классные, делают там за 5 минут и так далее.
А потому что я сейчас на конкретном примере, на конкретном мультфильме, который я сделал на 100% в нейросетях, покажу и расскажу, как его создать.
И вот сейчас выведу его на экран, чтобы вы понимали, о чем я.
Это Филимон.
Он носит огромные круглые очки.
И каждый день для него в школе как испытание.
Над ним насмехались все.
Но в свой день рождения все изменилось.
Подарок.
Маленький щенок.
Новый друг.
Они стали неразлучны.
Грусть сменилась радостью.
«Ты мой лучший друг!» Когда щенок подрос, он встал на защиту Филимона.
И те, кто когда-то обижали, вдруг замолчали.
Теперь меня есть кому защитить.
И я больше не боюсь.
С тех пор Филя не один.
Он с другом.
И этого оказалось достаточно, чтобы мир стал ярче.
все что вы сейчас увидели и услышаны сделано с помощью небольшого количества нейронов поэтому не тянем резину погнали разбираться и первое с чего начинается создание любого мультика любого видео того же даже релса это с идеи нам нужно придумать идею которую мы потом разгоним в сценарий для этого
Я нашел, это не специально получилось, на просторах чата GPT, нашел GPTS-ку, бот GPTS, который нам как раз таки и придумывает идею и дальше помогает нам ее разгонять.
То есть помимо того, что он нам придумывает идею нашего мультика, он нам прописывает и персонажа, во что он одет, прописывает его арку вот эту вот мультяшную, чтобы у него была история.
Потому что мультик без истории, его будет неинтересно смотреть.
Если вы внимательно смотрели мой мультик, то у него там есть
Начало, описание героя, его проблема, потом вот завязка-развязка и в конце решение, то что они подружились и все хорошо, все классно.
Вот этот бот вам поможет это сделать.
Ссылку на него я оставлю.
Если что, он работает только через официальный сайт чата GPT.
Если у вас еще нет аккаунта, то создайте себе аккаунт.
Единственное, я не помню, работает ли он на бесплатном тарифе.
GPT-ский вообще запускается на бесплатном тарифе или нет?
По-моему, нет.
Если нет, тогда вам необходимо будет взять подписку «плюс».
Если вы из России, то, скорее всего, вы хрена платите подписку, потому что сами понимаете почему.
Вот, здесь я где-нибудь появлю видео, у меня есть видео, как можно быстро создать карту Visa или MasterCard и оплачивать ей нейронки и вообще любые другие сервисы.
Запускаем.
Запускаете этого бота, и он у вас потихоньку начнет выпытывать информацию.
Он у вас будет выпытывать, вы будете отвечать на нее, и по идее у вас создастся история, идея, скорее всего, в первую очередь, которую потом мы превратим, ну, точнее, мы сейчас не будем превращать, у меня уже все сделано, она у меня превратилась в сценарий.
То есть я разгонял этот же бот, но в другом диалоге, и у меня вот создался сценарий, идея, мультика, та, которую вы видели.
Дальше я ее загрузил в новый и начал...
разгонять в сценарий.
Почему я все не разгонял в одном боте, а перенес на второго?
Потому что я очень долго в одном диалоге с чатом GPT, именно с этим ботом, я разгонял вообще идеи.
Я не знаю, я там, наверное, несколько десятков их перебрал, и когда у нас много-много-много диалогов, он начинает уже потом
немного отходить от своего промта, забитого, который у него есть по умолчанию, и начинает уже немножко хреновастенько писать.
Поэтому я скопировал то, что у нас получилось в прошлом, и вставил сюда, чтобы с чистого листа по тому промту, который у него есть, он мне продолжил идею превращать уже в сценарий.
Здесь я на всякий случай упомянул то, что мне нужна где-то там закадровая озвучка,
И диалоги персонажей, небольшие диалоги персонажей.
То есть вы слышали, что у нас была закадровая озвучка, был диктор, который озвучивал, и было несколько маленьких диалогов персонажей.
Это даже диалогом не назвать, а там, где они говорили.
Дальше будет два способа, как накинуть на них как раз-таки липсинки.
Там один очень интересный, когда нужно себя снимать.
И все, я пошел его дальше разгонять.
Он мне прописал сюжет, он мне прописал закадровый текст диктора, который я дальше здесь еще местами перегенерировал, тот, который мне не нравится.
Диалоги персонажей, которые я тоже некоторые перегенерировал.
Прописал мне кадры.
И прямо в этом же чате я начал делать небольшие уже корректировки с его помощью.
К примеру, как там, придумай мне имя другое, потому что он мне начал придумывать американские, да, зарубежные имена, которые, ну, скорее всего, к нам не подойдут.
И он мне начал уже накидывать такие русские по типу Тихона.
Блин, будет сын, назову его Тихон.
Офигенное имя.
Но для мультика я выбрал Филимон, по-моему, если я не ошибаюсь.
Филя, да, Филимон, такое имя.
И дальше попросил его написать раскадровку этого сценария, в котором будут крупности кадра, в котором будет внешность, освещение, цвета, одежда, локация, погода, чтобы он учитывал стилистику, то что это будет мультик в стиле Диснея.
И вот еще такой важный момент, который тебе нужно учитывать.
Я его попросил, чтобы мне потом руками, потому что мы же люди ленивые, которые работают с нейросетями, чтобы руками каждый раз в промте одно и то же не прописывать, я попросил его в каждом промте напиши мне одинаковую внешность, описание героя и другие параметры, которые я здесь указал.
Это очень важно, когда мы дальше будем генерировать изображение, потому что нам в каждом промте нужно будет прописывать стилистику, описание героя, чтобы у нас получалось максимально все похоже.
В этом же диалоге он мне прописал подробно каждую сцену.
Около 6 сцен где-то получилось.
Если не ошибаюсь, попросил его еще несколько добавить.
То есть я, естественно, перечитал это все, посмотрел, чего как будто бы не хватает на первое время, попросил его еще дописать мне несколько сцен.
И дальше я попросил под каждую сцену прописать мне подробный пром для «Миджорни».
чтобы в каждом промте у меня сохранялась вот эта вот стилистика, описание героя, цвета и так далее, и так далее.
То есть, может поставить на паузу и почитать то, что я у него запросил.
Как я и говорил, мы люди ленивые, чтобы промты ручками не писать.
Он нам это все подробно, под каждую сцену, которую он до этого прописал, он нам написал.
Мне остается только это все скопировать.
Если вы не знаете английский язык, как и я,
то переводчик вам в помощь, копируем промпт, загружаем его в переводчик, а лучше в чат GPT на самом деле, потому что чат GPT лучше переводит, он учитывает контекст и переводит немного по-другому, а стандартные переводчики такие, немножко туповатые.
Скажем так, все, копируем промпт и идем дальше в чат GPT генерировать изображение.
И следующий пункт, к которому мы пришли, это нам нужно вывести персонажа одного и сгенерировать изображение, первое изображение первых наших кадров, которые мы потом будем оживлять.
Как ты можешь видеть, я взял тот же промт, который я тебе показал, я его даже не видоизменял и несколько раз сгенерировал разных персонажей.
Если не ошибаюсь, я взял вот этого персонажа.
То есть наша задача выбрать одного персонажа, которого мы потом будем постоянно-постоянно генерировать.
Мне вот понравился вот этот персонаж.
дальше нам нужно его сохранить и вот еще одна рекомендация которую запомни если в кадре есть другие какие-то люди персонажи неважно нам нужно их обрезать если их кадре нету то замечательно просто берем эту картинку и дальше будем ее использовать но так как у меня здесь есть ребята
то я обрезал нашего героя, которого буду постоянно генерировать, чтобы их там не было.
Потому что потом, когда у нас будет генерация, которую он будет брать за основу, он нам будет также ребят каких-то этих рисовать, а нам это не надо.
Поэтому либо картинка без никого, у нас один только герой, чтобы хорошо было видно лицо, хорошо было видно, в чем он одет, его внешность, либо вот так вот просто обрезаем.
Что мы дальше делаем с этим персонажем, которого мы сохранили, которого хотим использовать во всех наших мультиках?
Вот это строка ввода промпта.
Здесь мы подгружаем нашего персонажа.
Вот он у меня, если я не ошибаюсь.
И, запоминай, магия, вот здесь есть такой значочек маленький, незаметный, человечка.
Это current reference, крев.
То есть что это делает?
Когда мы на него нажмем...
все последующие генерации с персонажем, он их будет делать, стараться делать максимально похожим на исходник, который мы ему скинули.
И вот, как ты можешь видеть, вот начиная с этого изображения, то есть я вывел сначала его, загрузил, брал промт, как раз таки, следующие промты, которые у меня здесь есть, переводил, где-то, возможно, местами немножко корректировал их, то есть тоже все равно иногда читай, что там написано.
Когда очень большой промт, когда у него куча-куча всего написано,
Есть очень большая вероятность, что он начнет путаться.
Я дальше покажу, где он путается.
Вводишь промп и генерируешь следующих персонажей.
Вот я начал генерировать следующих персонажей, но, как ты можешь видеть, у меня начинает отличаться немного здесь атмосфера.
То есть здесь такой холодный свет, холодный свет, здесь более такой...
золотой вечерний как будто бы я по генерировал по генерировал и вспомнил что есть у нас еще одна замечать вот и ваш вид что она все отличается что у нас есть еще одна замечательная кнопочка вот если можешь видеть здесь у меня был один персонаж одна картинка здесь теперь их 2 что это значит
Теперь, помимо того, что он у меня считывает внешность персонажа, которого я взял за основу, я нажал вот сюда еще на скрепку.
Это у нас параметр срев.
То есть, что он делает?
Он сохраняет нам стилистику.
То есть, по одному параметру, по человечку, он нам сохраняет нашего персонажа, а по второму параметру он еще изображение подтягивает стилистику.
И как ты можешь видеть дальше?
Дальше у меня стилистика плюс-минус везде одинаковая и особо не разнится.
По поводу персонажа, да, периодически простреливает то, что может быть не похож.
Вроде бы и похож, но вроде не похож.
Вот здесь нам уже нужно сидеть, иногда муторно выбирать, какие кадры нам нравятся, какие нам не нравятся.
Где персонаж похож, а где немного не похож.
мы плавно подошли к тому то что я говорил совсем недавно то что когда у нас в промте очень много разных деталей миджорни может путаться то есть он не должен был рисовать паренька с собачкой но из-за того то что у нас было прописано и много чего прописано
То, что у него на свитере должен быть зайчик, ты можешь видеть, у него везде зайчик, если не заметил.
Из-за того, что добавилась куча параметров, он мне начал рисовать вместо собачки зайчика периодически, собачку с ушками зайчика, а зайчика здесь не рисовал.
То есть он начал путаться.
Поэтому мне пришлось его переодеть немножко в другой свитер.
И тогда у нас упоминания зайца и собаки в одном предложении не было.
И у нас пошло плюс-минус уже нормально.
И вот вам еще одна рекомендация, чтобы вы не совершали моих ошибок, чтобы вам проще было потом генерировать и не переделывать изображение, как это получилось у меня.
Когда вы берете персонажа за основу, берите его в полный рост, чтобы это был такой общий кадр, чтобы персонажа было видно нормально, потому что я взял в таком...
В среднем, полукрупном, я бы даже сказал, плане.
И он у меня все изображения практически так и рисует.
То есть мне их приходится потом расширять.
Я сейчас покажу, как расширять.
Если ты не понимаешь в планах, то мне чат GPT, специально я в нем нарисовал изображение.
Сейчас его выведу здесь.
Вот, заскрини его себе и посмотри.
Во-первых, начнешь разбираться.
Во-вторых, это тебе пригодится в генерации изображений, в генерации планов.
Как я и сказал, это изображение нарисовал ChatGPT.
Я сейчас тоже по нему готовлю ролик, и возможно, когда ты это смотришь, ролик уже вышел.
Если вот слева или справа сверху появится, то посмотри его обязательно, потому что новое обновление ChatGPT, которое сделали, это просто взрыв мозга.
То есть там практически все можно делать с изображениями.
Они просто взяли и перевернули индустрию создания и редактирования изображений.
Если же все-таки у вас получилось сгенерировать плюс-минус такое изображение, а вам нужно его, к примеру, в полный рост расширить, то не переживайте, это также можно здесь сделать в Midjourney.
Для этого сохраните изображение, перейдите во вкладку Edit, загрузите сюда свою картинку.
Дальше ползунком скейла мы отдаляем, насколько нам необходимо, насколько мы хотим его отдалить.
И в промпте пишем то, что нам необходимо дорисовать.
То есть здесь уже не нужно описывать стилистику, не нужно описывать персонажа.
Мы просто кратко пишем, что ему нужно дорисовать.
То есть атмосфера, которая вокруг этого нашего персонажа.
Я, конечно же, владею магией монтажа, уже все подрезал и, к примеру, в промте у себя написал, школьный класс, мальчик сидит за партой.
И оно у меня отдалилось.
Класс, класс.
Еще одна фишка, которая здесь есть, это ластик.
То есть вы можете ластиком выделить то, что вам не нравится и, к примеру, нажать удалить, либо перерисовать в другой объект.
И таким образом редактировать, перегенерировать какие-то детальки, чтобы вывести те планы.
Если вы такой задрот, такой же плюс-минус, как и я, то я там до каждой детальки докапываюсь, то вы можете вот таким методом перегенерации изменять то, что вам не нравится.
Есть еще классный инструмент, который может вам облегчить.
Это Select.
То есть вы нажимаете на него и выбираете тот объект, который ему выделить.
То есть это такое умное выделение.
И он сразу понял, что это очки.
Дальше вы можете либо полностью стереть очки и вписать, на что вам их заменить, или просто удалить очки, если они вам не нужны.
Либо нажать сюда, и он удалит все, что не выделено.
Это лучше будет видно на персонаже, и дальше мы можем ему сгенерировать совершенно другой задний фон.
И вот таким образом сидим часик, второй, не знаю, сколько у вас это займет, у меня несколько часов точно заняло, генерируем каждый кадр к каждой сцене.
Обязательно прикрепляем персонажа, обязательно прикрепляем персонажа, чтобы он стиль оттуда считывал.
И в каждом промте, в каждом мы указываем стилистику, то, что это диснеевское, описание нашего персонажа, атмосферу, все-все-все то, что у нас прописано, чтобы у нас было максимально четко и похоже.
То, что нравится, мы все сохраняем.
Следующее, что я вам бы рекомендовал бы, это создать сториборд.
Неважно, где вы его создадите, в Мира, к примеру, как я, если что, она бесплатная, или в Фигме.
Зачем это надо?
Чтобы вы могли вот так вот расставить поочередности все ваши кадры, которые вы сгенерировали.
Расставить, к примеру, как у меня здесь, реплики, это закадровая озвучка, чтобы было понятно, что, куда, где ляжет.
Чтобы все было у вас по пунктикам красиво, чтобы не было каши.
Если вы создаете какой-то маленький мультик на 3-4 кадра, скорее всего, он нафиг не надо.
Но если вы создаете уже что-то немножко подлиннее, то вот рекомендация создайте storyboard.
Здесь вы можете накидывать разные кадры, выбирать, смотреть, подходит ли оно вам по цвету, подходит ли оно вам вообще по крупностям.
То есть нам желательно, чтобы мультик у нас не был одинаковый везде.
То есть здесь вот, к примеру, крупный максимальный план, здесь у нас общий максимальный план.
Ну и естественно тоже не без греха, у нас здесь есть плюс-минус какие-то одинаковые.
Но это я, потому что уже в 5 утра вот так вот.
С такими вот глазами сидел, его создавал.
Думаю, те, кто творцы, создают видосы или креативят, они знают, что такое это, добить проект до конца.
Ну вот хочется, надо, и там уже 5 утра, и ты его делаешь.
Поэтому вот мой совет, в мира хотя бы зарегистрируйтесь, он бесплатный, и создавайте себе такой вот сториборд, на который вы можете накидывать и корректировать, и предварительно, можно сказать, видеть все ваши кадры, которые дальше, сейчас именно, мы будем оживлять.
Кстати, лайфхак.
У меня, к примеру, изображения получились качественные, детализированные.
Но если у вас изображения не очень хорошего качества получились, вы их можете проапскейлить.
Где именно?
А именно в Крео.
Я ей постоянно пользуюсь.
Что такое апскейл?
У меня просто были комментарии, говори по русским языком.
Это увеличение разрешения нашего изображения.
То есть если оно у нас раньше было 1000 пикселей на 1000 пикселей, то можно сделать его 2000 пикселей на 2000 пикселей или еще больше.
И плюс у нас увеличивается детализация.
Если, к примеру, здесь присмотреться, я вот сейчас лифт приближу, то есть с левой стороны у нас такое все размытое, с правой стороны у нас уже более детализированное.
Вот поэтому если у вас изображения получаются не совсем детализированные, вы можете их улучшить.
И теперь переходим к моему самому любимому, а именно созданию видео.
Или как вы еще можете услышать на просторах интернета, это оживлению изображений персонажей или создание анимации.
Если вам интересна тема создания видео, то рекомендую присоединиться в наш клуб нейротворцов.
Это большое сообщество людей, которые создают контент в нейронках.
У нас есть уроки, наверное, по всем нормальным нейронкам, которые можно использовать в работе.
Куча фишек и тонкостей с ними для создания видео.
Я туда даже добавил бесплатный безлимитный генератор изображений на флаксе, чтобы ребята, которые в клубе, могли генерировать изображения и экономить на подписках.
А через пару дней после записи этого видео буду проводить мастер-класс по созданию 3D-видео с настоящей продукцией и вещами.
Но только не в 3D, а с помощью нейросетей.
Поэтому, если хотите с нуля освоить создание видео изображений в нейронках или прокачать свой скилл, присоединяйтесь к нам в клуб нейротворцов.
Ссылку оставлю в описании.
Итак, давай теперь оживим весь наш мультик.
Весь мультик я оживлял в нейросети Клинк.
Ивангую.
Сейчас набегут люди и просто скажут, а, есть же там какая-то китайская нейронка, есть же Сора и тому подобное.
Ребят, все было перепробовано.
И именно вот под эту задачу, под этот мультик, самое лучшее отработал Клинк.
Потому что он, а, сохраняет хорошо качество изображения, б, делает прогнозируемые результаты.
Мне не нужно по 10 тысяч раз перегенерировать.
Как вы можете видеть по истории справа,
Кадры сделаны либо с первого раза, либо со второго раза.
Для того, чтобы оживить, нам нужно загрузить наше изображение, которое мы хотим оживлять.
Дальше прописать промт.
Промты я советую писать максимально короткие.
Просто описать те действия, те базовые действия, которые нужно выполнить персонажу.
То есть вот здесь ты можешь видеть промты, которые я вводил.
То есть там «мальчик идет»,
Хулиганы там на него пальцами тыкают, мальчик счастливый там держит щенка.
То есть не нужно много описывать.
Если добавите много движений, то есть вероятность, что получится каша.
Также не старайтесь добиться от него жесткой динамики, чтобы он там бегал, прыгал, фейерверки, взрывы и так далее.
Получится у вас каша.
К сожалению, в данном случае он вам нормально здесь не нарисует.
По настройкам здесь практически ничего нет, выбираем профессиональный, потому что на стандарте нарисуют немножко не очень хорошо и выбираем по длительности, так как у меня все на склейках на коротких, поэтому 5 секунд мне с головой хватило.
Если тебе нужна длинная сцена, то генерируй 10 секунд, но будешь тогда ждать там не 2-3 минуты или сколько там, 5 минут, блин, не помню уже, а больше.
Также запомни лайфхаки, я здесь сейчас выведу тебе примеры, которые можешь заскринить.
В промпе можно указать движение камеры, то есть, к примеру, здесь мы указывали трекинг камеры, чтобы камера, получается, двигалась именно за объектом.
А также, как пример здесь, это отдаление камеры.
Вообще я хотел сделать доли зум, если не ошибаюсь, в промте доли зум прописанный.
Но доли зум он мне не нарисовал, потому что я неправильно его написал.
Но отдаление мне тоже подошло, и я его как раз таки и использовал в мультике.
Я сейчас на экран выведу вставку как раз таки разных движений камеры.
Заскрини их, сохрани себе их.
Это очень классная шпаргалка, которая тебе поможет двигать твои камеры потом в видосах.
И как вы можете видеть, этот кадр, как и многие другие, я генерировал не на официальном сайте Клинга, а в боте Синтекс.
Почему так?
Потому что на официальном сайте тоже есть ограничения на одновременную генерацию изображения.
Это первое.
А второе, подошли к следующему инструменту, который мы разберем, а именно липсинг.
Это наложение озвучки на наших персонажей.
И как раз таки здесь в боте Синтекс я делал озвучку.
Я ее сейчас вытащу на экран, чтобы вы поняли, как она сделалась.
Теперь меня есть кому защитить.
И я больше не боюсь.
Способ, который я использовал для анимирования и озвучки нашего персонажа.
Когда мы записываем исходное видео и на персонаж накладывается как раз таки движение нашей головы, движение наших губ и наша мимика.
Делается это очень легко в нейронке Runway, называется Act1.
Делал я здесь в синтексе, потому что из-за одного кадра мне не хотелось покупать подписку на Runway.
А здесь есть практически все нейронки.
Для этого переходим в видео будущего и ищем Act1, аватары 2.0.
И дальше, как видишь, первым нам нужно загрузить свое видео, которое мы сняли, с эмоциями, как мы говорим.
И второе, это мы загружаем картинку нашего персонажа.
Предварительно я уже сделал озвучку и получается, когда себя на камеру снимал, я уже озвучивал примерно так же, как в озвучке, с таким же темпом, с такой же интонацией.
Дальше я покажу, как сделать озвучку.
И по рекомендациям, чтобы улучшить ваш результат, делайте этот липсинг через Act1, когда персонаж у вас близко к камере.
Если у вас персонаж будет стоять далеко, то нейронка его может просто-напросто не распознать.
Также она часто может не распознавать разных животных, то есть какую-нибудь собаку.
Если она еще стоит где-то далеко, то у вас ничего не получится.
Также делайте плюс-минус похожий ракурс, как у вашего персонажа, и не снимайте себя в очках.
Если вы ходите в очках или работаете в очках, то на запись видео снимите их, потому что может быть большая погрешность.
Ссылку на этот бот-синтекс, если что, оставлю, он меня часто выручает, потому что там есть все нейронки.
И изображение сгенерировать, и озвучку сгенерировать.
И как ты мог заметить, у меня было два кадра, где персонаж разговаривает.
И второй кадр я делал немножко по другой технологии, а именно здесь же, на сайте Клинга.
Здесь в чем смысл?
То есть мы берем готовое видео, берем озвучку и соединяем их.
И получается у нас вот так.
Ты мой лучший друг.
Движение губ в предыдущем случае было немного лучше, но здесь и у паренька губки как бы особо незаметны.
Но на видео смотрится плюс-минус нормально.
То есть нам сначала нужно сгенерировать видео, потом его сюда загрузить.
То есть мы можем загрузить либо из галереи, либо выбрать уже сразу из истории то, что мы здесь же и создавали, если вы создавали здесь же.
Чтобы найти этот раздел, если что, он находится вот здесь слева.
Губки у нас есть, липсинг.
И теперь нам нужно здесь создать озвучку.
К сожалению, на данный момент, может быть, это пофиксить, работает только с английским языком.
Поэтому озвучку нужно генерировать отдельно.
Мы через буквально 30 секунд это будем с тобой делать.
И загрузить ее сюда.
Подождать буквально 3-5 минут, и наше видео будет готово.
Если что, по рекомендациям, не всегда хорошо отрабатывают с мультяшными персонажами, особенно какими-то странными, если это будет чудики и тому подобное.
То есть ему нужно для обнаружения лицо.
То есть в моем случае это сработало, потому что здесь есть четкое лицо.
Если его не будет, то не сработает.
Также, если персонаж будет далеко у тебя от камеры, то тоже, скорее всего, не получится.
Поэтому везде, где у меня есть липсинг, что в предыдущем случае, что в этом, я выбирал крупные кадры.
После того, когда мы посидели часик, второй, третий, позадротили, посоздавали все изображения, которые нам нравятся, посохраняли их, нам нужно сделать озвучку диктора, который у меня за кадровым голосом.
Я всем всегда советую и сам пользуюсь Eleven Labs, то есть мы можем взять любой голос, обучить ее и генерировать там тексты.
Но я пошел немножко другим путем.
Если что, сохрани этот сайт.
Он лучше всего работает с клонированием русского языка.
Я пошел по другому способу.
Я пошел через бот с Theos Voice.
Если что, к нему отношений никакого не имею.
И это не реклама.
Почему я пошел в этот бот?
Потому что, первое, он частично бесплатный.
То есть мне, как можешь видеть, всю озвучку я делал здесь.
Хватило на мою озвучку.
И второе, здесь есть голос, который мне нравится.
А именно, рассказчик из мультика «Свинки Пеппа».
Привет, я голос из мультфильма Свинка Пепа.
И этот голос классно ложился на мой мультик.
И чтобы его не копировать, не обучать модельку на Eleven Labs, я просто это генерировал здесь.
По рекомендациям, как можете видеть у меня здесь, я генерировал небольшими кусочками.
Чем длиннее текст, тем будет непредсказуемее и качество так себе.
То есть там интонация будет скакать.
Поэтому генерируйте небольшими кусочками, а потом на монтажке это все состыковывайте.
Если какое-то слово плохо выговаривает, знаки ударения здесь большая боль, в Eleven Labs с этим намного лучше, то проще всего это найти синоним этому слову и попробовать его поменять.
А также забудьте здесь вообще про орфографию знаки припинания.
То есть здесь мы их расставляем только для того, вот как можно здесь видеть, здесь у меня запятые, здесь у меня точки, здесь троеточие, только для того, чтобы...
регулировать интонацию с которой он говорит потому что вот здесь знаки примирания как раз таки и и контролирует если он где-то у вас плохо выговаривает о поставьте букву а ничего страшного здесь не будет зато на озвучке это будет слышаться нормально
Предпоследнее, что нам нужно сделать, чтобы добавить нашему мультику атмосферы, это закадровых звуков.
То есть звуки шагов, лаяния, звуки природы и так далее.
Как мы раньше делали, писали себе в поисковике звук собачьего лая, переходили сюда, слушали, выбирали очень долго мутор на маленькие отрезочки и потом подставляли.
Это до сих пор рабочий инструмент, но мы же про нейронки, поэтому что мы можем сделать?
Мы можем сгенерировать с вами звуки.
Для этого возвращаемся назад в бот синтекс, как я говорил здесь есть практически все нейронки и здесь есть нужный нам инструмент, а именно генерация звуков по видео и по промту.
Находится он в аудиос и в самом верху видео в аудио.
Здесь мы загружаем кусочек нашего видео, который генерировали, то есть он без звука, без ничего.
И пишем в произвольной форме промпт, запрос, что мы хотим там слышать.
У меня, например, там мальчик обнимает собаку, тихий звук улицы, звуки листвы.
И он нам на это видео добавляет звуки.
Да, не всегда с первого раза хорошо получается, но получается.
И таким образом создать саунд можно намного проще, чем вы будете собирать отдельно по крупицам.
Если что, качество изображения подхеривает немного, поэтому мы будем брать за основу видео, отделять от него аудиодорожку и потом уже стыковать на монтажке.
И вот таким образом прогоняем все наши видосы, скорее всего, по несколько раз.
Не уверен, что с первого раза всегда хорошо получится.
И сохраняем их все в отдельную папочку.
Сразу советую раскидывать все по отдельным папкам.
Отдельно картинки, отдельно звуки, которые сгенерировали.
Это вот как раз-таки сгенерированные звуки там же.
Отдельно озвучка, которая будет, и нумеровать, чтобы потом это удобно можно было на монтажке все состыковать.
Потому что если будет хаос, ни хрена не разберешься.
И перед тем, как приступать к монтажу, нам что нужно?
Нам нужна еще музыка, которая будет подчеркивать атмосферу нашего мультика.
Мы либо можем идти на стоки, искать музыку без авторских прав, сидеть, выбирать.
И это иногда часами.
Кто знает, тот знает.
Можно ролик быстрее смонтировать, чем выбирать музыку.
У нас есть еще вариант.
Мы же про нейросети и любим все делать побыстрее.
Есть вариант сгенерировать музыку, которая нам нужна.
Я генерировал в нейронке
я даже за нее не заплатил на бесплатном тарифе, просто ввел вот в тупую, самый, наверное, простой промо в моей жизни, саунд для мультфильма, сначала грустно, потом весело, ну, чисто вот промдауны, я бы сказал бы, наверное, и знаете что, это сработало, я выбрал вот 4 сгенерировал, за раз он 2 делает, и я взял вот этот трек.
который взял отсюда начало и сейчас покажу на монтажке потом его состыковал там где у нас уже идет такое развитие более эмоциональное
офигенно легло вот но не всегда получается все с первого раза поэтому я бы наверное советовал тебе немножко по посмотреть какие люди пишут пром ты если вы дружите с музыкой то думаю сможете написать то что вам необходимо если не дружите то посмотрите какие пром ты пишут другие люди или попробуйте пром для ленивых примерно описать то что вам необходимо возможно как и у меня получится с первого раза
И собирал я этот ролик в капкате, потому что, во-первых, он максимально примитивный, здесь только, по сути, склейки, наложение звуков и музыки.
А второе, показать то, что это очень легко сделать мультик.
Да, у вас должно быть свое видение, должен быть какой-то свой вкус немного, когда вы его собираете, чтобы состыковать кадры, но...
Он сделан в банальном капкате.
Вот так выглядит таймлайн.
То есть сначала у нас идут видосы нарезанные.
Ниже у нас идет озвучка диктором.
Ниже у нас идет звук, то есть закадровый звук.
Что у нас здесь?
У нас здесь щеночек должен что-то делать.
Маленький.
Да, то есть здесь щенок скрипит немного просто для атмосферы.
И последнее это как раз таки вот трек.
который я сгенерировал в нейронке и наложил, когда у нас развитие событий идет уже повеселее, я вставил немного другую часть.
Да, это заняло не 5 минут, как у нас любят романтизировать просто в релсах.
Сейчас за 5 минут, за 5 минут, ни хрена не 5 минут, заняло это где-то у меня весь день, ну, тупо вот весь день сидеть, иногда там пойти, чтобы поесть, пописать и все.
Самое, наверное, такое геморное, это вот выбирать и генерировать все эти кадры, которые вам понравятся.
Ребят, это был мой второй всего лишь ролик на YouTube, поэтому напишите, пожалуйста, было ли полезно, донесли информацию и про какие нейронки или про какие фишки в нейронках в монтаже снять еще видосы.
Похожие видео: Как создать мультик в Нейросетях

Как создать мультик без бюджета

Твой первый видеомонтаж — как сделать его на уровне ПРО

Создайте профессиональную анимацию БЕСПЛАТНО — без специального оборудования!

Как бы я учился видеомонтажу если бы начал с НУЛЯ | Мой Опыт

создайте эффектный дизайн неонового шара без усилий с помощью figma — идеально для веб-дизайна

