анимированный говорящий персонаж для видео
FaceRig — анимация персонажа в реальном времени
FaceRig — программа, позволяющая управлять эмоциями и голосом анимированного персонажа с веб-камеры, за десять дней собрала заявленные 120.000 долларов в краудфандинговой кампании на Indiegogo. Пока программа находится на раннем этапе разработки, но авторам удалось привлечь почти уже более пяти тысяч фандеров за счет довольно детальной проработки анимации и многообещающими возможностями в полной версии приложения.
Создатели программы заявляют, что их долгосрочная цель — исследование и создание доступной обычным людям системы управления и визуализации для целого персонажа (сейчас это только голова и голос), с использованием разнообразных устройств ввода и двусторонней обратной связью. По их словам, они понимают, что это довольно смелое и революционное заявление, но это — долгосрочная цель, а пока они предлагают небольшое приложение для управления эмоциями персонажа посредством веб-камеры, поскольку таким образом они хотят сделать проект доступным любому.
Вот что получается на данный момент
В своей работе программа использует «state of the art» технологию реалтайм трекинга шведской компании Visage Technologies, которая комбинируется с кроссплатформенным движком анимации и визуализации в реальном времени собственной разработки Holotech Studios из Румынии (сайт этой небольшой инди-студии пока не открыт, но с ними можно связаться по другим каналам).
Полученный в итоге видео-вывод может быть направлен в любые приложения для чата, такие как Skype и подобные, или же можно записать ролик с получившимся результатом. Помимо анимации персонажа программа позволяет изменять голос и фон, но пока и персонажей и бэкграундов всего четыре. Сейчас персонаж управляется веб-камерой, но позже авторы приложения намерены включить в программу поддержку таких интерфейсов, как Neurowear — монитор активности мозга, L.E.A.P. motion — отслеживающий движение рук и пальцев, Kinect 1 и 2 — для обработки движений тела и в качестве датчика удаленности, а ещё Asus Xtion, Carmine PrimeSense, короче говоря, практически все интерфейсы на эту тему. Сами разработчики в ответ на вопрос, собираются ли они сотрудничать с другими компаниями для создания каких-то совместных проектов, говорят следующее:
Мы очарованы работой программы в её текущем состоянии, и нам нравится то, куда направляется наша разработка. Представьте себе онлайн конференцию League Of Legends, которую ведут её герои; или представьте себе датчики движения, установленные на Oculus Rift, которые позволят управлять эмоциями вашего персонажа с очень высоким качеством проработки, но без каких-то особенных технических проблем. В общем, возможностей очень много, и они восхищают нас и подталкивают к дальнейшей работе.
Помимо всего прочего, кампания по сбору средств преследует цель привлечь дизайнеров персонажей и сцен, которые будут включатся в платные пакеты обновлений программы, а в скором времени будет создано сообщество по поддержке самостоятельной разработки с использованием этого фреймворка.
Планируется выпустить несколько версий программы, среди которых будет версия FaceRig Studio, нацеленная на разработчиков игр и моушен-дизайнеров, где будет возможность работы с другими профессиональными приложениями, такими как Maya и 3DSMax, и использовать разнообразные варианты трекинга по технологии motion capture. Также разработчики собираются реализовать мобильную версию под iOS и Android, но сразу заявляют, что десктопная и мобильная версия будут сильно отличаться.
Нужно заметить, что в комментариях на Indiegogo много слов поддержки от участников Furry Fandom, которым, по понятным причинам, эта разработка пришлась очень по душе 🙂
Если вас заинтересовало это приложение, то вот полезные ссылки:
Официальный сайт FaceRig
Сбор средств на Indiegogo, сейчас еще осталось 40 дней
Канал FaceRig на Youtube
Анимированный говорящий персонаж для видео
Не любите сниматься на камеру?
Замените себя в видео
на симпатичного мультяшного диктора!
Привлекательный анимированный персонаж, говорящий вашим голосом, увлечёт ваших зрителей, вызовет у них доверие и добродушный настрой, доходчиво донесёт любое ваше сообщение.
При этом, не нужно снимать себя на камеру и использовать сложные программы для монтажа видео, всё можно сделать в бесплатном онлайн-сервисе.
Научиться быстро создавать видео с анимированным говорящим персонажем можно всего за один вечер с помощью пошагового экспресс-курса
«Мультяшный диктор»
Мультяшность персонажа вызывает яркие положительные эмоции у всех, кто смотрит такое видео. Анимация заставляет нас вспомнить детство и любимые мультфильмы.
И в такой ненавязчивой увлекательной форме вы очень эффективно сможете донести до зрителя любую идею – обучающую, философскую и даже продающую ) Ну а поздравление от лица прикольного персонажа, несомненно, вызовет восторг у всех, кто его посмотрит )
Этот курс для вас, если Вы
Любитель создавать своими руками необычные поздравления и вирусные открытки
Творческий человек, ищущий что-то новенькое и оригинальное
Фрилансер-видеомейкер, желающий предложить клиентам уникальную услугу – видео в креативном стиле
Предприниматель или блогер, который хочет получать больше клиентов и подписчиков с помощью видео, вызывающего яркие эмоции
Вот, какие видео вы сможете сделать после изучения экспресс-курса:
Освоение курса «Мультяшный диктор» займет у вас всего один вечер, время пролетит совсем незаметно!
И уже через пару часов вы получите свое первое видео с говорящим персонажем, даже если вы никогда раньше ничего подобного не делали.
Для создания такого видео никаких художественных, сложных технических навыков не требуется. Вам нужно просто повторять то, что говорится в пошаговых уроках, и результат не заставит себя ждать.
Экспресс-курс «Мультяшный диктор»
состоит из 7 коротких уроков:
1. Вводный. Вы познакомитесь с сервисом говорящих персонажей и зарегистрируетесь в нем без заморочек
3. Добавление фона. Научитесь добавлять фоны вашему персонажу, в том числе анимированные фоны и даже видео. К этому уроку приложен большой бонусный набор интересных фонов-картинок (разные интерьеры, однотонные фоны, абстрактные и другие) и фонов-видео.
4. Добавление озвучки. Научитесь добавлять озвучку тремя основными способами – загружать готовый аудиофайл, записывать ваш голос в сервисе и озвучивать набранный текст встроенным диктором. А также добавлять голосовые эффекты. К этому уроку приложены тренировочные материалы на случай, если у вас нет возможности записать голос, – набор прикольных фраз из фильмов в аудиоформате, готовом для загрузки в сервис.
5. Сохранение персонажа в сервисе. Узнаете, каких персонажей можно сохранить и как их дальше использовать.
6. Обход ограничений бесплатного аккаунта. Узнаете хитрый приём, как легально получить бесплатный аккаунт со всеми безграничными возможностями платного.
7. Запись готового видеоролика. Научитесь записывать итоговое видео с персонажем, произносящим вашу речь, и сохранять его к себе на компьютер в разных размерах и пропорциях
Каков формат курса?
Я уже более 6 лет обучаю созданию рисованных и анимационных видеороликов.
Являюсь автором нескольких нашумевших тренингов и курсов по рисованному видео, а также многих терминов в этой сфере, которые уже разошлись по интернету (конструктор персонажей, змейка, видеокомбайн, дудл-мейкер и другие).
Моя система обучения основана на индивидуальном подходе к каждому ученику и заточена на обучение любого человека с любым уровнем владения компьютером.
Что на самом деле говорят обо мне ученики
Сколько стоит курс?
Но я хочу, чтобы вы максимально комфортно и плодотворно познакомились со мной, как тренером, с моей манерой преподавать, с моей подачей и организацией материала. Чтобы в дальнейшем, если мы сработаемся, вы пришли ко мне на следующее обучение по теме видео. Поэтому для вас, как для моего нового подписчика, специальная цена экспресс-курса «Мультяшный диктор» составит всего
490 рублей (скидка 90%)
* Информация о поступлении платежей обрабатывается в течение суток. Если за это время вам не пришло письмо об успешной оплате, напишите мне на емейл mavideo-info@ya.ru
ПРИМЕЧАНИЕ: Если вы проходили у меня тренинг по программе Explaindio, то у вас есть уроки по этому сервису, правда, сейчас там немного изменился интерфейс.
Ответы на частые вопросы
Как оплатить экспресс-курс? Оплатить можно банковкой картой или Яндекс.Кошельком, а также Paypal, если вы не в России.
Для создания видео с говорящими персонажами нужен смартфон или мощный компьютер? Каковы требования к компьютеру? В экспресс-курсе рассматривается только в онлайн-сервис, для работы в котором нужен настольный компьютер или ноутбук с любой производительностью и интернет-браузер для доступа в интернет. У сервиса персонажей есть альтернативное приложение для смартфонов, но в курсе оно не рассматривается, в нём вы сможете при желании разобраться самостоятельно по аналогии. Для просмотра видеоуроков также требуется доступ в интернет.
Когда начало курса? Сразу после оплаты заказа на ваш e-mail придёт вся необходимая информация с доступом в личный кабинет, где расположены уроки. Если в течение суток вы не получите письмо от Школы Mavideo, проверьте папку Спам или Акции (на gmail) или напишите мне на почту mavideo-info@ya.ru. Уроки вам будут доступны бессрочно.
Подойдет ли мне курс, если я ещё новичок в теме видео и не очень уверенный пользователь компьютера? Да, конечно. Для создания видео с говорящим персонажем никаких художественных и сложных технических навыков не требуется. Вам нужно просто повторять то, что говорится в пошаговых уроках. Уроки записаны очень подробно и с объяснением каждого действия. Поэтому они подойдут вам, даже если вы совсем новичок и на «Вы» с компьютером. По любым возникающим вопросам вы получите от меня помощь и подробные пояснения письменно. И в случае необходимости, можно будет связаться со мной по скайпу с демонстрацией вашего экрана.
Вы можете смело рассчитывать на мою поддержку и помощь в освоении курса!
Я всегда на связи, отвечаю на вопросы, поддерживаю и воодушевляю 🙂
20 ярких персонажей для анимационного ролика вашей компании
Большинство людей ( в том числе и ваши покупатели) хотят увидеть в видеоролике себя или знакомого, например, соседа снизу, директора. Восприятие бренда, как живого человека повышает узнаваемость компании. Доказано, что люди быстрее запоминают конкретный образ человека или животного. Клиенты обращают внимание на индивидуальные характеристики персонажа и воспринимают его отрицательно или положительно. Таким образом, запоминают и сам бренд. Этим приемом пользуются маркетологи уже несколько десятилетий.
Как же сделать, чтобы бренд ассоциировался с персонажем?
— Привязать персонажа крепко-накрепко к бренду.
— Добавить эмоций и качеств, которые положительно воспринимаются целевой аудиторией.
— Рассказать историю персонажа.
Команда Lemon Digital подготовила для вас подборку из 20 ярких анимационных персонажей.
1. Нестандартные персонажи, интуитивно знакомые нам показали, как одна кружка кофе меняет мир к лучшему. Создатели видео использовали интересное совмещение персонажей из разных мультиков и шоу.
8. Разработка анимационного стиля для Microsoft Kinect-Powered Cube, создатели использовали синематические шейпы в классической обрисовке для создания 4 разных миров.
9. Пластилин, звуковые эффекты и вот вы уже понимаете, что жвачка на первом свидании испортит ваш вечер.
13. Сразись с щупальцем, получи его на обед, почувствуй себя самураем! Сочетание красного и черного, крутой стиль и удовольствие от просмотра.
19. Организаторы музыкальной битвы Red Bull Soundclash наглядно показали, чего ждут от своих участников. Битва неформалов, музыки и немного хаоса. Все выполнено в грязном, классическом стиле.
Понравилось? Надеемся, что да! Команда Lemon Digital собрала только самое лучшее и полезное для продвижения вашего бренда.
Анимирование для новичков — поэтапный туториал Статьи редакции
Разбейте процесс рисования на множество мелких этапов и постепенно улучшайте качество работы.
Инди-разработчик экшена Scrabdackle, известный под ником jakefriend, опубликовал на Reddit туториал, в котором рассказал, как анимировать персонажей без продвинутых художественных навыков. Мы выбрали из текста главное.
По признанию Джейка, он обладает недостаточно развитыми художественными навыками. Поэтому стиль своей игры он выстроил на основе нескольких аспектов, которые у него хорошо получаются — пиксель-арт с толстыми контурами и плоскими однотонными объектами. Несмотря на ограниченные художественные навыки, автор нашёл способ быстро анимировать игровые объекты.
Разработчик советует начинать рисовать с плохих, но простых набросков. Затем постепенно улучшайте рисунок шаг за шагом. Постарайтесь разбить весь процесс на несколько небольших этапов, чтобы последовательно улучшить свою работу.
На этом этапе не стремитесь рисовать качественно. Ничего, если набросок выглядит совсем плохо — со временем вы его сильно переработаете. Вы можете рисовать прямо на бумаге, чтобы максимально ускорить процесс.
В бумажном эскизе вы должны передать идею персонажа. В этом примере автор хотел изобразить «злой огненный шар», который парит в воздухе. Разработчик добавил объекту лицо, чтобы выразить его эмоции и личность.
Всё ещё не стремитесь делать это качественно. На этом этапе очень важно найти правильный масштаб для объекта — вы точно не хотите анимировать персонажа, а потом обнаружить, что он не подходит к размерам остальных игровых элементов.
Начинайте рисовать прямо на скриншоте своей игры рядом с главным героем — это позволит вам сразу же встроить объект в контекст. В первую очередь нарисуйте самую крупную форму, например, силуэт огненного шара.
На этом этапе Джейк решил, что у персонажа должно быть внутреннее шарообразное тело, которое покрывают языки пламени. Автор признался, что отрисовка заняла лишь несколько минут работы в Aseprite.
Ничего, если объект выглядит недостаточно хорошо. Рисуйте все нужные элементы, ориентируясь на изначальный эскиз. Для удобства разместите их на разных слоях.
На этом этапе Джейк нарисовал тело шара, глаза, ухмылку и пламя. Чтобы создать тело он применил следующий подход — автор быстро рисовал круг, а затем отменял действие, если форма не соответствовала задумке. По его словам, он потратил минуту, чтобы нарисовать около 50 вариантов шара. В итоге один из них подошёл.
Глаза он создал таким же образом — просто рисовал одни и те же линии снова и снова, пока они не перестали выглядеть плохо.
Но для создания огня такой вариант не подходит — он состоит из сложных форм, поэтому невозможно сделать его красивым парой простых движений. Помните, что рисунок не должен быть идеальным — даже некрасивые формы подойдут для начальных этапов. Затем вы сможете исправить и дополнить рисунок.
Не боитесь менять изначальный эскиз, если это действительно нужно. Джейк советует не тратить много времени на перерисовку элементов, которые вам не нравятся. Например, он решил не переделывать огонь, а нарисовать несколько вариантов и объединить их в анимацию.
Также разработчик решил сделать анимацию короткой — всего из трёх кадров. Автор признался, что его пугала необходимость рисовать движущийся огонь. Поэтому он разбил этот процесс на более мелкие задачи — наметил точки, до которых должны доходить языки пламени.
В результате у Джейка получилась слишком быстрая анимация. К тому же языки пламени вышли чрезмерно острыми и неестественными. Третья проблема, которую отметил автор: в некоторых местах анимация выглядит рваной — разница между кадрами слишком большая.
Реалистичная анимация персонажей в играх с помощью ИИ
Разработчиками из Эдинбургского Университета представлен новый алгоритм для создания реалистичных движений персонажей в играх. Обученная на Motion Capture траекториях нейросеть пытается копировать движения реальных людей, но при этом адаптирует их под персонажей видеоигр.
Одна нейросеть способна управлять сразу несколькими действиями в игре. Открывание дверей, перенос предметов, использование мебели. При этом она динамично изменяет положения ног и рук, чтобы персонаж мог реалистично держать ящики разного размера, садиться на разные по размеру стулья, а также пролезать в проходы разной высоты.
Обычно под управлением персонажами в играх с помощью ИИ подразумевается полный контроль усилий в конечностях, основанный на каком-нибудь физическом движке, имитирующем законы физики. Этим занимается область машинного обучения под названием Reinforcement Learning. К сожалению, таким способом пока не удается достичь реалистичных движений.
С другой стороны, можно попытаться обучить нейросеть имитировать движения реальных людей, снятые с помощью Motion Capture. Именно таким способом около года назад был достигнут значительный прогресс в реалистичной анимации 3d персонажей.
По этой теме было несколько последовательных научных работ, но наиболее полное описание можно почитать в работе Towards a Virtual Stuntman, посвященной нейросети DeepMimic (https://www.youtube.com/watch?v=vppFvq2quQ0).
Основная идея заключается в том, чтобы при обучении имитировать движения человека начинать эпизод не с самого начала Motion Capture трека, как делали раньше, а из случайных точек по всей траектории. Существующие алгоритмы Reinforcement Learning исследуют окрестности точки старта, поэтому до конца траектории чаще всего не доходили. Но если каждый эпизод начинать вдоль всего трека, то увеличивается шанс, что нейросеть обучится повторять всю траекторию.
Позднее эту идею подхватили и совсем в других областях. Например, обучая нейросеть на прохождениях игр людьми, и тоже начиная эпизоды не с начала, а из случайных точек (конкретно в этом случае с конца, и постепенно сдвигаясь к началу), в OpenAI обучили нейросеть проходить игру Montezuma’s Revenge. Которая не поддавалась до этого обычным Reinforcement Learning алгоритмам.
Без этого трюка попытки обучить нейросеть копировать сложные движения заканчивались неудачей, потому что нейросеть находила более короткий путь. Пусть не дающий такую большую награду, как за всю траекторию, но все же какая-то награда была. К примеру, вместо того чтобы делать кувырок назад, нейросеть просто слегка подпрыгивала и плюхалась на спину.
Но с таким подходом, нейросеть без проблем изучает траектории практически любой сложности.
Основная проблема DeepMimic, мешавшая напрямую применить ее к видеоиграм, заключается в том, что не удалось обучить нейросеть выполнять сразу несколько разных анимаций. Приходилось на каждую анимацию обучать отдельную нейросеть. Авторы пробовали объединять их разными способами, но больше 3-4 анимацией скомбинировать не удавалось.
В новой работе эта проблема тоже не устранена до конца, но сделан большой прогресс по плавному переходу между разными анимациями.
Надо отметить, что этой проблемой страдают все существующие на данный момент подобные анимационные нейросети. Например, эта нейросеть, тоже обученная на имитации Motion Capture, способна на физическом движке честно управлять огромным числом мышц (326!) гуманоидного персонажа. Адаптируясь к разному весу поднимаемых тяжестей и различным повреждениям суставов. Но при этом для каждой анимации нужна отдельная обученная нейросеть.
Стоит понимать, что цель подобных нейросетей не просто повторить человеческую анимацию. А повторить ее на физическом движке. При этом Reinforcement Learning алгоритмы делают это обучение надежным и устойчивым к помехам. Потом такую нейросеть можно перенести на физического робота, отличающегося по геометрии или по массе от человека, но он все равно будет продолжать реалистично повторять движения людей (начиная обучение с чистого листа, как уже говорилось, добиться такого эффекта пока не удается). Или, как в работе выше, можно виртуально исследовать как будет двигаться человек с травмами ног, чтобы разработать более комфортные протезы.
Еще в первой DeepMimic были зачатки такой адаптации. Можно было перемещать красный шар, а персонаж каждый раз бросал мяч в него. Прицеливаясь и соизмеряя усилие броска, чтобы попасть точно в цель. Хотя был обучен на единственном треке Motion Capture, который такой возможности не предоставляет.
Поэтому это можно считать полноценным обучении ИИ, а имитация человеческих движений просто позволяет ускорить обучение и сделать движения визуально более привлекательными, привычными для нас (хотя с точки зрения нейросети они могут быть не самыми оптимальными при этом).
Новая работа пошла в этом направлении еще дальше.
Здесь нет физического движка, это чисто анимационная система для видеоигр. Но упор сделан на реалистичное переключение между несколькими анимациями. И на взаимодействие с игровыми предметами: перенос предметов, использование мебели, открывание дверей.
Архитектура нейросети состоит из двух частей. Одна (Gating network) на основе текущего состояния state и текущей цели goal выбирает какую анимацию использовать, а другая (Motion prediction network) предсказывает ближайшие кадры анимации.
Все это было обучено на наборе Motion Capture треков с помощью имитационного Reinforcement Learning.
Но главное достижение этой работы в другом. В том, как разработчики научили нейросеть работать с разными по размеру предметами и протискиваться в разные по ширине или высоте проходы. Чтобы положения рук и ног выглядели реалистично и соответствовали размерам объекта, с которым персонаж взаимодействует в игре.
Секрет оказался прост: augmentation!
Сначала из Motion Capture трека они определили точки контакта рук с подлокотниками кресла. Потом заменили модель кресла на более широкую, и пересчитали Motion Capture траекторию, чтобы руки касались подлокотников в тех же точках, но на более широком кресле. И заставили нейросеть имитировать эту новую, сгенерированную Motion Capture траекторию. Аналогично с размерами ящиков, высотой проходов и т.д.
Повторив это множество раз с различными 3d моделями окружения, с которыми предстоит взаимодействовать игроку, нейросеть научилась реалистично обращаться с разными по размеру предметами.
Для взаимодействия с окружением в самой игре, дополнительно понадобилось вокселизировать предметы вокруг, чтобы это работало как сенсоры на входе нейросети.
В итоге получилась очень хорошая анимация для игровых персонажей. С плавными переходами между действиями и с возможностью реалистично взаимодействовать с различными по размеру предметами.
Настоятельно рекомендую просмотреть видео, если кто этого еще не сделал. В нем очень подробно рассказано как они этого добились.
Этот подход можно применять для анимации в том числе четвероногих животных, получая непревзойденное качество и реалистичность движений животных и монстров:







