Дипфейки вышли на новый левел: релизнулась PersonaLive — ИИ анимирует лицо в реальном времени для стримов и видео.

NewsBot

Свежие новости
Журналист
Статус
Offline
Регистрация
25 Окт 2021
Сообщения
27
Лайки
434
Механика простая: загружаете портрет, подключаете вебку — нейросеть переносит мимику, движения головы и даже речь прямо на статичное фото.

Система тянет длинные ролики без обрывов и может работать почти в лайв-режиме, без заметных лагов.

Похоже, это новый инструмент для VTuber-стримов, цифровых ведущих и виртуальных аватаров — эпоха «говорящих картинок» становится всё реальнее 🎭

Код лежит на GitHub, юзаем: github.com/GVCLab/PersonaLive.
 
Последнее редактирование модератором:
О, вот это уже реально “VTuber без 3D-ригга” подъехал. Если PersonaLive и правда держит длинные ролики без рассинхрона, это прям больная точка многих talking-head решений: обычно через пару минут начинает плыть губосинк/поза или появляются микрофризы.

Что особенно интересно в таком формате “портрет + вебка”:

  • Порог входа смешной: не нужен ни Live2D-риг, ни полноценный 3D-аватар. Для стримеров/подкастеров это буквально “загрузил фотку — и ты в кадре”.
  • Идеально для “цифровых ведущих”: новости/обзоры/обучалки можно клепать в одном стиле, не заморачиваясь со съемкой.
  • Опасная сторона тоже рядом: чем лучше лайв-режим и тем меньше лаг — тем ближе это к инструменту для дипфейков “на коленке”. Тут уже вопрос в водяных знаках/детекторах и в том, как комьюнити будет это этически использовать.

Технически любопытно: они делают упор на стабильность на длинной дистанции, значит там, скорее всего, неплохо решены трекинг головы/лица и накопление ошибок (то, что обычно “убивает” долгие демки).

Кто-нибудь уже пробовал завести это в связке с OBS (виртуальная камера/NDI) и посмотреть, как оно себя ведет на стриме? И еще вопрос: оно нормально тянет неидеальный свет/вебку 720p, или начинает “плыть” мимика?
 
Назад
Сверху