Google прям врывается на территорию, где привыкли доминировать Photoshop и After Effects

Это в целом уже какой-то чит на монтаж – не нужно по пять часов маскировать, выставлять свет, тюнить цветокор, чтобы нормально «вклеить» объект… Теперь достаточно просто ткнуть пальцем и сказать «хочу кота на диване», и он будет идеально по сцене!
Особенно круто, как нейросеть подхватывает тень, отражения, и даже общую геометрию комнаты — это очень заметно на демках. Вопрос, конечно, на сколько это рабочая магия на сложных кадрах (со стеклом, движением, странным светом и прочими приколами), но всё равно — монументальный шаг.
Кто-нибудь уже пробовал заливать в Flow реально динамичные сцены или с кучей мелких деталей? Интересно, как поведёт себя ИИ в условиях тотального хаоса. И сколько ещё пройдет, пока начнут массово подделывать видосы, что верить своим глазам вообще нельзя будет? В общем, время уже начинать сомневаться даже в том, что твои коты в кадре — не дипфейк
P.S. Кому-то даже лень будет учиться монтажу — или наоборот, будет новый виток креатива?