
Стартап Higgsfield AI привлек 15 миллионов долларов инвестиций и запустил платформу, которая добавляет в генеративное видео то, чего ему не хватало — кинематографический язык и осмысленные движения камеры, пишет Aim research. Основатель компании Алекс Машрабов, ранее возглавлявший направление искусственного интеллекта в Snap, создал решение на основе частых отзывов профессиональных создателей контента: «AI-видео выглядит лучше, но не ощущается как кино».
Главное отличие Higgsfield AI от конкурентов вроде Runway, Pika Labs и OpenAI заключается в фокусе не на улучшении визуальной четкости, а на предоставлении пользователям контроля над тем, как камера перемещается в сцене. Технология позволяет из одного изображения и текстового запроса создавать сложные движения камеры — наезды, резкие зумы, съемки сверху и кадры с камеры, закрепленной на теле.
В основе платформы лежит собственная модель Higgsfield DoP I2V-01-preview — архитектура преобразования изображения в видео, которая объединяет диффузионные модели с обучением с подкреплением. В отличие от традиционных систем, эта модель обучена понимать и направлять движение, освещение, работу с объективами и пространственную композицию — ключевые элементы кинематографии.
Техническая реализация проекта впечатляет: команда построила и протестировала модель в партнерстве с TensorWave, используя графические процессоры AMD Instinct™ MI300X. По данным компании, их решение на базе AMD работает на 20% быстрее и на 35% дешевле при выполнении задач генерации видео по сравнению с решениями Nvidia.
Известный режиссер и креативный технолог Джейсон Зада, работавший с брендами Intel и Lexus, уже опробовал платформу и создал демонстрационное видео «Night Out». Ролик демонстрирует стилизованные неоновые визуальные эффекты и плавные, эффектные движения камеры — все это сгенерировано в интерфейсе Higgsfield.
«Инструменты вроде Snorricam, которые традиционно требуют сложных конструкций и хореографии, теперь доступны в один клик», — отметил Зада. Такие кадры обычно сложно снять, а возможность использовать их как пресеты открывает новый уровень визуального повествования.
Джон Гаэта, обладатель премии «Оскар» за визуальные эффекты в фильме «Матрица» и основатель escape.ai, высоко оценил систему Higgsfield за то, что она приближает создателей к «полному творческому контролю над камерой и сценой».
Технология Higgsfield выросла из опыта разработки вирального приложения Diffuse, которое позволяло создавать персонализированные AI-клипы. Хотя Diffuse нашел свою аудиторию, он также выявил творческие ограничения короткого развлекательного контента. Теперь команда Higgsfield сосредоточилась на рассказывании историй, в частности, на сериализованных короткометражных драмах для TikTok, YouTube Shorts и других мобильных платформ.
Также на этой неделе была представлена другая модель для генерации видео — Wan2.1 от создателей Qwen. Рассказали о ней в статье.