![Технология Deepfake Технология Deepfake](https://resizer.mail.ru/p/415a3c53-0688-598a-8d47-ae2e91b57b98/AQAKTl1AVVtj8qyd4W-HUPu53F1RzYQsCO1YlH5LHR2wBjiDs-ZJmNVV6wIxnG6ogXlbbjeGnyk2qjpfwmlLTvvPKsw.jpg)
Нейросети, вроде Sora и Luma, буквально заполонили медиапространство фейковым контентом. Что уж говорить, если политики, блогеры и другие деятели уже предупреждают о потоке дипфейков с ними. Вполне закономерно на сцене показался новый игрок — алгоритм, который без проблем отделяет ИИ-фальшивки от обычных фото и видео с точностью в 98%. И да, он сам основан на искусственном интеллекте.
Основная проблема в том, что люди раньше могли использовать программы против отредактированных видео. Так инструмент просматривал изображения кадр за кадром и находил несостыковки. Теперь же в видео сгенерированных искусственным интеллектом просто нет таких доказательств. Пришлось найти новый способ и новые следы, которые оставляет после себя нейросеть.
Технология под названием MISLnet основана на многолетних данных об обнаружении поддельных изображений и видео. Она, по сути, отслеживает все изменения, внесенные в файл: подмечает добавление, перемещение и удаление кадров, а также манипуляции со скоростью клипа. Но самое главное — она видит взаимосвязь между пикселями, которую создает алгоритмическая обработка цифровой камеры.
![Технология Deepfake Технология Deepfake](https://resizer.mail.ru/p/e46a0502-898a-5888-a061-afe5eb3eba9b/AQAKmfvUuNTBKY4DOihtxXsf5PzJtKdCrD-LA_p19gU3MR6aYJuEzN1dUs1nrTotFrJar66X25BEq3Hb--E8pNcBGwM.jpg)
Более простым языком, в пользовательских фото и видео, отредактированных приложениями, эти значения совсем иные. А вот в сгенерированном ИИ контенте почти нет заметных различий между «кодом» пикселей.
Так что новый инструмент учится с помощью ограниченной нейронной сети, чтобы идеально различать нормальные и необычные значения на субпиксельном уровне. А не только искать признаки манипуляций по старинке. На данный момент MISL правильно идентифицирует фото и видео, созданные ИИ, с точностью до 98%. В то время, как 7 других систем обнаружения набирают не более 93%.
Находить отличия фейковых видео от настоящих полезно, но далеко не для каждого обывателя. Лучше узнать больше о нейросети для распознавания чеков, которую создают российские студенты.