НовостиОбзорыВсе о нейросетяхБытовая техника 2024ГаджетыТехнологииНаукаСоцсетиЛайфхакиFunПромокодыСтранные вопросыЭксперты

Как отличить ИИ-изображение от настоящего: инструкция

10 апреля 2023
Эти пять простых методов позволят вам отличить фейковое нейросетевое фото от «живого» снимка.

Актуальная проблема

В последнее время интернет заполонили «дипфейки», сгенерированные с помощью Midjourney. Самыми известными стали изображения с Папой Римским Франциском, одетым в пуховик Moncler или Balenciaga, а также картинки ареста бывшего президента США Дональда Трампа. Вы можете видеть их ниже.

Обе работы выглядят настолько правдоподобно, что многие пользователи по всему миру поверили в реальность происходящего.

После этого громкого события разработчики Midjourney ограничили доступ к своей нейросети — теперь программа платная (10-60 долларов в месяц). Разработчики считают, что это решение уменьшит количество будущих фейковых ИИ-изображений. Мы же слабо в это верим.

На наш взгляд, ложных картинок не будет меньше из-за простого внедрения подписки, так как найдутся те, кто будет готов платить за распространение неправды. Чтобы избавиться от негативного влияния нейросетевых картинок, нужно уметь отличать ИИ-изображения от настоящих, и мы знаем, как это сделать.

Как отличить нейросетевую картинку от настоящей: 5 простых шагов

Шаг No 1: ищите первоисточники и альтернативные сведения

Допустим, вы увидели новость с сомнительной информацией и странной картинкой. Чтобы понять, настоящее это фото или нет, для начала воспользуйтесь простыми сервисами, а именно:

Скачайте фотографию и загрузите ее в поисковик, чтобы найти статьи и новости с этим же изображением. Скорее всего, в одном из источников вы найдете информацию об авторе этого снимка. Если же вы наткнулись на новость авторитетного издательства, там явно будут данные о том, чья эта фотография. Если вы обнаружили, что похожий снимок не публикуют в СМИ, но они есть в пабликах в соцсетях, скорее всего, это ИИ-картинка.

Шаг No 2: Попытайтесь найти похожие фото

Обычно фотографы делают несколько кадров одного и того же события. Так же, как и с шагом No1, загуглите сомнительную картинку, но уже не ищите статьи, а просматривайте похожие снимки. Дело в том, что нейросетям сложно сгенерировать два идентичных изображения.

Пример: опубликованные ранее ИИ-фотографии Папы Римского выглядели реалистичными, но среди них не было ни одной похожей. Папа стоял в разных позах и в разных локациях. Пока лицо Папы не менялось, немного изменялся пуховик и крест на шее, что говорит о том, что над фотографиями потрудилась нейросеть.

Шаг No 3: ищите дефекты

Хоть современные версии Midjourney и DALL-E демонстрируют возможность генерировать качественные работы, они все равно не сравняться с настоящими фото. Если приглядеться, многие ИИ-фото имеют дефекты. В частности, у человека на фейковом фото могут быть кривые пальцы или большое количество зубов.

Также вы можете сравнить нейросетевую картинку человека с настоящей фотографией этого же персонажа, чтобы увидеть разницу в цвете зубов, их количестве, форме пальцев, цвете кожи, наличии морщинок и родинок. Разберем этот способ на том же Папе Римском. Если сравнить ИИ-фотографию с его настоящим фото, можно заметить, что у «нейросетевого» Папы более пухлые губы, а родинки на висках расположены совсем иначе.

Шаг No 4: обратите внимание на странный блеск

ИИ-фотографии в большинстве случаев имеют нереалистичный блеск или «кривые» тени, которые создают впечатление, что к фотографии применили мультяшный фильтр. Подлинные фотографии, особенно сделанные с помощью современных смартфонов или профессиональных камер, попросту не будут так выглядеть.

Пример: обратим внимание на фейковые фото с арестом Дональда Трампа. Лица в кадре получились слишком «плоскими» и «гладкими», чего в жизни быть не может.

Шаг No 5: обратите внимание на текст

Даже при нынешнем развитии алгоритмов нейросети не могут полноценно генерировать текст на фото. Обычно все надписи получаются кривыми и с грамматическими ошибками. Также часто ИИ-алгоритмы создают вымышленный язык, на котором пишется весь текст на фото. Подобное произошло с фотографиями фейкового ареста Дональда Трампа. Посмотрите на надпись на бутылках. Вы тоже не узнаете эти буквы?

Конечно, авторы фейков могут воспользоваться одновременно и нейросетью, и фотошопом, чтобы добавить «грамотные» подписи к фото. В этом случае возвращайтесь к шагу No 1 и ищите источники с достоверной информацией.

Выводы

Скорее всего, будущие версии нейросетей будут генерировать фото с лучшим качеством и большим реализмом, что станет почвой для создания новых фейков. Мы же настоятельно рекомендуем перепроверять информацию и не верить сомнительным снимкам.

Некоторым пользователям не помешало бы подружиться с современными технологиями и сервисами. Посмотрите на примеры, подтверждающие это:

Никита Лактюшин