Хитрая нейросеть учится на искаженных изображениях для обхода авторских прав

Искусственный интеллект, таким образом, не сможет скопировать исходную картинку.

Модели искусственного интеллекта, которые переводят текст в изображение и обучаются на оригинальных картинках, могут их запоминать, создавая копии, что приводит к нарушению авторских прав. Новая модель ИИ обучается только на испорченных изображениях, устраняя эту юридическую проблему, пишет New Atlas.

Генераторы изображений из текста могут копировать работы, использованные для их обучения, что ущемляет авторские права художников. В мае на материнскую компанию Google Alphabet был подан коллективный иск о нарушении авторских прав со стороны группы художников. Истцы утверждали, что поисковый гигант без разрешения использовал их работы для обучения своего генератора изображений Imagen. Stability AI, Midjourney и DeviantArt сталкиваются с аналогичными исками.

Ambient Diffusion — это модель искусственного интеллекта для преобразования текста в изображение, которая защищает авторские права исполнителя за счет использования сильно поврежденных изображений.
Ambient Diffusion — это модель искусственного интеллекта для преобразования текста в изображение, которая защищает авторские права исполнителя за счет использования сильно поврежденных изображений.Источник: Daras et al.

Чтобы избежать этой проблемы, исследователи из Техасского университета в Остине и Калифорнийского университета в Беркли разработали систему генеративного искусственного интеллекта на основе диффузии. Обучение этой модели происходит исключительно на изображениях, настолько искаженных, что распознать их изначальное содержание невозможно. Таким образом, значительно снижается вероятность того, что ИИ запомнит и воспроизведет оригинальную работу.

Диффузионные модели генерируют качественные данные путем постепенного добавления шума в набор данных, а затем учатся обращать этот процесс вспять. Недавние исследования показали, что эти модели запоминают примеры из своего обучающего набора. Это имеет очевидные последствия для конфиденциальности, безопасности и авторских прав. Предположим, ИИ необходимо обучаться на рентгеновских снимках. Если бы модель запоминала изображения конкретных пациентов, это нарушило бы их право на частную жизнь.

Исследователи продемонстрировали с помощью своей структуры Ambient Diffusion, что модель диффузии можно обучить генерировать высококачественные изображения, используя только сильно искаженные исходные образцы.

Выходные данные Ambient Diffusion, созданные на основе «чистых» (слева) и поврежденных (справа) обучающих изображений.
Выходные данные Ambient Diffusion, созданные на основе «чистых» (слева) и поврежденных (справа) обучающих изображений.Источник: Daras et al.

Исследователи сначала обучили свою модель на 3000 «чистых» изображениях из CelebA-HQ — базы данных высококачественных портретов знаменитостей. При запросе модель генерировала изображения, практически идентичные оригиналам (левая панель).

Затем ученые переобучили модель на 3000 сильно искаженных изображениях, где до 90% отдельных пикселей были случайным образом замаскированы. Хотя модель по-прежнему создавала реалистичные человеческие лица, результаты оказались гораздо менее похожими на исходные изображения (правая панель).

Разработанная структура может быть полезна не только в области искусства, но и в научных и медицинских целях.

Исследователи сделали свой код и модель Ambient Diffusion открытыми, чтобы стимулировать дальнейшие исследования. Он доступен на GitHub .

Ранее OpenAI показала первое изображение, сгенерированное новым GPT-4o. Неопытный пользователь вряд ли отличит данное ИИ-изображение от настоящей фотографии.