
Для развития и обучения нейросетей необходимы большие объемы данных, которые загружаются в систему. Они различаются в зависимости от типа и функционала нейросети: для обучения модели генерации музыки потребуются терабайты соответствующей информации. Если же мы хотим научить ИИ рисовать дерево, то сначала потребуется загрузить в систему множество изображений деревьев, которые будет считывать система распознавания образов. Она сможет указать на схожие паттерны на разных картинках. На их основе нейросеть начнет «рисовать» собственные изображения дерева. Аналогичные принципы используются для генерации рекламных изображений или видео.
Когда нам необходимо обучить нейросеть писать картины или музыку либо генерировать иные объекты авторских прав, сразу возникает множество правовых вопросов, на которые в силу отсутствия регулирования разные интересанты смотрят по-своему. Тем, кто обучает генеративные нейросети, загрузка картинок, музыки или текста из сети в базу данных кажется чем-то естественным. И мало кто задумывается, охватывает ли понятие «использование объекта авторского права» такое действие, как загрузка картинки в базу нейросети, ее обучение и последующая генерация нового изображения.
Однако авторы в свою очередь считают, что такие действия нарушают их права. И действительно, использование ключевых элементов некоего произведения, на котором нейросеть строит свое представление о объекте с чьего-то произведения, может быть истолковано как незаконное использование чужого объекта авторского права и толковаться как переработка такого объекта. Кто же прав?

Основная проблема в том, что развитие законодательства не поспевает за технологическим прогрессом. Например, в те годы, когда писалась часть 4 ГК РФ, содержащая статью 1270, в которой перечисляются способы использования объектов авторского права, никто и подумать не мог, что потребуется дополнять ее такой нормой, как «использование объекта в целях обучения генеративной нейросети путем загрузки его в базу данных такой нейросети».
Сейчас мы не можем однозначно сказать, что если загрузка объекта авторского права в базу нейросети не перечислена как способ его использования, то и нарушения нет. Дело в том, что перечень действий, которые понимаются под использованием объекта авторского права, открытый. Это может косвенно указывать на то, что и для загрузки картинки в базу нейросети получать разрешение у ее автора нужно.

Такая неоднозначность регулирования порождает ряд вопросов и потенциальных проблем. Мы регулярно слышим про конфликты между авторами творческих произведений и разработчиками генеративных нейросетей. Так, например, более 8000 авторов выступили против использования их книг для обучения ИИ. Они написали открытое письмо руководителям OpenAI, Alphabet, Stability AI, IBM, Microsoft и других компаний. Недавно также активисты собирали подписи в поддержку требования отменить аукцион произведений искусства, созданных с помощью ИИ, на Christie’s.
Другие авторы идут дальше открытых писем и меморандумов и предъявляют иски таким компаниям, обвиняя их в нарушении их прав. Ярким примером стал коллективный иск от группы художников к компаниям, разрабатывающей уже упомянутый Midjourney, а также арт-платформы DeviantArt и компании, занимающейся искусственным интеллектом Stability AI. Другой пример — иск Getty Images против Stability AI в окружной суд США в штате Делавэр в феврале 2023 года. В нем Getty Images заявляет о нарушении авторских прав на использование изображений Getty Images.
Заметным был и коллективный иск против компании Nvidia. В основе обвинений лежало расследование, которое показало, что Nvidia массово собирала видео с YouTube и других платформ для создания собственных ИИ-систем. А всего за две недели до подачи иска против Nvidia был подан аналогичный иск против OpenAI, в котором утверждалось, что компания использовала миллионы видео с YouTube без согласия авторов для обучения своих генеративных моделей.
Число таких примеров в перспективе будет только расти. Исходя из этого можно сделать вывод, что использование использования генеративного искусственного интеллекта, как, впрочем, и обычного, пока остается сферой high risk в силу отсутствия должного правового регулирования. Это приводит к тому, что разработчики ИИ опытным путем проверяют, что является допустимым с точки зрения общественного мнения, норм этики и потенциально права, а что нет.