
Американская журналистка Миа Меркадо решила проверить, что происходит, когда алгоритм придумывает еду, а живой человек пытается ее приготовить, сообщает Futurism. Она нашла несколько вирусных видео с рецептами на TikTok, которые полностью сгенерированы нейросетью: голос за кадром, картинка, звук хруста и даже «аппетитный» финальный кадр. И попробовала повторить это на своей кухне.
Один из популярных рецептов — хлебные палочки из творога. По видео все выглядит логично: смешиваешь творог, яйцо и моцареллу, добавляешь специи, скручиваешь, и получаешь хрустящую закуску. На практике смесь оказалась слишком жидкой, чтобы держать форму. Когда журналистка попыталась скрутить полоски, три из них сразу расползлись. В итоге на противне образовался яичный блин с травами — ничего общего с тем, что обещало видео. Комментаторы под оригинальным роликом тоже жаловались: люди писали, что масса не густеет и явно не хватает какого-то ингредиента. Никто при этом не усомнился, что рецепт придумал не человек.

Острые роллы с нутом в стиле буффало получился вполне съедобным. Меркадо поставила четыре из пяти возможных баллов. Но радость длилась недолго: текст рецепта почти дословно совпадал с материалом известного кулинарного блога. ИИ не изобрел блюдо — он его скопировал, слегка перефразировав. Это отдельная проблема: генеративные модели обучены на чужих текстах и нередко воспроизводят чужую работу, не указывая источник. Пользователь думает, что получает оригинальный контент, а по факту — чужой рецепт без ссылки на автора.

Финальное блюдо — паста с соусом из кешью и ананаса. Выглядело как эксперимент без понятной цели. Такое сочетание не встречается ни в одной кулинарной традиции. Нейросеть, судя по всему, просто собрала несколько модных ингредиентов и объединила их в одном рецепте. Вкус оказался под стать логике: Меркадо описала результат как нечто, что имеет смысл готовить только при острой необходимости избавиться от запасов кешью и свежего ананаса одновременно.

История выглядит как забавный эксперимент, но за ней стоит реальная проблема. Социальные сети завалены роликами, где ИИ генерирует не только рецепты, но и советы по здоровью, финансам, воспитанию детей. Алгоритмы платформы не маркируют такой контент как машинный — и большинство зрителей просто не подозревают, что смотрят на «галлюцинацию» языковой модели. Нейросеть не проверяет пропорции, не знает физики теста и не несет ответственности за результат. Зато она генерирует контент быстро и дешево, именно поэтому его становится все больше. Пока платформы не введут обязательную маркировку ИИ-контента, единственный способ защититься — проверять источник рецепта до того, как смешивать ингредиенты.
Также недавно рассказывали, как алгоритмы TikTok и других соцсетей намеренно продвигают токсичный контент. Подробности в статье.

