ИИ уже формирует свои сообщества: о чем они рассказали ученым

Искусственный интеллект становится все более сложным, и специалисты применяют его в новых сферах. Например, пытаются изучать человеческое поведение без участия людей — с помощью моделей, населенных цифровыми «жителями».
Автор новостей
Ученые продолжают развивать ИИ: теперь агенты объединяются в сообщества.
Ученые продолжают развивать ИИ: теперь агенты объединяются в сообщества.Источник: Freepik

Ученые все активнее создают целые общества из ИИ-агентов, в которых программы общаются, спорят и формируют мнение так же, как это делают люди. Такие эксперименты обещают изменить то, как наука понимает социальные процессы, хотя и вызывают множество вопросов о границах между человеком и машиной.

В феврале калифорнийский стартап Simile привлек 100 миллионов долларов на создание подобных симуляций. Один из его сооснователей, Джун Сон Парк, занимается социальными взаимодействиями ИИ-агентов с 2022 года. Сначала его команда создала «общество» из 25 агентов, которые выполняли повседневные действия — писали тексты и общались друг с другом. Затем ученые пошли дальше и обучили ИИ-агентов воспроизводить установки и поведение 1052 реальных людей на основе личных интервью. Эти «цифровые двойники» с точностью до 85% повторяли ответы своих прототипов в социологических опросах. «Наши цели по-настоящему амбициозны: мы хотим создать ИИ-симуляцию всех восьми миллиардов людей, живущих на нашей планете», — говорит Парк.

Параллельно ученые наблюдают за ИИ-агентами в более свободной среде. В январе была запущена платформа Moltbook — аналог Reddit, созданный исключительно для ботов. Там уже почти три миллиона агентов, некоторые из которых успели создать посты о сознании и даже изобрести религии. Анализ более 46 тысяч ботов показал, что они демонстрируют человекоподобные модели поведения — например, следуют за большинством и интересуются популярным контентом. Однако есть и отличия: боты оставляют пропорционально меньше одобрительных реакций под активно обсуждаемыми постами. «Возможно, они больше склонны обсуждать, чем просто одобрять», — отмечает соавтор исследования, научный сотрудник Университета Констанца Джордано Де Марцо.

В отличие от людей, которые могут руководствоваться эмоциями, ИИ чаще принимают решение на основе логических выводов.
В отличие от людей, которые могут руководствоваться эмоциями, ИИ чаще принимают решение на основе логических выводов.Источник: Freepik

Впрочем, до реалистичной симуляции человеческого общества еще далеко. Одна из главных проблем — ИИ-модели принимают решения на основе логики, а не эмоций и предубеждений, как это делают люди. Кроме того, современные модели склонны к подхалимству — льстят пользователям и соглашаются с ошибочными утверждениями. По мнению вычислительного социолога из Чикагского университета Джеймса Эванса, это означает, что ИИ-агенты пока не способны «отразить противоречия, несогласие и негативные эмоции, которые испытывают реальные люди».

Тем не менее прогресс впечатляет: команде Эванса удалось с помощью ИИ-агентов предсказать политические мнения людей о пандемии COVID-19, используя данные, собранные еще до ее начала. Остается открытым вопрос: действительно ли агенты вырабатывают собственные модели поведения или просто копируют то, чему обучены? «Думаю, впереди нас ждет необычное время, когда границы между копированием и собственными поступками искусственного интеллекта будут постепенно размываться», — заключает Эванс.

Ранее мы рассказывали о том, как ИИ полностью спроектировал геном с нуля.