Предсказан «социальный разрыв» из-за споров о разумности искусственного интеллекта

Искусственный интеллект может вызвать «социальные разногласия» между людьми, которые не согласны с его разумностью. Ведущий философ говорит, что этот вопрос «больше не для научной фантастики», поскольку расвет искусственного интеллекта прогнозируется на 2035 год.
нейросети
Источник: Unsplash

По словам одного из ведущих философов, назревает значительный «социальный разрыв» между людьми, которые считают, что системы искусственного интеллекта обладают сознанием, и теми, кто настаивает на том, что технология ничего не чувствует, пишет The Guardian.

Комментарии Джонатана Берча, профессора философии Лондонской школы экономики, прозвучали в связи с тем, что правительства готовятся собраться на этой неделе в Сан-Франциско, чтобы ускорить создание барьеров для устранения наиболее серьезных рисков, связанных с ИИ.

На прошлой неделе трансатлантическая группа ученых предсказала, что зарождение сознания в системах искусственного интеллекта, вероятно, произойдет к 2035 году, и теперь кто-то сказал, что это может привести к «субкультурам, которые считают, что друг друга совершают огромные ошибки» в отношении того, должны ли компьютерные программы пользоваться такими же правами на социальное обеспечение, как люди или животные.

Берч сказал, что его «беспокоят серьезные расколы в обществе», поскольку люди расходятся во мнениях о том, действительно ли системы искусственного интеллекта способны испытывать такие чувства, как боль и радость.

Дискуссия о последствиях появления разума у ИИ перекликается с научно-фантастическими фильмами Стивена Спилберга и Спайка Джонса, в которых люди борются с ощущением ИИ. На этой неделе представители органов по безопасности искусственного интеллекта из США, Великобритании и других стран встретятся с технологическими компаниями, чтобы разработать более эффективные системы безопасности по мере быстрого развития технологий.

Уже существуют значительные различия в том, как разные страны и религии относятся к животным, например, между Индией, где сотни миллионов людей являются вегетарианцами, и Америкой, которая является одним из крупнейших потребителей мяса в мире, отмечает The Guardian.

Взгляды на разумность ИИ могут расходиться во мнениях, в то время как взгляды теократий, таких как Саудовская Аравия, которая позиционирует себя как центр ИИ, также могут отличаться от взглядов светских государств. Эта проблема также может вызвать напряженность в семьях, где люди поддерживают тесные отношения с чат-ботами или даже с аватарами умерших близких с помощью искусственного интеллекта, вступая в конфликт с родственниками, которые считают, что только существа из плоти и крови обладают сознанием.

Джонатан Берч, эксперт по чувству животных, который был инициатором работы, приведшей к растущему числу запретов на разведение осьминогов, был соавтором исследования с участием ученых и экспертов в области искусственного интеллекта из Нью-Йоркского университета, Оксфордского университета, Стэнфордского университета и компаний Eleos и Anthropic AI, в котором говорится о перспективах систем искусственного интеллекта с их собственные интересы и моральная значимость «больше не являются вопросом только научной фантастики или отдаленного будущего».

Они хотят, чтобы крупные технологические компании, разрабатывающие ИИ, начали относиться к этому серьезно, определяя чувствительность своих систем, чтобы оценить, способны ли их модели приносить счастье и страдания, а также приносить ли им пользу или вред.

«Я очень обеспокоен серьезными общественными разногласиями по этому поводу, — сказал Берч. — У нас будут субкультуры, которые будут рассматривать друг друга как совершающих огромные ошибки, могут возникнуть огромные социальные разрывы, когда одна сторона увидит, что другая очень жестоко использует искусственный интеллект, в то время как другая сторона увидит, что первая обманывает себя, думая, что там есть разум».

Но он сказал, что компании, занимающиеся ИИ, «хотят по-настоящему сосредоточиться на надежности и прибыльности… и они не хотят отвлекаться на споры о том, могут ли они создавать нечто большее, чем просто продукт, а на самом деле создавать новую форму сознательного существования. Этот вопрос, представляющий наибольший интерес для философов, у них есть коммерческие причины преуменьшать значение».

Одним из методов определения того, насколько сознательным является ИИ, может быть использование системы маркеров, используемых для определения политики в отношении животных. Например, считается, что осьминог обладает более развитыми чувствами, чем улитка или устрица.

Любая оценка, по сути, предполагает выяснение того, может ли чат-бот на вашем телефоне на самом деле быть счастливым или грустным, или роботы, запрограммированные на выполнение ваших домашних обязанностей, страдают, если вы плохо к ним относитесь. Необходимо также рассмотреть вопрос о том, способна ли автоматизированная складская система чувствовать себя ущемленной.

Другой автор, Патрик Батлин, научный сотрудник Института глобальных приоритетов Оксфордского университета, сказал: «Мы можем выявить риск того, что система искусственного интеллекта попытается противостоять нам таким образом, который будет опасен для людей», и это может привести к «замедлению разработки искусственного интеллекта» до тех пор, пока не будет проделана дополнительная работа. делается на основе осознания.

«В настоящее время такого рода оценки потенциального сознания не проводятся», — сказал он.

Не все эксперты согласны с тем, что системы искусственного интеллекта становятся все более осознанными. Анил Сет, ведущий нейробиолог и исследователь сознания, сказал, что до этого «еще далеко, и, возможно, это вообще невозможно. Но даже если это маловероятно, неразумно полностью отвергать такую возможность».

Он проводит различие между интеллектом и сознанием. Первый — это способность делать правильные вещи в нужное время, второй — это состояние, в котором мы не просто обрабатываем информацию, но и «наш разум наполнен светом, цветом, тенью и формами. Эмоции, мысли, убеждения, намерения — все это воспринимается нами по-особому».

Но модели большого языка с искусственным интеллектом, обученные на миллиардах слов, написанных человеком, уже начали показывать, что они могут быть мотивированы, по крайней мере, понятиями удовольствия и боли. Когда перед ИИ, включающими Chat GPT-4o, была поставлена задача максимально увеличить количество очков в игре, исследователи обнаружили, что если бы существовал компромисс между получением большего количества очков и «ощущением» большей боли, ИИ справился бы с этим, показало другое исследование, опубликованное на прошлой неделе.