НовостиОбзорыВсе о нейросетяхБытовая техника 2024ГаджетыТехнологииНаукаСоцсетиЛайфхакиFunПромокодыСтранные вопросыЭксперты

Предсказан «социальный разрыв» из-за споров о разумности искусственного интеллекта

18 ноября 2024
Искусственный интеллект может вызвать «социальные разногласия» между людьми, которые не согласны с его разумностью. Ведущий философ говорит, что этот вопрос «больше не для научной фантастики», поскольку расвет искусственного интеллекта прогнозируется на 2035 год.

По словам одного из ведущих философов, назревает значительный «социальный разрыв» между людьми, которые считают, что системы искусственного интеллекта обладают сознанием, и теми, кто настаивает на том, что технология ничего не чувствует, пишет The Guardian.

Комментарии Джонатана Берча, профессора философии Лондонской школы экономики, прозвучали в связи с тем, что правительства готовятся собраться на этой неделе в Сан-Франциско, чтобы ускорить создание барьеров для устранения наиболее серьезных рисков, связанных с ИИ.

На прошлой неделе трансатлантическая группа ученых предсказала, что зарождение сознания в системах искусственного интеллекта, вероятно, произойдет к 2035 году, и теперь кто-то сказал, что это может привести к «субкультурам, которые считают, что друг друга совершают огромные ошибки» в отношении того, должны ли компьютерные программы пользоваться такими же правами на социальное обеспечение, как люди или животные.

Берч сказал, что его «беспокоят серьезные расколы в обществе», поскольку люди расходятся во мнениях о том, действительно ли системы искусственного интеллекта способны испытывать такие чувства, как боль и радость.

Дискуссия о последствиях появления разума у ИИ перекликается с научно-фантастическими фильмами Стивена Спилберга и Спайка Джонса, в которых люди борются с ощущением ИИ. На этой неделе представители органов по безопасности искусственного интеллекта из США, Великобритании и других стран встретятся с технологическими компаниями, чтобы разработать более эффективные системы безопасности по мере быстрого развития технологий.

Уже существуют значительные различия в том, как разные страны и религии относятся к животным, например, между Индией, где сотни миллионов людей являются вегетарианцами, и Америкой, которая является одним из крупнейших потребителей мяса в мире, отмечает The Guardian.

Взгляды на разумность ИИ могут расходиться во мнениях, в то время как взгляды теократий, таких как Саудовская Аравия, которая позиционирует себя как центр ИИ, также могут отличаться от взглядов светских государств. Эта проблема также может вызвать напряженность в семьях, где люди поддерживают тесные отношения с чат-ботами или даже с аватарами умерших близких с помощью искусственного интеллекта, вступая в конфликт с родственниками, которые считают, что только существа из плоти и крови обладают сознанием.

Джонатан Берч, эксперт по чувству животных, который был инициатором работы, приведшей к растущему числу запретов на разведение осьминогов, был соавтором исследования с участием ученых и экспертов в области искусственного интеллекта из Нью-Йоркского университета, Оксфордского университета, Стэнфордского университета и компаний Eleos и Anthropic AI, в котором говорится о перспективах систем искусственного интеллекта с их собственные интересы и моральная значимость «больше не являются вопросом только научной фантастики или отдаленного будущего».

Они хотят, чтобы крупные технологические компании, разрабатывающие ИИ, начали относиться к этому серьезно, определяя чувствительность своих систем, чтобы оценить, способны ли их модели приносить счастье и страдания, а также приносить ли им пользу или вред.

«Я очень обеспокоен серьезными общественными разногласиями по этому поводу, — сказал Берч. — У нас будут субкультуры, которые будут рассматривать друг друга как совершающих огромные ошибки, могут возникнуть огромные социальные разрывы, когда одна сторона увидит, что другая очень жестоко использует искусственный интеллект, в то время как другая сторона увидит, что первая обманывает себя, думая, что там есть разум».

Но он сказал, что компании, занимающиеся ИИ, «хотят по-настоящему сосредоточиться на надежности и прибыльности… и они не хотят отвлекаться на споры о том, могут ли они создавать нечто большее, чем просто продукт, а на самом деле создавать новую форму сознательного существования. Этот вопрос, представляющий наибольший интерес для философов, у них есть коммерческие причины преуменьшать значение».

Одним из методов определения того, насколько сознательным является ИИ, может быть использование системы маркеров, используемых для определения политики в отношении животных. Например, считается, что осьминог обладает более развитыми чувствами, чем улитка или устрица.

Любая оценка, по сути, предполагает выяснение того, может ли чат-бот на вашем телефоне на самом деле быть счастливым или грустным, или роботы, запрограммированные на выполнение ваших домашних обязанностей, страдают, если вы плохо к ним относитесь. Необходимо также рассмотреть вопрос о том, способна ли автоматизированная складская система чувствовать себя ущемленной.

Другой автор, Патрик Батлин, научный сотрудник Института глобальных приоритетов Оксфордского университета, сказал: «Мы можем выявить риск того, что система искусственного интеллекта попытается противостоять нам таким образом, который будет опасен для людей», и это может привести к «замедлению разработки искусственного интеллекта» до тех пор, пока не будет проделана дополнительная работа. делается на основе осознания.

«В настоящее время такого рода оценки потенциального сознания не проводятся», — сказал он.

Не все эксперты согласны с тем, что системы искусственного интеллекта становятся все более осознанными. Анил Сет, ведущий нейробиолог и исследователь сознания, сказал, что до этого «еще далеко, и, возможно, это вообще невозможно. Но даже если это маловероятно, неразумно полностью отвергать такую возможность».

Он проводит различие между интеллектом и сознанием. Первый — это способность делать правильные вещи в нужное время, второй — это состояние, в котором мы не просто обрабатываем информацию, но и «наш разум наполнен светом, цветом, тенью и формами. Эмоции, мысли, убеждения, намерения — все это воспринимается нами по-особому».

Но модели большого языка с искусственным интеллектом, обученные на миллиардах слов, написанных человеком, уже начали показывать, что они могут быть мотивированы, по крайней мере, понятиями удовольствия и боли. Когда перед ИИ, включающими Chat GPT-4o, была поставлена задача максимально увеличить количество очков в игре, исследователи обнаружили, что если бы существовал компромисс между получением большего количества очков и «ощущением» большей боли, ИИ справился бы с этим, показало другое исследование, опубликованное на прошлой неделе.