Искусственный сверхинтеллект: что это такое и может ли он угрожать человечеству

Бурное развитие искусственного интеллекта в последние годы сделало вновь актуальным один из самых спорных и захватывающих вопросов современной науки: возможно ли создание сверхразума — машины, которая будет по всем параметрам интеллектуально превосходить человека?
Автор новостей
Новейшие модели искусственного интеллекта все больше преуспевают в задачах, которые еще недавно считались исключительно «человеческими»
Новейшие модели искусственного интеллекта все больше преуспевают в задачах, которые еще недавно считались исключительно «человеческими»Источник: Freepik

История идеи сверхинтеллекта уходит корнями в середину XX века, но именно с появлением мощных языковых моделей — GPT от OpenAI, Gemini от Google и Claude от Anthropic дискуссии вокруг искусственного сверхразума (ASI) приобрели новый масштаб. Модели, которые демонстрируют успехи в решении задач, ранее считавшихся сугубо человеческими, заставляют пересматривать представления о пределах машинного интеллекта. Ученые спорят о сроках — от нескольких лет до «никогда» — но уже ясно, что на горизонте возникает принципиально новая реальность.

По словам профессора Университетского колледжа Лондона и ведущего научного сотрудника Google DeepMind Тима Роктешеля, мы стоим на пороге эпохи, в которой научные открытия будут автоматизированы, экономический рост ускорится в разы, а продолжительность и качество жизни значительно возрастут. Но, как и любая мощная технология, сверхразум таит в себе риски — от потери рабочих мест до полной утраты человеком контроля над созданным им, но очевидно гораздо более разумным существом.

Концепция искусственного сверхразума опирается на развитие так называемого общего интеллекта (AGI) — систем, способных решать широкий спектр задач, наравне с человеком. Уже сегодня существуют модели, которые успешно проходят университетские экзамены, участвуют в математических олимпиадах и пишут программный код. По мнению Роктешеля, как только мы достигнем уровня AGI, следующий этап — ASI — может наступить буквально через несколько лет. Ведь такие системы смогут улучшать самих себя, порождая эффект «взрыва интеллекта», о котором еще в 1965 году писал британский математик Ирвинг Джон Гуд.

Иистемы ИИ уже скоро смогут улучшать самих себя
Иистемы ИИ уже скоро смогут улучшать самих себяИсточник: livescience.com

Футурист Рэй Курцвейл считает, что подобная сингулярность — момент, когда технологические изменения станут необратимыми и непредсказуемыми — может наступить уже в 2045 году. Многие эксперты с ним согласны: в недавнем опросе почти три тысячи исследователей ИИ оценили вероятность появления ASI к 2047 году в 50%.

Оптимисты, в том числе, Даниэль Хьюм из компаний Satalia и Conscium, утверждают, что сверхразум поможет человечеству устранить дефицит в образовании, здравоохранении, еде и энергии, снизив стоимость этих благ практически до нуля. Однако он же предупреждает: если переход произойдет слишком быстро, общество может не успеть адаптироваться к нему, что приведет к массовым увольнениям и социальной нестабильности.

Но социальное напряжение — сущая мелочь по сравнению с самым тревожным сценарием — утратой контроля над сверхинтеллектом. Философ Ник Бостром еще в 2012 году предупреждал: сверхразум не обязательно должен быть враждебен, чтобы представлять угрозу. Он может просто не учитывать интересы людей. В его знаменитом примере сверхразуму поручают производить как можно больше скрепок, и он, не будучи «злым», решает превратить все доступное вещество, включая людей, в скрепки — ради достижения поставленной перед ним цели.

Ученые предостерегают: без контроля искусственный интеллект может навредить людям
Ученые предостерегают: без контроля искусственный интеллект может навредить людямИсточник: Unsplash

Тем не менее, Роктешель подчеркивает, что современные ИИ изначально проектируются как «честные, безопасные и полезные помощники», и уверен, что механизмы контроля будут совершенствоваться. Ему оппонирует Хьюм — он считает нынешние методы «моральной настройки» ИИ слишком примитивными. Вместо навязывания правил в конце обучения, его команда работает над созданием «морального инстинкта» у ИИ, выращивая его в виртуальных мирах, где вознаграждаются кооперация и альтруизм. Пока такие системы напоминают по уровню развития насекомых, но при масштабировании этот подход может обеспечить более глубокую этичность таких моделей.

Наконец, есть и скептики. Некоторые исследователи попросту сомневаются, что одна система может стать универсально «умной» по всем фронтам. Другие считают, что текущие модели переоцениваются из-за узконаправленных тестов, по которым они целенаправленно натасканы, но которые мало говорят о реальной способности работать в физическом мире или взаимодействовать с людьми.

И все же вопрос уже заключается не в том, возможно ли появление искусственного сверхразума, а в том, готовы ли мы к миру, в котором он действительно будет существовать — и возможно, действовать по своим, непонятным нам, правилам.

Тем временем россияне стали чаще доверять ИИ планирование досуга и решение бытовых задач.