Илья Суцкевер о будущем: сверхразумный ИИ будет непредсказуемым

В 2025 году способность ИИ к рассуждению сделает его менее предсказуемым. Сооснователь компании OpenAI Илья Суцкевер уверен, что скоро появятся сложные «агентные» системы ИИ. В целях безопасности над ними необходим контроль.
Автор Hi-Tech Mail

Илья Суцкевер в сфере искусственного интеллекта прогнозирует революционный шаг вперед. Сегодняшние модели ИИ, по его мнению, могут сопоставлять информацию только по определенному образцу.

Интернет достигнет предела своих возможностей

Традиционная методика предварительного обучения моделей ИИ, при которой используются внушительные объемы немаркированных данных, становится неактуальной. Суцкевер считает, что человеческий контент в глобальной сети практически исчерпан. Поэтому индустрии придется искать новые подходы к обучению моделей.

Илья Суцкевер
Илья СуцкеверИсточник: Expert

Ученый сравнил данные с полезными ископаемыми, отметив, что они тоже имеют лимиты. «Как нефть является конечным ресурсом, так и объем контента в интернете ограничен. У нас есть только один интернет», — заявил Суцкевер. Преодолеть это, по его мнению, помогут инновации. Например, системы ИИ, генерирующие собственные данные или уточняющие свои ответы.

Новые ИИ модели станут «агентными»

Сверхразумные системы будут «агентными» в полном смысле этого слова. Они смогут сами принимать решения, рассуждать и взаимодействовать с программным обеспечением без помощи человека. По словам Суцкевера, сверхинтеллект способен совершать научные открытия, решать глобальные проблемы, создавать лекарственные препараты от множества неизлечимых болезней и многое другое.

Нейросеть
Источник: Midjourney

Илья Суцкевер уверен, что ИИ будет думать как люди, но с одной особенностью. «Чем больше он размышляет, тем более непредсказуемым становится», — добавил он. По сравнению с сегодняшними моделями ИИ, основанными на шаблонном сопоставлении информации, «агентные» системы будут прорывом. Он привел в пример ИИ, играющий в шахматы, который ставит в тупик даже профессиональных игроков. Подобное событие было в 2016 году, когда ИИ для игры го AlphaGo обыграл южнокорейского чемпиона мира Ли Седола. Он нашел решения, недоступные для разума человека.

SSI начнет разрабатывать методы, чтобы ИИ не навредил человечеству

Safe Superintelligence Inc (SSI) — лаборатория безопасного сверхразума, которая уже привлекла 1 млрд долларов от инвесторов. Эти средства учредители планируют направить на приобретение вычислительной мощности и найма лучших технических специалистов, которые будут работать в Пало-Альто и Тель-Авиве.

ИИ
Источник: Freepik

Лабораторию SSI основал Илья Суцкевер после ухода из компании OpenAI для того, чтобы люди сохраняли контроль, когда ИИ станет сверхинтеллектом. Он считает, что нынешние способы безопасности ИИ будут бессильны, так как человечество не сможет просчитать действия сверхразума. «Под безопасным мы подразумеваем безопасное, как ядерная безопасность, а не безопасное, как в словосочетании «доверие и безопасность», — говорит Суцкевер. Поэтому SSI будет создавать такие методы, которые смогут гарантировать, что сверхинтеллект станет полезен мировому обществу, а не наоборот.

ИИ будет развиваться аналогично эволюции живых организмов

Эксперт сравнил масштабирование ИИ систем с эволюционной биологией. Он представил данные исследований, которые показали определенные закономерности между весом мозга и тела у разных видов животных. Однако у гоминид, предков человека, нестандартный путь развития. По его предположениям, искусственный интеллект также может найти похожие новые траектории роста за пределами привычного сегодня предварительного обучения.

Роботы
Источник: Unsplash

Суцкевер думает, что появление сверхразума окажет огромное влияние на абсолютно все сферы жизни общества. Он вызовет изменения, которые приведут к полному переосмыслению роли человека в мире. «Это будет что-то грандиозное, потрясающее. Будет до и будет после», — прогнозирует эксперт.