Ведущие исследователи в области ИИ надеются, что смогут противодействовать созданию летального автономного оружия. Более 150 различных фирм и организаций, связанных с ИИ, приняли участие в создании и подписании документа на международной конференции в Стокгольме. Как полагают участники кампании, человечеству грозит опасность. Если не установить запрет на технологии, позволяющие машинам сражаться без человеческого контроля, может быть создано новое поколение оружия массового уничтожения.
Ученые подчеркивают опасность и неэтичность передачи машинам решений о жизни и смерти людей. Во всем мире военные — один из крупнейших спонсоров и пользователей технологий ИИ. А постоянное совершенствование этих технологий заставляет исследователей беспокоиться: уже совсем скоро умные машины смогут не просто патрулировать землю и море или доставлять грузы. Важнее всего не перейти черту, полагают ученые.
Йошуа Бенджио из Монреальского института изучения алгоритмов сказал The Guardian, что если обращение сможет оказывать давление на бизнес и военные организации, создающие автономное оружие, общественное мнение будет работать против них. «Этот подход действительно сработал на наземных минах, спасибо международным договорам и публичному осуждению. Хотя крупные страны, такие как США, не подписывали договор о запрещении наземных мин, американские компании прекратили их производство», — сказал он.
Человек для управления подобным оружием уже не нужен.
Быстрое развитие в этих областях науки уже позволяет создавать сложное оружие, которое может идентифицировать, отслеживать и уничтожать людей. Человек для управления подобным оружием уже не нужен. «Нам необходимо сделать международной нормой неприемлемость автономного оружия. Мы не можем удержать каждого человека от создания автономного оружия, так же как мы не можем остановить человека, решившего создать химическое оружие. Но если мы не хотим, чтобы государства-изгои или террористы имели легкий доступ к автономному оружию, мы должны обеспечить, чтобы оно не продавалось открыто компаниями-производителями оружия», — сказал Тоби Уолш, профессор ИИ в Университете Нового Южного Уэльса в Сиднее.
Люси Сачмэн, профессор антропологии науки и техники Университета Ланкастер, подчеркнула: исследователи озабочены тем, как используются их работы. Даже если ученый предпочитает не работать с военными, данные его опубликованных исследований могут быть использованы как угодно, и это невозможно проконтролировать. Сачмэн считает, что необходимо отслеживать последующие применения технологий, отказывать в консультировании, если их применяют в недопустимых целях и протестовать в подобных случаях.
Это тоже интересно: