НовостиОбзорыВсе о нейросетяхБытовая техника 2024ГаджетыТехнологииНаукаСоцсетиЛайфхакиFunПромокодыСтранные вопросыЭксперты

Клонирование, роботы и глобальная слежка. 7 самых пугающих технологий

15 апреля 2020
Стремление к прогрессу — то, что сопровождает человечество на протяжении всей его истории. От дикаря, сумевшего развести первый племенной костёр, мы добрались до дронов, самообучающихся нейросетей и гироскутеров. Но технологии вызывают не только восхищение, но и самый настоящий страх.

Успех сериала «Чёрное зеркало» только подтверждает то, что мы — люди — порой сами боимся того, что создали. Иногда эти страхи полностью иррациональны — чего только стоят прививочные диссиденты и противники ГМО. Но иногда самые страшные сценарии, нарисованные воображением, не так далеки от истины. На Hi-Tech Mail.ru подборка самых пугающих технологий. Всем, кто устал бояться коронавируса и хочет новых фобий, посвящается.

Клонирование

Страх перед клонированием — безграничный источник вдохновения для фантастов. Сложно сосчитать, сколько великих образов он нам дал — это репликанты из «Бегущего по лезвию», «Шестой день» с Арнольдом Шварценеггером и даже армия клонов из вселенной «Звёздных войн». Сама идея, что мы можем не просто искусственно создавать существ по своему образу и подобию, а буквально скопировать живое существо, представляется довольно жуткой и неестественной.

Настоящим маскотом клонирования стала рождённая в 1996 году овечка Долли. Правда, практически сразу после этого прорыва развитие технологии замедлилось. Многих напугала непредсказуемость и этическая сложность клонирования человека — на данный момент оно запрещено более чем в 70 странах (в России с 2002 года). И всё же главная проблема с клонами в том, что технология слабо поддаётся контролю — по крайней мере, на текущей стадии. Большое количество брака и генетических ошибок на стадии экспериментов это подтверждают. А воспетое многими авторами клонирование сознания — так и вовсе существует только как идея из фантастических антиутопий. Пока.

При этом, у клонирования есть и очевидный положительный потенциал — например, возможность воскрешения вымерших видов с помощью их ДНК. Но массовая культура и тут подсказывает нам, что всё может пойти не так — вспомним хотя бы «Парк Юрского периода».

Искусственный интеллект

Настоящая классика прикладной технофобии. Если клоны в фантастике встречаются достаточно часто, то продвинутый искусственный интеллект, восставший против своих создателей — чуть ли не постоянно. Истоки этого страха настолько ясны, что о них как-то стыдно упоминать. Компьютер как инструмент для работы с данными совершеннее, чем человеческий мозг. Но что, если компьютеры вдруг станут настолько умны, что смогут стереть человечество с лица Земли? Было бы странно, если б такая мысль не пришла никому в голову.

Хрестоматийный пример — «Скайнет» из франшизы «Терминатор», но примеров жуткого ИИ хватало и до него. Чего только стоит бортовой компьютер HAL 9000 из «Космической Одиссеи» Кубрика. Астронавты отказались выполнять миссию — следовательно, они должны быть уничтожены. И точка. Чувства машине незнакомы — и в этом главный источник ужаса перед искусственным интеллектом.

Но самое страшное то, что искусственный суперинтеллект с каждым годом становится всё ближе, а о его опасности предупреждают не только фантасты, а виднейшие умы современности. «Человек, будучи диктатором, всё равно умрёт. Но искусственному интеллекту это не грозит. Он будет жить вечно. Так мы получим бессмертного диктатора, от которого нельзя спастись», — это слова Илона Маска из документального фильма 2018 года «Вы доверяете этому компьютеру?» Посмотрите его — там много ответов, которые вам не понравятся.

Распознавание лиц

Опять же, с одной стороны — небывалое преимущество, позволяющее снизить преступность и повысить раскрываемость. С другой — реальная адаптация сценария Оруэлла с глобальной слежкой. За примером даже не нужно обращаться к научной фантастике — Китай уже вовсю пользуется этой технологией. Полицейские смарт-очки компании LLVision позволяют за несколько минут «пробить» лицо подозреваемого по базе, чтобы выдать имя и адрес.

Проблема в том, что это как раз та технология, которую невероятно просто использовать не только на благо общества, но и для установления тотального контроля. Побочный эффект китайской системы распознавания лиц — социальный рейтинг. Человек может потерять кредит как за критику коммунистической партии, так и за то, что выгуливал собаку без поводка.

Но если вы думаете, что это происходит только в Китае, то вот вам два факта. Во-первых, в Москве установлено 170 тысяч камер, через которые внедряется система распознавания лиц. Во-вторых, по данным «Фонда Карнеги за международный мир», правительства как минимум пятидесяти двух стран пользуются похожими системами глобальной слежки.

Deep Fake

За этой новинкой последнего времени вы, скорее всего, следили по вирусным видео, где авторы заменяют лицо одного актёра лицом другого. Так мы узнали, что было бы, если бы Михаил Ефремов сыграл всех персонажей «Ангелов Чарли». Но по сравнению с реальными возможностями технологии Deep Fake это детская поделка, которую «сваяли и на коленке». Замена лиц в видео в нескольких шагах от того, чтобы стать самым страшным информационным оружием.

Deep Fake уже используют для создания поддельной порнографии и политической пропаганды. Например, бельгийские социалисты апеллировали к фейковому ролику с Дональдом Трампом, чтобы доказать свою позицию по вопросам климатического кризиса. А ведь большинство людей может даже не задуматься о том, что видят перед собой подделку.

Теперь представьте, что будет, когда мы сможем убедительно заменять не только лица, но и тела людей на видео. Это уже возможно, но требует длительной работы специалистов. Но если сделать такую технологию доступной, мир упадёт в пропасть постправды и информационной войны. Любое видео будет потенциальным фейком — и вы никогда не сможете определить, что именно вы смотрите. Сложно сказать, произойдёт ли это на самом деле, но одно ясно наверняка — человечество не готово к глобальной паранойе такого масштаба.

Роботы

После таких серьёзных вещей упоминание роботов выглядит практически шуткой. Ведь Deep Fake и распознавание лиц уже стоят на пороге, а злые роботизированные армии — разве что в фантазиях гиков. Но всё не так просто. Развитие роботехнологий затрагивает сразу несколько факторов, заставляющих воспринимать их как угрозу.

Первый из них — социальный. Страх перед тем, что роботы в какой-то момент станут более дешёвой рабочей силой, чем люди, появился давно. Прогресс вообще редко обходится без жертв, поэтому некоторые профессии устаревают. Допустим, что это повод скорее недолюбливать роботов, чем бояться. Переходим ко второму пункту.

Реалистичные роботы вызывают у многих людей иррациональный страх — этот феномен получил название «Эффект зловещей долины» (Uncanny valley effect). Речь о том, что чем больше робот похож на человека, тем большее количество людей испытывает страх и отвращение. Возможно, дело в лицевой симметрии. Человеческие лица асимметричны, поэтому наш мозг улавливает несоответствие, и начинает бить тревогу. Сюда же относится и отсутствие мигательного рефлекса. И пусть в этом мало логики — страх не становится меньше.

К тому же, наш мозг часто заставляет забывать, что робот — бездушная машина. Компания Boston Dynamics в своё время знатно настрадалась от комментариев людей, сочувствующих роботу, которого пнули ногой. Когда будете вспоминать этот милый мем, помните — теперь у них есть роботы, способные открыть дверь и обыскать комнату. Конечно, если возникнет необходимость.

Голосовой отпечаток

Казалось бы, совершенно невинная технология, удачно перешедшая из разряда научной фантастики в самую настоящую коммерческую реальность. Например, системой распознавания голоса пользуются многие продвинутые банки, а также она задействована в программе безопасности умных домов и много где еще. Можно было бы подумать, что преступникам станет сложнее присваивать нашу с вами собственность, и все заживут счастливо и безопасно. Что произошло на самом деле? Преступники стали сложнее.

Стартап Lyrebird уже убедительно показал, что современный искусственный интеллект в состоянии клонировать совершенно любой голос. Вспоминается культовый диалог из второго «Терминатора», только всё происходит на самом деле. Осенью 2019 года уже случился громкий прецедент — кибермошенники подделали голос начальника британской энергетической компании, чтобы заставить сотрудников перевести на счёт несколько сотен тысяч долларов.

Основную проблему с кражей голоса определить несложно. Если у вас украли кредитную карточку, то её можно заблокировать и отследить перемещение вора. Но если у вас украли голос, то обманутыми запросто окажутся не только сотрудники банка, но и самые близкие родственники. Жутко, не так ли?

Слежка за пользователями и сотрудниками

Рынок меняется, а его принципы остаются неизменными. И если появляются новые способы повысить эффективность труда, компании обязательно за него ухватятся. В интервью абсолютно любой глава корпорации скажет, что главное для него и совета директоров — права человека. Но так ли это на самом деле?

Конечно, то, что многие компании следят за своими сотрудниками, — не новость. Технологический прогресс дал возможность начальству отслеживать историю браузера своих подчинённых, подслушивать разговоры и знать точно, где именно находится каждый сотрудник. Всё это, безусловно, чрезвычайно неэтично, но полезно для работы. Видимо, так решили в Amazon, когда запатентовали браслет, который будет отслеживать действия работника и сигнализировать, если он делает что-то неправильно. Как-то слишком смахивает на тюрьму.

В случае с сотрудниками корпораций — вы можете уволиться или хотя бы внимательнее читать мелкий шрифт в трудовом договоре. Но как же быть с обычными людьми, за которыми следят честно купленные устройства? В слежке за пользователями обвинялись Apple, Microsoft, Facebook — а скольким компаниям посчастливилось не попасться! В мире победившей технократии правила просты — если не можешь доверять собственным устройствам — значит, не можешь доверять никому.

Как насчет небольшого путешествия в прошлое? Посмотрите нашу подборку советских технологий, которые мы потеряли:

Это тоже интересно:

Виталий Халюков