«Страж-птица ничуть не опаснее, чем автомобиль, счётная машина или термометр. Разума и воли у неё не больше. Просто она так сконструирована, что откликается на определённые сигналы и в ответ выполняет определённые действия.»
Роберт Шекли. «Страж-птица «
Похоже, однажды мы достигнем точки, когда человечество будет избавлено от некоторых видов решений, таких как вождение автомобиля или война. Логика развития информационных технологий привела к тому, что внезапно во всём мирю на самых разных уровнях начали обсуждаться военные автоматизированные системы с искусственным интеллектом. А на недавней Международной объединённой конференции по искусственному интеллекту (IJCAI — International Joint Conference on Artificial Intelligence, проводится с 1969 г.) в Буэнос-Айресе так и вовсе была составлена петиция, в которой ведущие учёные и эксперты призвали отказаться от разработки роботов-убийц. Инициатором составления петиции стал Институт жизни будущего (FLI — Future of Life Institute), а под ней поставили свои подписи в том числе космолог Стивен Хокинг, глава компании Tesla Илон Маек и один из основателей Apple Стив Возняк, а также ещё более тысячи выдающихся учёных и бизнесменов. И хотя это не первое письмо с призывом отказаться от разработки роботов-убийц, эксперты обращают внимание на то, что стиль изложения мыслей сильно изменился. Требования стали более жёсткими — запретить разработку автоматических оружейных систем, способных самостоятельно выявлять и атаковать цели без всякого участия человека . На всё это сразу же отреагировали журналисты — похоже, будто мы чего-то не знаем?
Да всё мы знаем, просто не всегда задумываемся. Как уже не раз говорилось на страницах журнала, мы живём в высокотехнологичную эпоху, когда всё чаще начинают сбываться предсказания писателей-фантастов. Вот и 2015 год обещает войти в историю как некий пролог к рассказу Роберта Шекли о самообучающихся летающих роботах с искусственным интеллектом, который впервые был опубликован ещё в 1953 г., когда только появились первые компьютеры и не было никакого Интернета, в том числе беспроводного. Концепция описанной в рассказе страж-птицы преследовала идею предотвращения убийств путём улавливания определённых волн, излучаемых преступником в момент нападения, но главное заключалось в том, что каждый новый опыт одного робота передавался всем остальным для информации и обучения. И чтобы лучше понимать суть сегодняшних споров о роботах-убийцах, дадим слово Р. Шекли:
«Прежде всего, позвольте заверить, что я на все сто процентов за машину, которая прекратит убийства. В такой машине давно уже назрела необходимость. Я только против того, чтобы вводить в страж-птицу самообучающееся устройство. В сущности, это значит оживить машину, дать ей что-то вроде сознания. Этого я одобрить не могу.
— Но позвольте, мистер Гелсен, вы же сами уверяли, что без такого устройства страж-птица будет недостаточно эффективна. Тогда, по всем подсчётам, птицы смогут предотвращать только 70 % убийств.
— Да, верно, — согласился Гелсен, ему было ужасно не по себе. Но он упрямо докончил:
— А всё-таки, я считаю, с точки зрения нравственной это может оказаться просто опасно — доверить машине решать человеческие дела.
— Да бросьте вы, Гелсен, — сказал один из предпринимателей. — Ничего такого не происходит. Страж-птица только подкрепит те решения, которые приняты всеми честными людьми с незапамятных времён.
— Полагаю, что вы правы, — вставил представитель. — Но я могу понять чувства мистера Гелсена. Весьма прискорбно, что мы вынуждены вверять машине проблему, стоящую перед человечеством, и ещё прискорбнее, что мы не в силах проводить в жизнь наши законы без помощи машины. Но не забывайте, мистер Гелсен, у нас нет иного способа остановить убийцу прежде, чем он совершит убийство. Если мы из философских соображений ограничим деятельность страж-птицы, это будет несправедливо в отношении многих и многих жертв, которые каждый год погибают от руки убийц. Вы не согласны?
— Да, в общем-то, согласен, — уныло сказал Гелсен.»
Ну а далее речь идёт о том, как созданные для предотвращения убийств людей самообучающиеся птицы-роботы очень быстро начинают считать убийством любое насилие против любого живого существа, от человека до растений. И вот уже на операционном столе умирает пациент, потому что хирургу к нему не даёт притронуться парящий за окном робот. Но, скажете вы, что всё это фантастика, сказка…
Теперь вернёмся ко дню сегодняшнему. Роботами-убийцами называют системы, которые самостоятельно способны принять решение об убийстве, не подчиняясь контролю со стороны человека. Оговоримся сразу, в настоящее время таких роботов не существует, однако текущее развитие технологий позволяет создать их в обозримом будущем на базе так называемого автономного оружия, которое уже существует и используется в военных конфликтах и для разведывательных целей. Эти роботы-убийцы могут выглядеть как угодно — от автономных беспилотных дронов до роботов-марсоходов с пулемётами. В настоящее время силы военных конструкторов сосредоточены на создании боевых наземных роботов различных типов, включая дистанционно управляемые бронемашины.
В частности, в США создан беспилотный самолет Х-47В производства Northrop Grumman, взятый на вооружение военно-морскими силами страны и способный заправляться в воздухе, что позволяет ему работать в непрерывном режиме. Роботизирована охраняющая израильское небо система защиты «Железный купол». Британской компанией BAE Systems создана Taranis — «беспилотная машина целеуказания в воздушном бою».
Южная Корея создала для защиты границы целую роту роботов Samsung SGR-1. Их бездушные глаза, оборудованные инфракрасными датчиками, могут обнаружить противника на расстоянии до 4 км. В настоящее время для того, чтобы робот открыл огонь, необходимо одобрение человека. Но он работает и в автоматическом режиме и может стрелять первым на своё усмотрение.
Кстати, армия США уже располагает более чем тысячью военных роботов, которые принимали участие в войне в Ираке и в Афганистане, и по прогнозам военных экспертов Вашингтонского университета Сент-Луиса уже через не сколько лет армия Соединённых Штатов на 30 % будет состоять из роботов.
Тактическая машина-робот Crusher (сокрушитель) предназначена для выполнения тактических боевых задач, доставки грузов (грузоподъёмность — до 4 т, скорость — до 42 км/ч) и может оснащаться различным вооружением.
Радиоуправляемый боевой робот Gladiator TUGV имеет на вооружении пулемёты М-249 и М-240, пистолет- пулемёт Узи и др.
Робот-разведчик Talon использовался в Ираке для работы с самодельными взрывными устройствами. Для боевого использования на роботе устанавливается боевая система наблюдения и разведки Swords, на которую можно установить винтовку М16, пулемёт, гранатомёт или огнемёт.
Роботы REMUS являются автономными подводными аппаратами, они производили очистку вод от мин в ходе Иракской войны (пока это единственный вид роботов, которые принимали участие в реальных боевых действиях).
Готовятся к приёму на вооружение даже роботы «комары—убийцы», механизмы работы которых скопированы с обычных комаров. По приказу со спутника каждый робот-комар будет находить человека в радиусе 100 м от места выброса ёмкости с комарами и впрыскивать под кожу человека сильнодействующий яд.
Разработка нанороботов, которые используются по одиночке или группами, ещё больше усложняет уже и так запутанную картину технологического мира ввиду того, что эти устройства в существующем правовом вакууме когда-нибудь обретут вооружение.
Компании в США, Великобритании, Германии, ОАЭ, Иордании и Южной Африке также разрабатывают «менее летальное» роботизированное оружие для охраны правопорядка, которое управляется удалённо или автоматически стреляет при прикосновении. Такие системы, по-видимому, могут стрелять гранатами со слезоточивым газом, резиновыми пулями и дротиками электрошокеров. Раши Абдул-Рахима, эксперт Amnesty International по вопросам контроля за оружием, торговлей средствами безопасности и правам человека, предупреждает о потенциальных угрозах двумя типовыми сюжетами: «Представьте себе, где-то в далёкой стране вспыхивает война, вокруг хаос и разрушения, а роботы, выглядящие как терминаторы. чья задача — уничтожить живую силу противника, убивают и калечат мирных жителей; или… где-нибудь в другом месте мирные демонстранты выходят на улицу, чтобы потребовать соблюдения своих прав, но их разгоняют полицейские, похожие на робокопов, и вооружённые самоходные роботы, которые отслеживают каждое движение протестующих, стреляют в них и распыляют слезоточивый газ».
Что касается искусственного интеллекта, то его разработки идут не менее активно. В Новой Зеландии, к примеру, компания Touchpoint Group заявила о планах по созданию «самого злого» робота в мире, которому искусственный интеллект поможет решать сложные конфликтные ситуации с участием разозлённых клиентов, крупных банков телекоммуникационных или страховых компаний. Робот будет имитировать поведение нескольких сотен миллионов разозлённых клиентов для того, чтобы их службы клиентской поддержки тренировались справляться с конфликтами. Ведь искусственному интеллекту всё равно с кем вести войну. Как поясняет исполнительный директор Touchpoint Group Фрэнк ван дер Вельден, искусственный интеллект также будет просчитывать возможное развитие событий: в какой момент спор с клиентом достиг точки невозврата. а на каком этапе можно избежать скандала. Кстати, устройство неофициально уже получило название «Главный Радиант» по названию суперкомпьютера, предсказывающего поведение людей на основе анализа данных, «психоистории», из классического романа Айзека Азимова «Основание».
Разработку боевых роботов называют третьей военной технологической революцией. До этого произошло два ключевых события, навсегда изменивших войну: изобретение пороха и ядерного оружия. И нельзя исключать, что именно третья революция станет последней. а люди, попытавшиеся защитить свою жизнь, лишатся её. Авторы петиции отмечают, что технология искусственного интеллекта достигла той точки, когда развёртывание автономных вооружений становится возможным уже в ближайшие годы, а не десятилетия, и это хорошо вписывается в мир научной фантастики, ведь именно в первой половине XXI века, согласно многим книгам и фильмам, должны быть созданы машины, способные мыслить, а возможно, и уничтожить человечество. Так что участники упомянутой выше конференции IJCAI не шутили — подобное развитие событий вполне возможно. Пентагон и военные во всём мире уже разрабатывают всё более автономное оружие, выходящее далеко за рамки дронов с дистанционным управлением, которые использовал Вашингтон в Пакистане, Афганистане и других странах. Технологические достижения позволят этим новым видам оружия выбирать мишень и стрелять по ней на свой выбор без одобрения человека. Некоторые предсказывают, что эти роботы в один прекрасный день будут сражаться бок о бок с солдатами-людьми. И неудивительно, что известие о роботах, которые убивают, заставляет некоторых людей нервничать.
Те, кто выступает в поддержку разработки подобных систем, говорят, что для решения любых проблем достаточно существующих законов ведения войны. При этом они считают, что в любом случае механизм регулирования этого вопроса должен использовать не запрет на разработку этих технологий, но лишь мораторий на их внедрение.
Их оппоненты утверждают, что такие роботы представляют угрозу человечеству и любые функции «автономного уничтожения» необходимо полностью запретить, поскольку такие системы не могут гарантированно соблюдать нормы международного права. Впрочем, сей вопрос до сих пор и не обсуждался на международном уровне, что само по себе представляет большой риск для всего человечества.
Существует и некое промежуточное мнение. Быть может, роботы-убийцы помогут сильно снизить уровень потерь среди мирного населения, потому что смогут лучше определять тот момент и те условия, при которых следует действовать. чем это могут делать люди. Но опасность тут видится в другом, в том, что они будут приняты на вооружение слишком поспешно, до того, как они будут доведены до приемлемого уровня. И пока этот уровень не будет достигнут (а сначала хотя бы просто осмыслен), необходим запрет на их разработку. К тому же достаточно простого сбоя, хакерской атаки или воздействия средств РЭБ (радиоэлектронной борьбы), при котором перепутаются, например, метки между врагом и не врагом. И пугает как раз такая потеря контроля над автономными механизмами.
В настоящее время роботы-убийцы стали предметом многочисленных дискуссий и недавно даже обсуждались в комитетах ООН, которые рассматривали потенциальный запрет на определённые типы автономного оружия. Теперь эксперты призывают ввести конкретный запрет на использование искусственного интеллекта для управления оружием, которое оказалось бы «вне существенного контроля человеком». Собственно, тема армейских роботов и возможного «восстания машин» обсуждается уже давно, но почему-то упомянутая петиция составляется именно сейчас, и её подписывают крупнейшие действующие лица из мира хайтэка. причём многие из них, вроде И. Маска (через проект SpaceX), сотрудничают с военными и активно вкладывают деньги в новейшие и перспективнейшие технологии.
Кстати, И. Маек и С. Хокинг уже давно предупреждают человечество о том, что искусственный интеллект — «наша самая большая угроза». Стоит отметить, что И. Маек в начале этого года даже выделил 10 млн долларов, чтобы машины использовались только во благо человечеству. Другие, включая С. Возняка, пришли к такому мнению совсем недавно. Последний даже заявил, что люди станут для роботов «домашними животными, о которых надо заботиться».
Очевидно, что подписавшие петицию учёные и бизнесмены не рассказывают нам всё что знают. Однако известно, что, к примеру, Пентагон активно финансирует разработки в области робототехники. Может быть, тот же И. Маек получил такой заказ на «заботу” о «домашних животных», от которого предпочёл отказаться?
Учёные предупреждают об опасности начала новой гонки вооружений ещё и потому, что в отличие от атомной бомбы разработка оружия с искусственным интеллектом не требует наличия труднодоступных материалов и может быть легко скрыта, как и любая ИТ-технология. К тому же уже существуют системы искусственного интеллекта и роботы, которые способны совершать зондирование окружающей среды, перемещение и навигацию, планирование или принятие решений. Эти системы просто должны быть объединены…
«Конечная точка траектории этой технологии очевидна: автономные вооружения станут автоматами Калашникова завтрашнего дня. Ключевой вопрос для человечества сегодня состоит в том, начинать ли глобальную гонку вооружений с искусственным интеллектом или предотвратить её», — резюмировали авторы. Кроме того, они утверждают, что искусственный интеллект действительно можно использовать на поле боя, чтобы сделать его более безопасным для военнослужащих. Однако наступательное вооружение с применением искусственного разума приведёт к росту потерь человеческих жизней, потому что искусственный интеллект контролировать сложнее, чем атомные бомбы.
«Автоматические вооружения идеально подходят для таких миссий, как точечные ликвидации, дестабилизация государств, подавление народов и избирательное истребление представителей определённой этнической группы, — цитирует The Financial Times текст документа. — Искусственному интеллекту можно найти множество применений, которые позволят сделать поле боя более безопасным для людей, в первую очередь для гражданского населения, не создавая при этом новых орудий человекоубийства».
В петиции поясняется: «Вооружённый квадрокоптер, который сам ищет цель, — это автономное оружие, а крылатая ракета — нет, потому что решение за неё принимает человек». «Многим военным нравится концепция автономных, роботизированных убийц, поскольку они позволяют создать ключевое преимущество над противником, их применение не ставит под угрозу собственные войска, а в долгосрочной перспективе они к тому же могут обойтись дешевле, чем продвинутые оружейные системы, требующие попутно поддерживать жизнедеятельность экипажа и защищать его, как, например, боевые самолёты». Кроме того, как пишет The Financial Times, «военные стратеги Запада боятся, что если они не будут развивать эту технологию, то в новой гонке вооружений могут утратить лидерство, уступив потенциальным противникам, таким как Китай».
Ключевой аргумент в пользу внедрения роботизированных соединений в армейскую сферу заключается в том, что можно будет снизить число смертей, предоставив войну роботам. Однако информированные специалисты сомневаются в этом и считают, что гонка вооружений, которая вспыхнет после появления роботов, не принесёт в итоге ничего хорошего.
Уже сейчас агентство передовых оборонных исследовательских проектов (DARPA), филиал Министерства обороны США, обвинено в продвижении военных технологий. Оно имеет две программы, которые могли бы вызвать беспокойство, — сказал Рассел. Проект Fast Lightweight Autonomy (FLA) — разработка крошечных беспилотных летательных аппаратов, предназначенных для быстрого перемещения в городских» районах. И проект CODE (Совместные Операции в Отрицаемой Окружающей среде) включает разработку дронов, которые могли бы сотрудничать, чтобы найти и разрушить цели, так же, как волки охотятся в стаях. Впрочем, даже с одним граммом взрывчатки можно проделать дыру в чьей-то голове с помощью робота размером с насекомое. Но разве это тот мир, который мы хотим создать, и хотим ли мы жить в нём?
Существующие международные гуманитарные законы не направлены на развитие летального роботизированного оружия. Одно из нескольких соглашений Женевской конвенции 1949 г., которое определяет гуманное обращение с врагами во время военного времени, требует, чтобы любые военные действия удовлетворяли трём критериям: военная необходимость: дискриминация между солдатами и гражданскими лицами: взвешивание ценности военной цели против потенциала сопутствующего ущерба. Но сомнительно, что роботизированные боевые комплексы смогут соблюдать законы и обычаи войны, в том числе требование делать различия между комбатантами (от фр. combatant — сражающийся) и гражданским населением, чтобы принять необходимые меры предосторожности и свести к минимуму ущерб гражданским лицам, а также оценить соразмерность ответного удара.
«Есть смысл задаться вопросом: уменьшится ли ценность человеческой жизни от того, что роботам позволят убивать людей?» — говорит Питер Асаро, доцент Школы медиаисследований в Нью-Йорке и представитель кампании против роботов-убийц. Философы, правоведы и учёные уже относительно давно задаются этим вопросом, в то время как мир готовится к массовому приходу роботов, которые будут косить газоны, ухаживать за пожилыми людьми, учить детей, страдающих аутизмом, и даже водить наши автомобили. Они не могут убивать, однако представители дорожного движения хотят заставить правительства и суды рассмотреть ряд юридических и этических вопросов. К примеру, на кого я должен подать в суд, если меня собьёт машина без водителя? Что делать, если робот-медик даст пациенту неправильный препарат? Что делать, если робот- уборщик наехал на спящего на пляже человека? А может ли робот совершить военное преступление? И если автономная компьютерная система, запрограммированная на то, чтобы отличать вражеских солдат от гражданского населения, на самом деле нажимает на курок без «человеческого одобрения», то будет очень трудно держать ситуацию под контролем, если что-то пойдёт не так. Люди, которые действительно работают над созданием искусственного интеллекта, говорят, что нам есть о чём беспокоиться.
На самом деле дискуссия вокруг роботов-убийц сводится к трём законам робототехники из рассказов Айзека Азимова: запрет вредить людям; подчиняться людям, только если это не противоречит первому закону; защищать собственную жизнь при условии, что это не нарушает первые два закона. Однако рассказы А. Азимова как раз и посвящены недостаткам указанных законов. Тем не менее профессор Рональд Аркин из Технологического института Джорджии, известный американский конструктор роботов, работающий над проектами Пентагона, утверждает, что роботы-убийцы или другие автоматизированные системы вооружения могут быть запрограммированы так, чтобы следовать законам войны и следовать им лучше, чем люди. Робот никогда не будет стрелять, защищая свою жизнь или испугавшись. Он будет иметь доступ к информации и данным, которые ни один солдат—человек не смог бы обработать так быстро, что делает менее вероятной ошибку в «пылу битвы”. Он никогда не будет намеренно убивать мирных жителей в отместку за смерть товарища. И он действительно может следить за солдатами, чтобы они не совершали злодеяния.
Профессор Аркин также утверждает, что автономная технология уже есть. К примеру, U.S. Patriot missile batteries автоматически выбирают цели и дают человеку до 9 с, чтобы отменить цель и остановить ракету, а система U.S. Navys Phalanx защищает корабли, автоматически сбивая ракеты. Но даже он и его коллеги требуют мораторий на разработку более автономного оружия до тех пор, пока можно будет показать, что они могут уменьшить потери среди гражданского населения. «Никто не хочет появления Терминатора. Кто хотел бы иметь систему, которую можно отправить на задание, и она будет самостоятельно решать, кого нужно убить? — говорит профессор Аркин. — Эти системы должны разрабатываться очень тщательно и осторожно, и я думаю, что есть способы сделать это».
Переданный нам из 1953 г. «привет” Р. Шекли и петиция учёных от 2015 г. серьёзно предупреждают о том, что человечество должно быть осторожным в развитии автономного оружия. В частности, у Р. Шекли для уничтожения вышедших из-под контроля страж- птиц создали Ястреба и: «Высоко в небе Ястреб атаковал страж-птицу. Бронированная машина—убийца за несколько дней многому научилась. У неё было одно единственное назначение — убивать. Сейчас оно было направлено против совершенно определенного вида живых существ, металлических, как и сам Ястреб. Но только что Ястреб сделал открытие: есть ещё и другие разновидности живых существ… Их тоже следует убивать».
В-общем, не читайте эту статью на ночь…
Автор: А. ГОЛЫШКО, канд. техн. наук, г. Москва