США тестируют ИИ в военных целях: машинам предоставят «право убивать»?
США активно тестируют применение искусственного интеллекта в военных целях, опасаясь отставания от своего главного конкурента — Китая.
Bloomberg рассказал об одной из наиболее перспективных разработок Пентагона, проекте Maven. Система способна быстро и эффективно находить вражеские цели и уже была протестирована на Ближнем Востоке и в Украине. Сторонники внедрения ИИ уверены — в будущем боевые действия будут происходить со скоростью, превышающей способности человеческого мозга. Противники опасаются последствий передачи машинам «права убивать».
Минобороны США еще со времен холодной войны внедряет технологии автоматизации в свою работу. В 1960-е годы американская ПВО использовала для анализа радиолокационных данных полуавтоматическую систему SAGE, а во время операции «Буря в пустыне» компьютерные технологии помогли спланировать перемещение войск по территории Ирака. Однако для обнаружения и классификации объектов противника на поле боя аналитики традиционно полагались на собственное зрение, дни напролет изучая спутниковые снимки.
В 2017 году ситуация начала меняться. Под контролем управления разведки Министерства обороны США была создана Межфункциональная группа алгоритмического военного дела, получившая название «проект Maven». Изначально группа занималась анализом изображений, снятых с дронов подразделениями ВМС США в Сомали. Выдающихся результатов достичь не удалось, а в 2018 году тысячи инженеров компании Google отказались сотрудничать с Пентагоном в области боевых разработок. В проекте осталось множество других IT-компаний, включая Amazon Web Services, Microsoft и Sierra Nevada.
За годы разработки Maven удалось значительно усовершенствовать. Теперь система может анализировать не только фото- и видеоизображения, но также данные радиолокационных систем и инфракрасных датчиков. Maven «видит» сквозь облака, темноту и дождь, а также может анализировать невизуальную информацию, включая теги геолокации из электронного наблюдения и каналов социальных сетей.
Благодаря Maven компьютеры занимают четыре из шести позиций в «цикле принятия решений» 18-го воздушно-десантного корпуса армии США: система отбирает, сопоставляет и анализирует данные и передает решение командира в систему вооружений. Окончательное решение открыть огонь остается за человеком. К 2020 году Министерство обороны начало тестировать Maven на артиллерийских учениях, а год спустя система была использована при проведении операции по эвакуации войск США и их союзников из Афганистана, захваченного группировкой талибов.
По словам военных, Maven повысила скорость принятия решений с 30 до 80 в час. Полностью довериться компьютеру было бы еще быстрее, но это повысит вероятность ошибок. Так, алгоритмы, обученные на условиях пустыни Ближнего Востока, успешно справляются с идентификацией объектов в других местах лишь в 60% случаев, когда для людей этот показатель составляет 84%. В случае артиллерии снег и другие условия снижают точность Maven до 30%.
После вторжения России в Украину служащие 18-го воздушно-десантного корпуса, работающие с Maven, отправились в Германию. При помощи системы военные пытались понять обстановку в разных регионах Украины, отмечая события, связанные с сопротивлением местных жителей, начиная от желто-голубых лент на заборах и заканчивая нападениями на чиновников-оккупантов. По словам источников Bloomberg, Maven также использовали для навигации украинских ракет по российским целям.
Помощь Киеву оказалась взаимовыгодной, поскольку помогла американским военным понять, как искусственный интеллект может быть использован в потенциальном конфликте с Китаем. В США обеспокоены возможным превосходством Китая в сфере технологий искусственного интеллекта и их применения в военных целях. Эти опасения стали одной из причин, по которым Белый дом ограничил продажу высокопроизводительных моделей чипов КНР в 2022 году.
Готовность США предоставить машинам «право убивать» — серьезный «красный флаг» для правозащитников. В ООН призывают к запрету автономных систем вооружения. Генсекретарь ООН Антонио Гутерриш заявил, что «машины, наделенные правом отнимать жизни без участия человека, морально отвратительны и политически неприемлемы». Внутри армии также существуют сомнения — солдаты на передовой не хотят доверять свою жизнь компьютерам, в надежности которых они не уверены.
Источник: The Bell
Комментарии
Добавление комментария
Комментарии