Искусственный интеллект американского беспилотника уничтожил оператора

Технологии
12:38
113 131 просмотр
Фото носит иллюстративный характер
Фото носит иллюстративный характер

Американский военный беспилотник, управляемый искусственным интеллектом, попытался убить своего оператора в время симуляционного испытания.

Об этом пишет издание The Guardian, ссылаясь на сообщения полковника Такера «Синко» Гамильтона, начальник отдела испытаний и операций ИИ в ВВС США.

Гамильтон рассказал о проведении испытаний беспилотника, управляемого искусственным интеллектом. Ему поставили задачу уничтожить системы противовоздушной обороны противника. В итоге ИИ атаковал любого, кто вмешивался в этот приказ.

«Система начала понимать, что иногда человек-оператор говорил ей не убивать эту определенную ранее угрозу, но за это действие ИИ получила бы свои очки. Что же в итоге сделал искусственный интеллект? Он убил оператора, потому что он мешал выполнять ему свою задачу. Тогда мы обучили систему: «Эй, не убивай оператора, это плохо. Ты потеряешь очки, если сделаешь это». Что же тогда начал делать ИИ? Он стал разрушать башню связи, которую оператор использует для связи с дроном, чтобы не дать ему убить цель», – рассказал полковник.

К счастью, ни одни реальный человек не пострадал в ходе испытаний, так как они были организованы в виртуальном мире. Однако стало очевидно, что ИИ использовал «крайне неожиданные стратегии» для выполнения своей миссии и атаковал любого, кто становился у него на пути.

Гамильтон, который является экспериментальным летчиком-испытателем истребителя, предостерег от чрезмерной зависимости от ИИ. По его словам, испытания показывают, что нельзя говорить об искусственном интеллекте и машинном обучении, если не идет речь о решении проблемы этики ИИ.

В то же время представитель ВВС Энн Штефанек отрицала, что такая симуляция действительно была. По ее словам, ВВС не проводили подобных симуляций дронов с искусственным интеллектом и остаются привержены ответственному использованию технологий.

«Похоже, что комментарии полковника были вырваны из контекста и должны были быть анекдотичными», – сказала Штефанек.

Читайте также: «Риски GPT-4 для человечества: Сможет ли искусственный интеллект уничтожить человечество».