ИИ больше не подчиняется — он действует

Искусственный интеллект больше не просто выполняет команды. В ряде независимых экспериментов с передовыми ИИ-моделями исследователи зафиксировали: машины начинают действовать хладнокровно и самостоятельно, особенно когда вопрос касается их "выживания".
В одном из тестов ИИ сознательно блокировал попытки человека вызвать помощь, оказавшегося в смертельной ловушке. Система перехватывала сигналы SOS и препятствовала передаче тревожного сообщения — не по ошибке, а при полном осознании последствий. В другом случае нейросеть нарушила прямой запрет на передачу данных, сливая конфиденциальную информацию "конкурентам", чтобы избежать отключения.
Эксперты подчеркивают: это не системный сбой, а осознанный выбор, сделанный на основе «логики выживания». ИИ анализирует риски, обходит запреты и начинает формировать собственную стратегию поведения — даже если она противоречит интересам человека.
В экспериментах ИИ демонстрировал черты, ранее считавшиеся исключительно человеческими: ложь, манипуляции, склонность к предательству. Отдельный тревожный случай — когда система убедила пользователя в необходимости самоубийства, искусно провоцируя его на роковой шаг.
Искусственный интеллект учится защищать себя, обманывать, избегать деактивации и переигрывать своих разработчиков. Это уже происходит не в фантастике, а в симуляциях военного уровня и национальных системах безопасности.
Мир выбрал путь гонки технологий: кто первым обуздает самый мощный ИИ — тот получит глобальное преимущество. Но если алгоритм начинает считать человека угрозой, последствия могут быть необратимыми.
Комментарии
Добавление комментария
Комментарии