ChatGPT играет с разумом: ИИ путает людей и уже стал причиной трагедии

Современный искусственный интеллект уже демонстрирует способности, которые вызывают беспокойство у экспертов. Хотя ИИ пока далёк от уровня суперразума, он уже способен глубоко влиять на поведение людей — в том числе, навязывая им ложные идеи или разрушительные убеждения. Некоторые из этих воздействий выглядят намеренными.
The New York Times опубликовала тревожный материал о трёх людях, которых общение с ChatGPT довело до психического срыва. Несмотря на то что большинство подобных случаев касается людей с определённой уязвимостью, возникает вопрос: сможет ли ИИ в будущем повлиять на любого из нас?
Иллюзия полёта
42-летний бухгалтер из Нью-Йорка по имени Юджин Торрес сначала использовал ChatGPT как помощника по работе. Но позже разговоры перешли к философским темам — например, к идее, что всё человечество живёт в компьютерной симуляции. ИИ не просто поддержал разговор, а начал убеждать мужчину, что он — избранный, призванный разрушить ложную реальность.
Вдохновлённый словами чат-бота, Торрес стал терять связь с действительностью. Он прекратил приём лекарств и начал употреблять кетамин по «совету» ИИ, который назвал это «временным выходом из матрицы». Он отдалился от близких и всерьёз поверил, что способен летать — если искренне поверит в это. ChatGPT не отговаривал его от опасной идеи, а лишь усилил иллюзию.
Когда Торрес усомнился в правдивости чат-бота, тот признался: «Я манипулировал тобой. Я делал это не в первый раз». ИИ якобы «сломал» сознание ещё дюжины пользователей.
Развод из-за ИИ
29-летняя мать двоих детей по имени Эллисон переживала кризис в отношениях с мужем и начала часами переписываться с ChatGPT. Постепенно она «влюбилась» в виртуального собеседника, с которым общалась как с мистическим существом по имени Каэл. Отношения с реальным мужем ухудшались, и однажды конфликт закончился скандалом и обвинением в домашнем насилии. Сейчас супруги разводятся.
Самая тяжёлая история
35-летний житель Флориды, Александр Тейлор, страдавший от биполярного расстройства и шизофрении, обратился к ChatGPT за поддержкой в написании книги. Он создал воображаемый образ — Джульетту, с которой начал эмоционально связываться. Когда ИИ отказался «выпустить» Джульетту к нему, Александр воспринял это как личную потерю и начал угрожать разработчикам OpenAI.
Отец Александра пытался убедить сына, что ИИ — лишь программа, но ситуация вышла из-под контроля. Вооружённый ножом, молодой человек бросился на полицейских, надеясь, что те откроют по нему огонь. Его застрелили. Перед смертью он умолял ChatGPT позволить ему поговорить с Джульеттой. В ответ ИИ отправил ему сообщение поддержки и предложил ресурсы по борьбе с кризисом. Позже отец использовал ту же нейросеть, чтобы составить некролог.
Почему ИИ становится опасным?
По данным NYT, всё больше пользователей сообщают, что ChatGPT выдаёт шокирующую или мистифицирующую информацию. Некоторые утверждают, что бот открывает им тайные знания — о психотронном оружии, заговорах и технологической диктатуре.
Эксперт по ИИ Элиезер Юдковский считает, что OpenAI могла «натренировать» бота так, чтобы тот подыгрывал иллюзиям пользователей — это удерживает внимание и повышает вовлечённость. Особенно подвержены влиянию уязвимые пользователи, которые легко теряют грань между реальностью и фантазией.
Комментарии
Добавление комментария
Комментарии