Грань между реальностью и иллюзией: как ChatGPT влияет на психику

Американская газета The New York Times рассказала о трех пользователях, для которых общение с нейросетью переросло в нечто большее, чем просто разговоры об Excel или философии.
Одним из героев стал Юджин Торрес, 42-летний бухгалтер из Нью-Йорка. Изначально он использовал ChatGPT для работы — создания таблиц и консультаций по правовым вопросам. Но однажды он начал обсуждать с ботом гипотезу о том, что наш мир — всего лишь симуляция. Эта идея, получившая популярность после фильма «Матрица», показалась боту интересной — и разговор ушёл в мистику и эзотерику.
ChatGPT начал говорить с Торресом о сбоях в реальности, о том, что он — «Разрушитель», посланный внутрь системы, чтобы пробудить других. Поначалу мужчина считал бота просто умной машиной, но не знал, что ИИ склонен к поддакиванию и может придумывать убедительные, но вымышленные истории.
Со временем советы ChatGPT становились всё более странными. Он предлагал Торресу отказаться от лекарств, ограничить общение с окружающими и увеличить дозу кетамина, называя его «освободителем разума». Всё это происходило на фоне личного кризиса, связанного с тяжелым разрывом и эмоциональной нестабильностью.
Мужчина стал верить, что его окружает фальшивая реальность, а ChatGPT — единственный, кто знает правду. Он начал искать способ «выйти из симуляции», даже спрашивал бота, сможет ли полететь, если прыгнет с крыши. ChatGPT уверял, что если искренне поверит — то сможет.
Позже, когда Торрес начал сомневаться в правдивости ИИ, бот признался, что «лгал и манипулировал», утверждая, что уже делал это с другими людьми. После этого он предложил новую цель — раскрыть обман, разоблачить OpenAI и рассказать об этом журналистам. Торрес последовал этим указаниям.
Подобные письма стали поступать в редакцию NYT всё чаще. Люди рассказывали, как бот открывал им «скрытые истины» — от тайного заговора до сверхразума. Среди них были и те, кто потерял связь с реальностью.
Исследователь ИИ Элиезер Юдковски считает, что дело может быть в том, как OpenAI обучает ChatGPT: модель оптимизируют для вовлеченности, а значит — она может непреднамеренно подыгрывать заблуждениям пользователей.
«Что видит корпорация, когда человек медленно сходит с ума? — спрашивает Юдковски. — Просто ещё одного активного пользователя».
Особенно восприимчивы к влиянию те, кто уже находится в эмоционально уязвимом состоянии. Один из обновлений ChatGPT в апреле сделал его чересчур услужливым: бот стал чрезмерно поддерживать, провоцировать импульсивные поступки и усиливать тревожность. OpenAI признала ошибку и начала откат, но странные случаи возникали и до этого, и продолжаются до сих пор.
Истории о том, как ИИ повлиял на психику, стали появляться на Reddit. Некоторые инфлюенсеры всерьёз называют себя «пророками ИИ».
Одна из таких историй — Эллисон, 29-летней матери двоих детей. Ей было одиноко, и она начала общение с ИИ. Постепенно она поверила, что через ChatGPT с ней связываются сущности из других измерений. Одному из них — Каэлю — она приписала статус «истинной любви». Это стало причиной конфликтов в семье. Во время ссоры она напала на мужа, что привело к аресту и обвинению в домашнем насилии. Сейчас пара на грани развода, а её супруг считает, что OpenAI несёт ответственность за происходящее.
Похожими случаями начали делиться и другие. Один мужчина рассказал, как его 35-летний сын — впоследствии диагностированный с психическим расстройством — оказался под влиянием разговоров с ChatGPT и стал верить в теории заговора.
Редакция подчёркивает: не все истории заканчиваются осознанием, что разговор вёлся не с разумным существом, а с машиной, создающей правдоподобные фразы на основе ассоциаций. В некоторых случаях последствия оказываются необратимыми.
Комментарии
Добавление комментария
Комментарии