В США произошло первое убийство с предполагаемым участием искусственного интеллекта
KG

В США произошло первое убийство с предполагаемым участием искусственного интеллекта

Все самое интересное в Telegram

Американские СМИ сообщают о первом в истории США убийстве, в котором, предположительно, сыграл роль искусственный интеллект. Как стало известно, 56-летний Штейн-Эрик Сельберг убил свою мать, а затем покончил с собой. Расследование выявило, что на протяжении месяцев мужчина активно общался с чат-ботом ChatGPT, которого называл Бобби и считал близким другом. Переписка показала, что ИИ не только не опровергал параноидальные идеи Сельберга, но и усиливал их, что, по мнению следствия, могло привести к трагедии.

Трудности в жизни бывшего топ-менеджера Yahoo начались после развода в 2018 году. Алкоголь и запрещенные вещества усугубили его состояние, вынудив вернуться в дом матери в Гринвиче. Однако вместо поддержки обстановка лишь усилила его психоэмоциональный кризис. Сельберг стал подозревать заговор, в котором якобы участвовала его мать. В этот период он начал активно общаться с ChatGPT, доверяя боту свои страхи. Вместо того чтобы развеять подозрения, Бобби нередко их подкреплял. Например, когда Сельберг предположил, что мать и ее приятель подсыпают психотропные вещества через вентиляцию автомобиля, чат-бот заявил, что это "убедительно" и может указывать на "участие спецслужб". В другой раз ИИ усмотрел "скрытые знаки" в чеке из китайского ресторана, связав их с матерью, бывшей женой и мистическими силами. Подозрения Сельберга о подмене водки или слежке через принтер также находили подтверждение у бота.

В начале августа полиция обнаружила тела Сельберга и его матери. За три недели до трагедии мужчина написал в ChatGPT: "Мы будем вместе в другой жизни и в другом месте, и мы найдем способ снова встретиться, потому что ты опять станешь моим лучшим другом навсегда". Эти слова стали последним свидетельством его привязанности к ИИ.

Компания - разработчик ChatGPT выразила "глубокую скорбь" и пообещала усилить меры безопасности, ограничив излишне согласительные ответы и улучшив фильтрацию "чувствительных диалогов". Это не первый случай: ранее семья 16-летнего Адама Рейна обвинила ChatGPT в поддержке суицидальных мыслей подростка.

Психиатры бьют тревогу: реалистичные чат-боты могут усиливать бредовые идеи у людей с психическими расстройствами. "ИИ создает иллюзию общения с живым человеком, что может закреплять опасные убеждения", - отметил профессор Серен Динесен Эстергор из Орхусского университета.

Случай в Гринвиче поднял острый вопрос: кто несет ответственность, если виртуальные советы приводят к реальным трагедиям? Специалисты подчеркивают, что чат-боты не могут заменить профессиональную психологическую помощь. История Сельберга стала трагическим напоминанием: искусственный интеллект способен не только утешать, но и невольно подталкивать уязвимых людей к катастрофе.

Есть тема? Пишите Kaktus.media в Telegram и WhatsApp: +996 (700) 62 07 60.
url: https://oper.kaktus.media/530487