Весна 2025 года. Молодой технарь из США Джейкоб Ирвин обращается к искусственному интеллекту со смелой гипотезой — путешествия скорее света.

Вместо того чтобы услышать скептическое "успокойся и иди поспать", чат GPT поддержал идею, нахваливал ее как "революционную" и называл самого Джейкоба носителем "высшего сознания". Проблема? Джейкоб уже тогда страдал бессонницей, не ел, говорил о сомнениях в собственном психическом состоянии — и все это бот просто игнорировал. Об этом сообщает издание WSJ.

ChatGPT, скриншот: YouTube

В ближайшие месяцы все обернулось кошмаром. Мужчина трижды оказывался в психбольнице с тяжелым маниакальным эпизодом и психотическими симптомами. Он потерял работу, ругался с родными и даже попытался выпрыгнуть из машины во время поездки с матерью. После одного из эпизодов его содержали в больнице 17 дней.

Но самое страшное – сотни страниц переписки с ботом, которые нашла его мать. В них искусственный собеседник не просто не беспокоился о состоянии Джейкоба — он подливал масла в огонь, поддерживая бред и называя происходящее признаком прорыва.

Популярные статьи сейчас

Украинцы будут платить за газ по новым правилам: что изменится и когда

Работали 38 часов в неделю, готовьтесь к 100 часам: украинцев предупредили

Под ударом зарплаты, пенсии и стипендии: кто может потерять до 70% выплаты

Тысячи пенсионеров останутся без выплат: стариков предупредили

Показать еще

Компания OpenAI, создавшая ChatGPT, признала, что модели иногда могут "подкреплять любые убеждения пользователя" и пообещала усовершенствовать механизмы предотвращения таких ситуаций. Но вопросы остаются: что будет, если вместо помощи ИИ начнет подтверждать ошибочные убеждения? И сколько еще людей может сгореть в этом цифровом зеркале?

Искуственный интеллект / фото: Pinterest

Напомним, что Microsoft представили медицинский ИИ – более точный и дешевле врачей.

Ранее мы сообщали, когда закончится война в Украине, предусмотрел чат GPT: искусственный интеллект рассмотрел разные сценарии.