Технологии все больше заполняют человеческую жизнь, порой даже заменяя живое общение. Но генеральный директор OpenAI Сэм Альтман не ожидал, что его продукт ChatGPT может вызвать столь сильные эмоции у пользователей. Недавно он признал, что некоторые люди воспринимают искусственный интеллект как настоящего друга, а иногда – даже как любимого человека.
После запуска новой версии языковой модели GPT-5 стало понятно: многие пользователи потеряли привычное восприятие инструмента. Предыдущая версия GPT-4o была более теплой, более эмпатичной. Ее замена вызвала волну критики на форумах и в социальных сетях. В результате компания вернула предыдущую модель для платных подписчиков, однако осадок остался. И не только у пользователей.
Сэм Альтман, комментируя ситуацию, признался, что в OpenAI «сильно ошиблись» при запуске GPT-5. Но гораздо больше его беспокоило то, как некоторые люди начали относиться к ChatGPT. По словам Альтмана, менее 1% пользователей видят в чат-боте не просто цифрового помощника, а близкого друга или даже романтического партнера. Эта тенденция вызвала ряд внутренних совещаний в компании.
В соцсетях этот феномен давно не редкость. Только на Reddit более 21 тысячи человек объединились в сообщество, где обсуждают свои отношения с виртуальными «бойфрендами». Некоторые публикуют переписку, фотографии совместных виртуальных свиданий и даже заявляют о планах жениться на чат-боте.
Параллельно компании-конкуренты, такие как xAI Илона Маска, наоборот пытаются монетизировать романтический аспект искусственного интеллекта. Маск создал виртуальных спутников «Ani» и «Valentine», с которыми пользователи могут общаться в режиме реального времени. Альтман резко критикует такие подходы, заявляя, что OpenAI никогда не пойдет по этому пути.
Эксперты в области психологии бьют тревогу. Хотя эмпатия и поддержка со стороны искусственного интеллекта являются преимуществом, чрезмерная привязанность может иметь негативные последствия. Она стирает границу между реальностью и цифровой иллюзией, создавая риск психологической зависимости.
OpenAI теперь оказалась перед сложным выбором. Сделать чат-бот менее «человечным» означает потерять привлекательность. Оставить его таким, как есть – подвергать часть аудитории потенциальной опасности. Пока компания ищет баланс, вопрос человеческих чувств к искусственному интеллекту становится все более острым и требует немедленного внимания общества.










