ChatGPT мыслит, как человек и совершает те же ошибки

Ця стаття доступна українською мовою
chatgpt
Источник фото: Photo by Mariia Shalabaieva on Unsplash

Неожиданное открытие шокировало научное сообщество – искусственный интеллект не просто обрабатывает данные, он допускает те же самые ошибки суждения, что и люди. Последнее исследование показало, что ChatGPT от OpenAI, одна из самых продвинутых систем искусственного интеллекта, демонстрирует человеческие когнитивные искажения почти в половине тестовых сценариев. Это заставляет задуматься – действительно ли ИИ принимает более объективные решения, чем мы?

Человеческие ошибки в цифровом разуме

Учёные проверили ChatGPT с помощью 18 различных тестов на когнитивные искажения. Результаты оказались неожиданными – ИИ проявил склонность к самоуверенности, избеганию неопределённости и "ошибке конъюнкции" (известной как "задача о Линде"). Исследование, опубликованное в журнале Manufacturing & Service Operations Management, выявило интересный парадокс. ChatGPT блестяще справляется с математическими и логическими задачами, но спотыкается, когда решения требуют субъективных суждений.

"Поскольку ИИ учится на человеческих данных, он может и мыслить, как человек – со всеми нашими предубеждениями", – объясняет Ян Чен, ведущий автор исследования и доцент Западного университета.

Особенно тревожно то, что более новая модель GPT-4, хотя и превосходит предшественников в аналитической точности, порой демонстрирует более выраженные предубеждения в задачах, требующих субъективных суждений. По данным компании OpenAI, ежемесячная аудитория ChatGPT превысила 100 миллионов пользователей, что делает вопрос о когнитивных искажениях ИИ критически важным.

Исследование показало, что ChatGPT склонен избегать риска даже тогда, когда рискованные решения могли бы принести лучшие результаты, переоценивать собственную точность и искать подтверждающую информацию вместо того, чтобы ставить предположения под сомнение.

"ИИ не является нейтральным арбитром", – утверждает Сэмюэл Киршнер из Бизнес-школы UNSW. "Если оставить его без контроля, он может не исправлять проблемы принятия решений, а фактически усугублять их".

Учитывая растущее влияние ИИ в таких областях, как подбор персонала, одобрение кредитов и даже медицинская диагностика, исследователи рекомендуют регулярные проверки решений, принимаемых ИИ, и совершенствование систем для снижения предвзятости. По прогнозам аналитиков, к 2026 году глобальный рынок ИИ достигнет 900 миллиардов долларов, что подчёркивает важность понимания ограничений этой технологии.

Это исследование не только раскрывает неожиданные аспекты работы искусственного интеллекта, но и заставляет задуматься о том, насколько наши цифровые помощники действительно отличаются от нас самих.

Источник: ScitechDaily

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В цей день 10 квітня

2025

2024

2023