В 2025 году тема галлюцинаций искусственного интеллекта (ИИ) стала одной из главных в дебатах вокруг надежности и доверия к современным языковым моделям. Dario Amodei, генеральный директор Anthropic, недавно выступил с несколькими заявлениями, которые меняют традиционный подход к этой проблеме: он прямо сравнивает частоту и природу галлюцинаций у людей и ИИ, приводя неожиданную статистику и контекст для оценки и последствий этих явлений.
Официальные цитаты и позиция Anthropic
Dario Amodei твердо утверждает: "Современные ИИ-модели генерируют ложную информацию (галлюцинации) реже, чем это делают люди в повседневной жизни". Он подчеркивает, что хотя ИИ еще подвержен ошибкам, "галлюцинации не являются критической преградой для практического применения и постепенно уменьшаются с развитием технологий".
Данные независимых и отраслевых тестов показывают, что частота галлюцинаций в типичных речевых моделях колеблется от 1% до 5%, в то время как старые поколения ИИ могли ошибаться в 10-27% случаев. Новейшие модели Anthropic, Google и OpenAI достигли снижения этого показателя до 1-2% в общих задачах, а Anthropic держится на уровне около 4% для определенных бенчмарков. Для сравнения, в экспериментах с цитированием медиаисточников люди часто ошибаются еще чаще, или не могут отличить правдивую информацию от вымысла без специальной проверки.
Последние тенденции указывают на общее снижение частоты галлюцинаций благодаря масштабированию моделей и совершенствованию тренировки, но в то же время растет сложность ошибок – они могут проявляться в более неожиданных и сложных случаях, чем обычные человеческие ошибки. Амодей замечает, что хотя ИИ ошибается реже, его выдумки иногда сложнее обнаружить или они выглядят более убедительно, чем человеческие.
Несмотря на общее снижение, остаются сферы повышенного риска – юридическая практика, медицина, финансы. В последнее время Anthropic пришлось официально извиняться в суде за вымышленную ИИ судебную цитату, хотя, как отмечают юристы компании, даже здесь уровень галлюцинаций ниже, чем типичные человеческие ошибки в подготовке документов.
Антропик и независимые исследователи отмечают, что термин "галлюцинации" у людей охватывает не только ошибки в фактах, но и когнитивные искажения, интуицию, память, обработку слухов и домыслов. Именно это делает человеческие источники менее надежными во многих бытовых и профессиональных задачах.
Главный тезис Dario Amodei – современный ИИ уже менее склонен к галлюцинациям, чем человек в обычной коммуникации, но природа ИИ-ошибок остается сложной, требует постоянного анализа и улучшения прозрачности. Внедрение дополнительных проверок, экспертных панелей и пользовательских интерфейсов с акцентом на неуверенность помогает минимизировать риски в серьезных сферах применения ИИ.
Источник: Techcrunch










