Новая адаптация «Франкенштейна» от Гильермо дель Торо на Netflix служит мощным культурным предупреждением. Однако настоящий урок истории Мэри Шелли не в том, что «не стоит создавать опасные вещи», а в том, что «нельзя бросать то, что создал». Сегодняшние разработчики искусственного интеллекта стоят перед тем же выбором, что и Виктор Франкенштейн – ответственность или отречение.
Проблема уже не является теоретической. «Галлюцинации» искусственного интеллекта – уверенные, но полностью сфабрикованные ответы – проникают в критические сферы. Недавно апелляционный суд Калифорнии оштрафовал юриста на 10 000 долларов после того, как 21 из 23 приведенных им судебных цитат оказались выдумкой ИИ. В другом случае, в Джорджии, целое решение о разводе было отменено из-за 11 фальшивых цитат.
Это не просто единичные сбои. Это фундаментальный недостаток современных систем.
Неизбежность «галлюцинаций»
Авторы статьи, Дов Гринбаум, профессор права из Университета Райхмана, и Марк Герштейн, профессор биомедицинской информатики из Йельского университета, подчеркивают ключевую проблему. В отличие от калькулятора, который всегда дает правильный результат, современный ИИ не может быть доказательно корректным.
Недавнее исследование (которое авторы связывают с журналом Science) подтверждает, что правдоподобные ложные сведения неизбежны в текущих архитектурах. Системы научены «предполагать то, что звучит правдоподобно, а не проверять, что является правдой». Как выразился один исследователь ИИ, попытка заставить модель признавать свою неопределенность может просто «убить продукт».
Эти ошибки не исчезают. Они попадают в базы данных, становятся прецедентами и даже «подаются» для обучения будущих моделей. «Сегодняшние галлюцинации становятся завтрашними фактами», — предупреждают авторы.
Фармацевтическая модель регулирования
Как решить эту проблему, не подавляя инновации? Гринбаум и Герштейн предлагают обратиться к проверенной временем модели – регулированию фармацевтических препаратов.
Фармацевтические компании не могут предвидеть все биологические эффекты, поэтому они проводят тщательные испытания. Даже после одобрения, постоянный мониторинг остается жизненно необходимым. Яркий пример — препарат Vioxx, который был отозван с рынка после того, как надзорные органы обнаружили, что он фактически удвоил риск сердечных приступов и инсультов, что, по оценкам FDA, могло привести к десяткам тысяч трагедий.
Авторы предлагают аналогичную трехступенчатую структуру для ИИ:
- Стандарты обучения. Четкие требования к происхождению учебных данных и мониторинг «загрязнения» синтетическим контентом.
- Тестирование перед развертыванием. Структурированные испытания для систем в сферах с высокими ставками (право, медицина, финансы) для фиксации частоты ошибок.
- Постоянный надзор. Эквивалент фармаконадзора для отслеживания «побочных эффектов» ИИ и изъятия опасных систем с рынка.
Вызов для инноваций
Авторы признают, что регулирование — это сложный баланс. Акт ЕС об ИИ (EU's AI Act) является примером того, как чрезмерная бюрократия может стать неподъемной для малых стартапов, в то время как крупные корпорации легко справятся с юридическими расходами.
Решением может стать «градуированный надзор». Требования и расходы должны масштабироваться в соответствии с продемонстрированным ущербом. Если система имеет низкий уровень ошибок, она получает более легкий мониторинг; если высокий – более жесткие требования к исправлению или полное изъятие с рынка.
Ответственное управление не может быть добровольным. Урок Мэри Шелли, который вновь прозвучал в фильме дель Торо, остается актуальным. Вопрос не в том, создавать ли мощный ИИ – мы его уже создаем. Вопрос в том, готовы ли мы взять на себя ответственность за созданное.











