Представьте ситуацию: два пациента с абсолютно одинаковыми симптомами обращаются к врачу, но получают совершенно разные рекомендации по лечению. Причина – не профессиональные навыки врача, а искусственный интеллект, который принимает решения на основе социально-демографических характеристик пациентов. Именно эту тревожную тенденцию обнаружили исследователи из Медицинской школы Икана при больнице Маунт-Синай в своем новом исследовании.
Ученые провели масштабное исследование, проверив девять различных моделей больших речевых моделей (LLMs) на материале 1000 случаев из отделения неотложной помощи. Каждый клинический случай был представлен с 32 различными профилями пациентов, что позволило сгенерировать более 1,7 миллиона медицинских рекомендаций. Результаты шокируют: при абсолютно идентичных медицинских данных ИИ менял свои рекомендации в зависимости от социально-экономического статуса пациента.
Доктор Эял Кланг, соавтор исследования, отмечает: "Наше исследование создает основу для проверки надежности ИИ, помогая разработчикам и медицинским учреждениям создавать справедливые и надежные инструменты искусственного интеллекта".
Особенно тревожным оказался факт, что пациентам с высоким уровнем дохода чаще рекомендовали пройти дополнительные обследования, такие как КТ или МРТ. Зато пациентам с низким доходом чаще советовали обойтись без дополнительных тестов. Кроме того, алгоритмы демонстрировали тенденцию к разному подходу в вопросах оценки психического здоровья в зависимости от демографических характеристик пациента.
Согласно данным Всемирной организации здравоохранения за 2024 год, предвзятость в медицинских алгоритмах может углубить существующее неравенство в доступе к медицинской помощи, которое уже сейчас приводит к разнице в продолжительности жизни до 10 лет между различными социальными группами в пределах одной страны.
"ИИ имеет силу революционизировать здравоохранение, но только если его развивать и использовать ответственно", – отмечает доктор Гириш Н. Надкарни, соавтор исследования. Он подчеркивает важность сотрудничества и тщательной валидации для совершенствования инструментов ИИ в соответствии с самыми высокими этическими стандартами.
Исследователи планируют расширить свою работу, моделируя многоэтапные клинические разговоры и тестируя модели ИИ в реальных больничных условиях. Их цель – разработать руководящие принципы и лучшие практики для обеспечения надежности ИИ в здравоохранении.
Результаты исследования опубликованы в журнале Nature Medicine 7 апреля 2025 года и побуждают к более глубоким размышлениям о том, как технологии, призванные улучшить медицинскую помощь, могут непреднамеренно усиливать существующие социальные неравенства.
Источник: ScitechDaily











