Искусственный интеллект научился фатчекингу: что известно о новом инструменте от Google DeepMind?

Ця стаття доступна українською мовою
наука і штучний інтелект
Источник фото: Midjourney

В эпоху цифровых технологий, когда каждый день миллионы байтов информации обрушиваются на пользователей интернета, актуальность проверки фактов, то есть фатчекинг, достигла своего апогея. В этом контексте последние достижения Google DeepMind в области искусственного интеллекта (ИИ) представляют собой настоящий прорыв. Разработанный ими инструмент SAFE обещает кардинально изменить подход к верификации данных, предоставляемых языковыми моделями.

Новые возможности для фатчекинга

Исследователи из подразделения Google DeepMind представили инновационную систему под названием SAFE (Search-Augmented Factuality Evaluator), которая способна с высокой точностью отличать достоверную информацию от ложной. Этот инструмент использует сложные алгоритмы для анализа утверждений, сгенерированных языковыми моделями, такими как GPT и Gemini, и проверяет их, сопоставляя с данными из поисковой системы Google. В результате тестирования SAFE демонстрирует совпадение с оценками человека в 72% случаев, а в ситуациях, когда мнения расходились, решение ИИ оказывалось верным в 76% случаев.

Экономичность и масштабируемость: главные преимущества новой фатчекинговой системы

штучний інтелект

Одним из ключевых преимуществ системы является ее экономичность. По оценкам разработчиков, использование SAFE обходится примерно в 20 раз дешевле, чем традиционная проверка фактов человеком. В условиях постоянного роста объема информации, генерируемой языковыми моделями, наличие такого инструмента становится не просто удобством, а необходимостью.

В поисках прозрачности

Не менее важным аспектом является стремление Google DeepMind к открытости и прозрачности. Код SAFE и набор данных LongFact были опубликованы в открытом доступе, что позволяет другим исследователям и разработчикам вносить свой вклад в борьбу с дезинформацией. Однако, несмотря на значительные достижения, система все еще находится в стадии разработки, и ее точность может быть улучшена. Кроме того, существуют вопросы, связанные с квалификацией оценщиков, с которыми сравнивалась работа ИИ. Эксперты подчеркивают, что для достижения максимальной эффективности необходимо сравнение не только с обычными пользователями, но и с профессионалами в области фактчекинга.

В заключение, разработка SAFE от Google DeepMind открывает новые перспективы в области верификации информации. Этот инструмент не только повышает точность и надежность языковых моделей, но и предлагает эффективное решение для борьбы с распространением недостоверных данных. В мире, где информационный шум становится все громче, такие инновации становятся ключом к сохранению доверия и объективности.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В цей день 31 березня

2025

2024

2023