Штучний інтелект навчився фатчекінгу: що відомо про новий інструмент від Google DeepMind?

Эта статья доступна на русском языке
наука і штучний інтелект
Джерело фото: Midjourney

В епоху цифрових технологій, коли щодня мільйони байтів інформації обрушуються на користувачів інтернету, актуальність перевірки фактів, тобто фатчекінг, досягла свого апогею. У цьому контексті останні досягнення Google DeepMind у сфері штучного інтелекту (ШІ) являють собою справжній прорив. Розроблений ними інструмент SAFE обіцяє кардинально змінити підхід до верифікації даних, що надаються мовними моделями.

Нові можливості для фатчекінгу

Дослідники з підрозділу Google DeepMind представили інноваційну систему під назвою SAFE (Search-Augmented Factuality Evaluator), яка здатна з високою точністю відрізняти достовірну інформацію від неправдивої. Цей інструмент використовує складні алгоритми для аналізу тверджень, згенерованих мовними моделями, такими як GPT і Gemini, і перевіряє їх, зіставляючи з даними з пошукової системи Google. У результаті тестування SAFE демонструє збіг з оцінками людини в 72% випадків, а в ситуаціях, коли думки розходилися, рішення ШІ виявлялося правильним у 76% випадків.

 

Економічність і масштабованість: головні переваги нової фатчекінгової системи

штучний інтелект

Однією з ключових переваг системи є її економічність. За оцінками розробників, використання SAFE обходиться приблизно у 20 разів дешевше, ніж традиційна перевірка фактів людиною. В умовах постійного зростання обсягу інформації, що генерується мовними моделями, наявність такого інструменту стає не просто зручністю, а необхідністю.

У пошуках прозорості

Не менш важливим аспектом є прагнення Google DeepMind до відкритості та прозорості. Код SAFE і набір даних LongFact були опубліковані у відкритому доступі, що дає змогу іншим дослідникам і розробникам робити свій внесок у боротьбу з дезінформацією. Однак, незважаючи на значні досягнення, система все ще перебуває на стадії розроблення, і її точність може бути поліпшена. Крім того, існують питання, пов'язані з кваліфікацією оцінювачів, з якими порівнювали роботу ШІ. Експерти підкреслюють, що для досягнення максимальної ефективності необхідне порівняння не тільки зі звичайними користувачами, а й із професіоналами в галузі фактчекінгу.

На закінчення, розробка SAFE від Google DeepMind відкриває нові перспективи у сфері верифікації інформації. Цей інструмент не тільки підвищує точність і надійність мовних моделей, а й пропонує ефективне рішення для боротьби з поширенням недостовірних даних. У світі, де інформаційний шум стає дедалі гучнішим, такі інновації стають ключем до збереження довіри та об'єктивності.

 

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Інші статті рубрики

В цей день 31 березня

2025

2024

2023