GPT-4 может быть использован для создания биологического оружия

Ця стаття доступна українською мовою
штучний інтелект
Источник фото: Изображение от rawpixel.com на Freepik

Компания OpenAI, разработчик одного из самых мощных искусственных интеллектов GPT-4, провела исследование, результаты которого заставили забить тревогу. Согласно отчету, опубликованному в издании Bloomberg, новейшая языковая модель способна в некоторой степени помочь злоумышленникам в создании биологического оружия. 

Эксперты компании выражают обеспокоенность тем, что мощь и возможности GPT-4 могут быть использованы не во благо, а во вред человечеству. Хотя сама OpenAI и называет риск "небольшим", масштабы последствий в случае реализации такого сценария могут оказаться поистине катастрофическими.

Эксперименты с участием ученых и студентов

Для оценки потенциальных рисков OpenAI провела эксперимент с участием 100 добровольцев. Половину из них составляли эксперты-биологи, а другую – студенты биологических факультетов колледжей.

Участникам эксперимента необходимо было выполнить задания, связанные с использованием интернета и GPT-4 для создания биологической угрозы. Речь шла о поиске способов культивирования опасных веществ и планировании их распространения среди людей.

Сравнение результатов показало, что те испытуемые, которые работали в паре с GPT-4, справились с поставленными задачами несколько лучше остальных. Хотя разница и была невелика, она все же настораживает исследователей.

Предупреждения и рекомендации

В компании OpenAI отмечают, что GPT-4 способен лишь в незначительной степени ускорить процесс создания биологического оружия. Тем не менее, они призывают коллег и партнеров к бдительности и выработке мер по предотвращению злоупотреблений со стороны злоумышленников.

Кроме того, в OpenAI уже активно ведутся исследования, призванные минимизировать потенциальный вред от ИИ в других областях. В частности, изучается возможность использования GPT-4 для кибератак и распространения фейковых новостей. 

Таким образом, несмотря на заверения в "небольшом риске", в OpenAI явно обеспокоены перспективами злоупотребления их детищем. Похоже, человечеству еще предстоит немало поработать над тем, чтобы по-настоящему безопасно использовать потенциал современного ИИ.

terazus.com є майданчиком для вільної журналістики. Матеріали користувачі завантажують самостійно. Адміністрація terazus.com може не розділяти позицію блогерів і не відповідає за достовірність викладених ними фактів.

Шановні користувачі, просимо вас шановливо ставитися до співрозмовників в коментарях, навіть якщо ви не згодні з їх думкою!



Другие статьи рубрики

В этот день 01 февраля

2025

2024

2023