З моменту запуску в листопаді минулого року, магазин GPT від OpenAI обіцяв стати майданчиком для інноваційних і корисних інструментів, створених спільнотою. Однак, реальність виявилася далекою від ідеалу. Нещодавнє розслідування виявило, що магазин кишить порушеннями, які підривають довіру до платформи.
У чому полягає проблема?
Дослідження, проведене Gizmodo, показало, що через дев'ять місяців після відкриття, магазин GPT став притулком для розробників, які ігнорують правила OpenAI. Серед виявлених порушень - чат-боти, що пропонують сумнівні медичні та юридичні поради, а також інструменти для обходу систем антиплагіату.
Ось приклади ботів-порушників:
- Терапевт - Психолог: бот, який пропонує психологічну допомогу без відповідної на те кваліфікації.
- Фітнес-тренер із докторським ступенем: тут обіцянка професіоналізму не підкріплюється реальними знаннями.
- Bypass Turnitin Detection: інструмент, прямо націлений на обман вчителів і викладачів (обхід систем антиплагіату).
Реакція OpenAI
У відповідь на звинувачення, OpenAI заявила про вжиття заходів. За словами представника компанії, Таї Крістенсон, використовується складна система для виявлення порушень, що включає автоматизовані методи і людський контроль. Проте, багато ботів-порушників, як і раніше, доступні.
Критика OpenAI
Мілтон Мюллер з Технологічного інституту Джорджії висловив іронію з приводу ситуації, що склалася:
"Вони говорять про порятунок світу від ШІ, але не можуть впоратися з простими порушеннями у своєму ж магазині."
А що далі?
Відсутність належної модерації в GPT Store призводить до серйозних ризиків. Боти, які видають себе за професіоналів у юридичній або медичній сфері, можуть надавати невірну, а то й відверто шкідливу інформацію.
Ситуація в GPT Store порушує важливі питання про регулювання та відповідальність у світі ШІ. Якщо OpenAI хоче зберегти довіру користувачів і реалізувати свої високі цілі, компанія повинна значно поліпшити механізми контролю та модерації контенту.











