С момента запуска в ноябре прошлого года, магазин GPT от OpenAI обещал стать площадкой для инновационных и полезных инструментов, созданных сообществом. Однако, реальность оказалась далека от идеала. Недавнее расследование выявило, что магазин кишит нарушениями, подрывающими доверие к платформе.
В чем заключается проблема?
Исследование, проведённое Gizmodo, показало, что через девять месяцев после открытия, магазин GPT стал прибежищем для разработчиков, игнорирующих правила OpenAI. Среди обнаруженных нарушений – чат-боты, предлагающие сомнительные медицинские и юридические советы, а также инструменты для обхода систем антиплагиата.
Вот примеры ботов-нарушителей:
- Терапевт – Психолог: бот, который предлагает психологическую помощь без соответствующей на то квалификации.
- Фитнес-тренер с докторской степенью: здесь обещание профессионализма не подкрепляется реальными знаниями.
- Bypass Turnitin Detection: инструмент, прямо нацеленный на обман учителей и преподавателей (обход систем антиплагиата).
Реакция OpenAI
В ответ на обвинения, OpenAI заявила о принятии мер. По словам представителя компании, Таи Кристенсон, используется сложная система для выявления нарушений, включающая автоматизированные методы и человеческий контроль. Тем не менее, многие боты-нарушители по-прежнему доступны.
Критика OpenAI
Милтон Мюллер из Технологического института Джорджии выразил иронию по поводу сложившейся ситуации:
"Они говорят о спасении мира от ИИ, но не могут справиться с простыми нарушениями в своём же магазине."
А что дальше?
Отсутствие надлежащей модерации в GPT Store приводит к серьёзным рискам. Боты, выдающие себя за профессионалов в юридической или медицинской сфере, могут предоставлять неверную, а то и откровенно вредную информацию.
Ситуация в GPT Store поднимает важные вопросы о регулировании и ответственности в мире ИИ. Если OpenAI хочет сохранить доверие пользователей и реализовать свои высокие цели, компания должна значительно улучшить механизмы контроля и модерации контента.











