Компания Apple разработала новую систему искусственного интеллекта под названием ReALM (Reference Resolution as Language Modeling), которая призвана значительно улучшить возможности голосовых помощников по пониманию и реагированию на команды пользователей. Об этом сообщает издание MacRumors со ссылкой на внутренний документ Apple.
ReALM умеет расшифровывать неоднозначные команды
По данным источника, ReALM представляет собой масштабную языковую модель, способную эффективно интерпретировать двусмысленные высказывания и неоднозначные отсылки к объектам, отображаемым в данный момент на экране устройства. Благодаря этому достигается более естественное и интуитивно понятное взаимодействие с цифровым помощником.
Новый ИИ превосходит по точности даже GPT-4
Одна из главных сложностей для современных голосовых ассистентов –корректная интерпретация указательных местоимений, намеков и других непрямых отсылок в речи. Система ReALM призвана решить эту проблему, анализируя визуальное содержимое экрана в момент произнесения фразы и устанавливая связи с контекстом диалога.
Согласно результатам внутренних тестов Apple, предложенный подход к обучению нейронной сети позволяет значительно превзойти по точности распознавания даже последнюю GPT-4 модель от OpenAI.
ReALM улучшит голосовое управление гаджетами
Благодаря ReALM пользователи смогут гораздо эффективнее управлять смартфоном и другими гаджетами с помощью голоса, не вдаваясь в подробные объяснения текущего контекста. Это расширит возможности применения голосового управления для людей с ограниченными возможностями, а также в ситуациях, требующих повышенного внимания, например, за рулем автомобиля.
В Apple отмечают, что новая разработка открывает широкие перспективы для применения технологий искусственного интеллекта в смартфонах и других устройствах компании. Ожидается, что первые функции на основе ReALM появятся уже в следующей версии iOS, анонс которой запланирован на конференции WWDC в июне 2024 года.











