В статье, опубликованной на arXiv, разработчики Apple описывают ReALM как LLM (Large Language Model), способную давать более точные ответы на запросы пользователей, используя информацию с экрана устройства, а также сведения о текущих задачах и контексте.
По словам специалистов, ReALM может не только обрабатывать текст, но и «смотреть» на экран, получая доступ как к разговорной, так и к справочной информации. Это позволяет ИИ лучше понимать ход мыслей пользователя и предоставлять ему именно те сведения, которые он искал.
Тестирование модели показало, что она превосходит GPT-4 и другие LLM в определенных типах задач.
Apple планирует интегрировать ReALM в свои устройства, что позволит Siri давать более точные и релевантные ответы на запросы пользователей. Ожидается, что новинка станет доступна пользователям iPhone и iPad с обновлением до iOS 18.