Компания Apple может начать использовать стороннюю языковую модель в своем голосовом ассистенте Siri, чтобы ускорить создание собственных решений в области искусственного интеллекта.
Согласно информации Bloomberg, в настоящее время Apple ведет диалог с OpenAI и Anthropic для установления партнерства, которое позволит интегрировать их нейросети.
На данный момент стороны активно обсуждают технические аспекты внедрения решений на серверах Private Cloud Compute Apple и проводят тестирование моделей в закрытой экосистеме. Однако окончательное решение о полном переходе на внешние технологические решения пока еще не принято.
По сведениям, предоставленным Bloomberg, наиболее подходящей моделью для нужд Apple считается Claude от Anthropic, и между двумя компаниями уже ведутся переговоры о предварительных финансовых условиях. Тем не менее, суммы отчислений могут достигать многомиллиардных размеров ежегодно и будут увеличиваться со временем. Это обстоятельство заставляет Apple рассматривать альтернативные варианты, в том числе возможность более тесного сотрудничества с OpenAI.
Несмотря на активную работу над собственной языковой моделью для Siri, Apple сталкивается с трудностями при реализации функций искусственного интеллекта. Обновления Siri, анонсированные на WWDC 2024, так и не были внедрены за прошедший год. В марте компанияofficially перенесла релиз функции Apple Intelligence на 2026 год, что вызвало негативные реакции как со стороны пользователей, так и акционеров.
Ожидается, что новые функции ИИ в Siri появятся в iOS 26, а полноценная версия ассистента на базе ИИ будет доступна не раньше выхода iOS 27 осенью 2026 года. Сотрудничество с Anthropic или OpenAI может дать Apple дополнительное время для улучшения собственной модели и поддержания конкурентной позиции. В текущей версии iOS 18 уже реализована интеграция с ChatGPT: Siri может направлять запросы пользователей к стороннему ИИ для получения более полных ответов.