Siri「変身計画」崩壊!Apple (AAPL.US ) 内部テスト失敗、「AI版Siri」は分割納品を余儀なくされる

アップルのリーク情報通のマーク・ガーマン(Mark Gurman)は、iPhoneのアップデート詳細を何度も正確に事前に漏らしてきたことで知られるが、最新の投稿で、長期にわたるSiri音声アシスタントの大規模なAIアップグレード計画が、最近の数週間のテストで障害に直面していると述べた。これにより、多くの果粉が期待していた新しいAI機能のリリースが遅れる可能性がある。つまり、もともとiOS 26.4に含まれる予定だった重要なAI機能は、複数回に分けて段階的にリリースされる可能性があり、一部の主要な機能はiOS 26.5やiOS 27まで延期されるかもしれない。

ガーマンは、事情通の情報として、これらの新しいAI機能は当初、3月にリリース予定のiOS 26.4に含める計画だったが、現在はこれらの機能を将来の複数のバージョンに分散させる作業を進めていると伝えた。これにより、一部のAI機能は少なくともiOS 26.5(今年5月リリース予定)やiOS 27(9月リリース予定)まで遅れる可能性がある。

最新の遅延やテストの障害は、アップルの長く困難な「AIの歴史」の一部に過ぎない。アップルは2024年6月に、Siriを「エンド側AIスーパーインテリジェンス」に改造するという野心的な計画を発表している。その年、iPhoneやiPadなどの世界で最も人気のあるスマートデバイスを擁する消費電子のリーダーは、個人データや画面内容を全面的に呼び出せるAIアシスタントの能力を披露した。

SiriのAI技術の基盤には、Googleの独占的なGemini AI大モデルの技術が採用される見込みだ。1月に、米国の巨大テック企業Alphabet傘下のGoogleは、長年の契約を結び、iPhoneやiPadのトップクラスのスマートデバイスを持つアップルに対し、最先端のAI大モデルを提供していることを確認した。この契約により、アップルの次世代Siri AI音声アシスタントには、新たなAI機能が組み込まれる。

このAI協力は双方にとって大きな利益となる。アップルのSiriはついにAIを基盤とした革新的な変革を迎え、Googleの親会社Alphabetの時価総額は、契約の推進により初めて4兆ドルの大台に乗った。これは、NVIDIAの4.5兆ドルに次ぐ規模だ。

「底層のエンド側大モデル」の厳密な定義からすると、今回のアップルAIの進展は、GoogleのGeminiを助けとして、SiriやApple Intelligenceの「インテリジェンス層(層のアップグレード/より強力な頭脳の接続)」の進化と見ることができる。GoogleとAppleの共同声明によると、Appleの次世代Apple Foundation Modelsは、「Geminiの独占的AI大モデルとクラウドコンピューティング技術に基づき」、よりパーソナライズされたSiri AI音声アシスタントなど、多くの新しいApple独自のAI機能に利用される予定だ。ただし、現時点ではApple IntelligenceのAI機能は引き続きAppleユーザーに提供される。

AI大モデルとPCやスマートフォンなどの消費電子端末を全面的に融合させ、ローカルデバイス上でオフライン推論性能を高めつつ、巨大なクラウドAI計算資源も呼び出せる「エンド側AI」の構築は、世界中の多くの消費電子企業のAI戦略の核心となっている。

果粉のSiriのアップデートや進化の構想では、クラウドとエンド側AI大モデルの支援により、アップルのSiriはもはや単なる不器用な形式的音声アシスタントではなく、クラウドAIの計算資源と生成型人工知能機能を組み合わせることで、よりユーザーの個人的なニーズに合った「プライベートAIアシスタント」へと進化する見込みだ。映画『HER』のような「万能AIパートナー」の実現も視野に入っている。アップルは、アップデート後のSiriがユーザーの個人情報を活用し、さまざまなアプリで質問に答えたり操作を実行したりできると表明している。

何度も延期!アップグレード版Siri AIスーパー音声アシスタントは何度も延期

アップグレード版のSiriは、アップルのスマートデバイスユーザーが音声だけで自社およびサードパーティのアプリを正確に操作できるようにする予定だ。これらの新機能は、もともと2025年前半にリリースされる計画だった。

昨春、アップルはリリースを延期し、新しいSiriは2026年初頭に登場すると発表したが、具体的な時期は明らかにされていない。ガーマンは、社内ではアップルの経営陣が目標を2026年3月に設定しており、iOS 26.4に合わせる予定だったが、その目標は先月まで変わらなかったと伝える。

しかし、事情通によると、最新のテストでソフトウェアに新たな問題が見つかり、再度延期の原因となったという。これらの情報源は匿名を条件としており、内部の機密事項に属する。彼らは、Siriがユーザーのクエリを正しく処理できない場合や、リクエスト処理に時間がかかりすぎる場合があると指摘している。

この状況は流動的であり、アップルの新しいSiriのリリース計画はさらに調整される可能性がある。カリフォルニア州クパチーノに本社を置くこの巨大テック企業の広報はコメントを控えた。

水曜日の発表後、アップルの株価は一部の上昇分を吐き出した。水曜日の米国株市場の終値では、株価は0.67%上昇し275.50ドルとなった。早朝には2.4%上昇したが、市場のリスク回避ムードやiPhone需要の楽観的見通しにより、アップル株はS&P500指数を上回る動きとなった。

ガーマンは、ここ数日、アップルがエンジニアに対し、近日リリース予定のiOS 26.5を使って新しいSiri機能のテストを行うよう求めていると述べている。これは、関連機能が少なくとも一つのバージョン遅れたことを示唆している。内部バージョンには、Siriの一部強化機能を追加する旨の説明も含まれている。

特に大きく遅れる可能性があるのは、Siriが個人データを呼び出す拡張機能だ。この技術により、ユーザーはAIスーパーアシスタントに古いメッセージを検索させたり、友人と共有したポッドキャストを即座に再生させたりできるようになる。

iOS 26.5の内部ビルドには、「プレビュー」用の設定切り替えも含まれており、社員がこの機能を試せるようになっている。これは、アップルがユーザーに対し、最初のリリース版は未完成または信頼性に欠ける可能性があることを警告するかどうかを検討していることを示す。

ガーマンは、他にも進展の遅れている機能として、アプリ内操作を音声で制御するための高度なコマンド体系、いわゆる「アプリインテント」の開発も挙げている。これにより、ユーザーは一つのコマンドで画像を見つけて編集し、連絡先に送信する、といった操作を一度の指示で完結できる。

iOS 26.5のテストを行う一部のアップル社員は、これらの機能は初期段階のサポートはあるものの、すべての状況で信頼性を確保できていないと述べている。

また、正確性の問題や、ユーザーが早口で話すとSiriが割り込むバグ、複雑なクエリの処理に時間がかかる問題も報告されている。

もう一つの課題は、新しいSiriが、OpenAIのChatGPTを用いた生成型AIアプリとのシンプルな統合に退行してしまうケースだ。これは、Siriが本来対応できるはずのユーザーリクエストに対しても起こり得る。

2025年末の内部バージョンでは、リリースが非常に遅れており、関係者は数ヶ月の延期を余儀なくされると考えている。

アップルの幹部は長らく、2024年6月に発表されたAIソフトウェアアシスタントのリリースが2026年春以降に遅れることを望んでいない。最近数週間も、今月または来月にリリースを計画している。

Gemini AI基盤を搭載した次世代Siriが間もなく登場!アップルとGoogleの端側AI革新

しかし、これは非常に複雑なプロジェクトだ。新しいSiri AI音声アシスタントは、コード名Linwoodの全く新しいアーキテクチャに基づいて構築されている。そのソフトウェアは、Apple Foundations Modelsと呼ばれる同社の大規模言語モデルプラットフォームに依存しており、現在Googleの最先端AI技術を導入している。

ガーマンは、iOS 26.5のテスト版には、未発表の重要な追加機能が2つ含まれていると述べている。一つは新しいネット検索ツール、もう一つはカスタム画像生成機能だ。Appleは、iOS 26.4のテスト段階でもこれらの能力を試しており、これらの新機能の一部は早期に登場する可能性も示唆されている。

ネット検索機能は、PerplexityやGoogle検索のGemini部分に似た仕組みで動作し、ユーザーがネットから情報を取得し、AI技術を用いて生成した回答や要約リスト、関連ウェブサイトのリンクを返す。

画像生成機能は、AppleのImage Playgroundアプリと同じスーパーエンジンを使用しているが、iOS 26.5のテスト関係者によると、安定性はまだ十分ではないという。

ガーマンは、これらのアップグレードに加え、AppleはiOS 27、iPadOS 27、macOS 27向けに、まったく新しいAI計画を進めていると述べている。それは、未来的なチャットボットのように動作する、全面的に再構築されたSiriだ。Googleのサーバーと、より高度なカスタムGemini AI大モデルによって支えられる。

このプロジェクトは「Campo」と呼ばれ、AIをAppleの各種OSに深く統合し、ChatGPTのようなAIアシスタントと一致するインターフェースと機能を提供することを目的としている。同時に、アップルは独立したSiriアプリを通じてこのシステムをテストし、ユーザーがこれまでのチャット履歴を管理できるようにしている。

次世代Siriの操作インターフェースの重要な要素は、OS全体にわたるコントロールと、個人データ(ファイルなど)の位置付けを可能にすることだ。アップルはまた、メール、カレンダー、Safariなどの主要な自社アプリに新しいSiriコアエンジンを導入する計画もある。

アップルのCEOティム・クックは、先週の全社員会議で、今後さらに多くの変化があることを示唆した。彼は、AI能力を強化するための新しいデータセンター用AIチップの開発も進めていると述べた。

「Apple Siliconは、私たちのデバイスに合わせたデータセンターソリューションを構築できるようにしている」とクックは語った。「未来を見据えると、私たちの取り組みは、新しい製品やサービスのカテゴリーを可能にするだろう」

おそらく彼が指しているのは、長年開発されている高性能チップ「Baltra」だ。これはクラウドAI処理のための負荷を処理するためのものだ。

アップルの個人データ機能の開発期間が長くなる一因は、同社の厳格なプライバシー方針にある。会議で、ソフトウェアエンジニアリング責任者のCraig Federighiは、パーソナライズされたAIはユーザーデータを公開してはならないと強調した。

「私たちは、モデルがあなたの質問を受け取るとき、そのデータのプライバシーを保持することが非常に重要だと考えている」と彼は述べ、「業界の標準的なやり方は、これらのデータをサーバーに送信し、記録・露出させ、トレーニングに利用することだ」と付け加えた。

それに対し、Federighiは、「私たちはリードしている」と述べ、ユーザーデータをデバイス内に留めるか、プライバシー保護されたプライベートサーバーに送るAIを構築していると語った。さらに、認証情報や合成データ(人工的に生成されたデータで、実世界の入力を模倣するもの)も利用していると述べている。

「これらすべての要素を組み合わせると、私たちは、より深く私たちの生活に入り込む、個人化された強力な独自AI体験を提供できる」と彼は語り、「最終的には、アップルのアプローチは業界全体に採用されると信じている」と締めくくった。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン