Geminiによる新しいSiri:Appleのアシスタントの大きな変化はこうなる


ソフトウェア・アップデート
2026-01-26T12:56:59+01:00

最終更新日: 2026年01月26日
  • Apple と Google は、新しい Siri と Apple Intelligence モデルに Gemini を搭載する契約を締結しました。
  • 最初の波の機能は iOS 26.4 で提供され、アプリ内でより便利な Siri が利用できるようになります。
  • iOS 27 では、Siri は iPhone、iPad、Mac に統合されたチャットボット (Project Campos) になります。
  • Gemini は Google のクラウド上で実行されるため、プライバシーとデータ使用に関する懸念が生じており、8GB の RAM を搭載した iPhone との互換性は限られることになる。

Geminiの新しいSiri

りんご 準備する ここ数年で最大のエコシステム変革の一つ幾度もの延期と約束の破棄を経て、同社は今、発表の日程とロードマップを定めた。 生成型人工知能モデルに基づく新しいSiriGemini を通じて Google を主要パートナーとして迎えました。

このアップデートは、音声の変更やコマンドの追加だけではありません。Appleのアシスタントが、限定的なコマンドシステムから進化することを意味します。 iOS、iPadOS、macOSに統合された会話型チャットボット画面上の内容を読み取り、アプリ間でタスクを連結し、最も複雑な機能については Google クラウドを利用することができます。

歴史的合意:ジェミニが新しいSiriのエンジンに

数日前、AppleとGoogleが AI分野における複数年にわたる協力契約実際には、これはAppleの基本モデルの次世代、いわゆるファウンデーションモデルが ジェミニのカスタマイズされたバージョンをベースに構築されます 大部分は Google のクラウド インフラストラクチャ上で実行されます。

リークされた情報によると、Appleはこれらの高度なモデルの使用に年間で非常に高額な費用を支払う予定で、そのバリエーションは最大 1,2兆個のパラメータ 長い要約、複雑な計画、コンテンツ生成など、最も要求の厳しいタスクに適しています。 Apple独自の軽量モデル これらは、高速コマンドと遅延の影響を受けやすい機能のためにデバイス上で引き続き実行されます。

この動きは、SiriとApple Intelligenceの主要なインテリジェンスはすべて自社開発されるというAppleの長年の主張を覆すものだ。しかし、今、 同社は事実上、Google の力が必要であることを認めている。 市場のGemini、ChatGPT、その他の主要モデルに遅れをとらないようにするためです。

プライバシーとサーバー:Appleの大きな矛盾

新しいアプローチの最も繊細な側面の一つはデータ管理だ。Appleは長年、次のような考え方を軸に自社のイメージを構築してきた。 ユーザーの情報はiPhoneに残ります あるいは、せいぜい自社のサーバー上で、厳格な暗号化制御の下で行われる程度だ。しかし、新しいSiriの登場により、その約束はより複雑になる。

最新世代のGeminiモデルを実行するために、Appleは プライベートクラウドの容量が十分ではないそのため、一部の処理はGoogleのインフラストラクチャ、つまり同社が自社サービスに既に使用しているサーバー上で行われることになります。つまり、新しいSiriへの高度なクエリの多くは、Googleのサーバー上で処理されることになります。 Googleクラウドへ移行する 答えを持ってデバイスに戻る前に。

アップルは今後も型アーキテクチャを使い続けると主張している プライベートクラウドコンピューティングエンドツーエンドの暗号化、ソフトウェア検証、そしてリクエストごとのデータ削除といった機能を備えている。しかし、様々な情報源によると、この戦略変更は、 WWDC 2024で発表されたメッセージ同社は、サードパーティのクラウドに依存するソリューションは安全ではないとさえ主張していました。

重要なひねりがあります: 新しい、より強力な Siri は外部サーバーに依存することになります。 そして、これはAppleがこれまでほぼあらゆる分野で競合してきた企業の技術から生まれたものだ。特にプライバシーに非常に敏感なヨーロッパのユーザーにとって、サービスが本格的に稼働すれば、この点は注目すべき点となるだろう。

iOS 26.4: 新しいSiriの第一弾

Siriの全面的な改良は段階的に展開されます。最初のメジャーアップデートは iOS 26.4ベータ版は2月にリリースされ、2026年3月末から4月初めにかけて広く展開される予定だ。このバージョンは、 Apple IntelligenceとGeminiを搭載した新しいSiriの初期機能.

Appleは1年以上前にこの「改良版」Siriのプレビュー版を発表していましたが、品質基準を満たしていないとして延期していました。そして今、その延期によって引き起こされた社内危機を経て、ついにAppleは、次のような機能を備えたアシスタントを私たちに提供することを約束しています。 システムをさらに深く掘り下げる: カレンダーを読み、予定の場所を把握し、マップ上の交通状況と照合して、たとえば、家を出るのに最適な時間を教えてくれます。

日常生活において、この最初の波はいくつかの面で顕著になります。 アプリ内でのより複雑なアクション個人の状況をより深く理解し、画面上で何が起こっているかをある程度分析する能力。Siriが、アラームの設定や簡単なメッセージの送信にしか使わない「不器用なボタン」ではなくなることを目指しています。

噂によると アップルはスペインとヨーロッパの他の地域でもこれらの新機能を導入する予定だ。 これは、Apple Intelligenceが市場に初めて登場してから約1年が経った今、特に重要な意味を持つものです。ただし、これらの機能の具体的な範囲は、地域の規制や協定によって異なる場合があります。

互換性:どのiPhoneが新しいSiriを使えるか

大きな疑問の一つは、どのデバイスが実際にこれらの改善の恩恵を受けられるのかということです。Apple Intelligenceは明確な制約を伴って誕生しました。 少なくとも8GBのRAMを搭載したコンピューターでのみ動作しますAI モデルの大部分はデバイス上で直接実行されるためです。

ジェミニの統合は、原則としてこの現実を変えることはない。すべてがそれを示している。 Gemini に基づく新しい Siri は、Apple Intelligence と互換性のある iPhone 専用となります。つまり、iPhone 15 Pro、iPhone 16、iPhone 17、あるいは近日発売予定のiPhone Airシリーズといったモデルです。多くの旧モデルはiOS 26をインストールできるにもかかわらず、アシスタントの主要機能は利用できません。

ユーザーは Apple IntelligenceのないiPhone 従来のSiriは、多少の調整はあるものの、引き続き使用できますが、高度なチャットボットや、画面やコンテキストの詳細な分析機能は利用できません。実際には、 すでにわかっているのと同じ範囲分割が維持されます。Gemini や ChatGPT など、アプリを通じて古いモデルでも実行できる代替手段が存在するにもかかわらず。

この決定は、特にデバイスのアップグレード頻度が低く、デジタル規制によってAppleがエコシステムの一部をより柔軟にする必要に迫られている欧州市場では、議論を呼ぶ可能性がある。しかし、今のところ、同社は次世代AIを現状維持する決意のようだ。 最新のiPhoneの差別化機能.

アシスタントからチャットボットへ:iOS 27のCamposプロジェクト

本当の革命は数か月後の iOS 27 で起こるでしょう。マーク・ガーマン氏や他の専門メディアによるものを含むいくつかのレポートでは、コードネームを持つ社内プロジェクトについて説明している。 「フィールド」その目標は、Siri のインターフェースと動作を完全に変革することです。

この新しいモデルでは、Siriは厳格なコマンドのシステムではなくなり、 オペレーティングシステムに統合されたチャットボットユーザーは引き続き「Siri」またはサイドボタンを押し続けることでアシスタントを呼び出しますが、その背後には、長い会話を続け、ニュアンスを理解し、同じセッション内で文脈を記憶できる言語エンジンが登場します。

カンポスは、 iOS 27、iPadOS 27、macOS 27最初のプレゼンテーションは6月のWWDCで予定されており、新世代iPhoneの発売に合わせて秋に広範囲に展開される予定で、一部の機能は、ユーザーベースの一部でのテストとして、暫定的なiOS 26アップデートで早めに提供される可能性があります。

このモデルシフトは、Siriが「アラームを設定」や「アプリXを開く」といったコマンドを実行することから、 複雑なタスクを整理できる真の対話者このアプローチの変化をよく表している例があります。「今週末のバレンシアへの旅行を準備して、キャンセル可能なホテルと会議をカレンダーに追加してください」といったことを依頼すると、システムはそのリクエストを複数のステップ、アプリ、チェックに分解します。

画面を見てアプリを連携するアシスタント。

新しいSiriの重要な機能の一つは、 画面上で何が起こるかを「見る」 そして、その情報を会話と組み合わせます。これにより、例えば、アシスタントは開いているPDFを読み上げたり、Webページを要約したり、スプレッドシートから特定のデータを抽出したりすることができ、コピー&ペーストの手間がかかりません。

音声に加えて、ユーザーはチャットのようにテキストでやり取りできるようになります。Appleはすでに、 Siriに書き込むしかし、カンポス氏はその経験をシステムの中核に据えるつもりだ。このアプローチは、声に出して話すことが必ずしも現実的ではない職場や教育現場で特に役立つだろう。

バックグラウンドでは、音声、テキスト、視覚的なコンテキストの組み合わせにより、 複数のアプリケーションを同じフローに連結するたとえば、Siri はファイル内の文書を読んだり、カレンダーで日付を抽出してイベントを作成したり、メモで概要を生成したり、メールで下書きメールを準備して連絡先のグループに送信したりできるようになります。

アップルは 開発者向けAPI これにより、サードパーティ製アプリをこの会話型アシスタントと連携させることが可能になります。例えば、音楽アプリではSiriに新曲をおすすめしてもらったり、写真アプリではAIを活用して複雑な検索を行ったり、Xcodeのようなプログラミングツールではコード作成時に高度な支援を提供したりといったことが考えられます。

ジェミニとアップルの新しい基盤モデル

この変革の背後には、Apple Intelligenceモデルの進化がある。同社は様々な世代の Apple Foundationモデル 独自の技術として発表されているものの、 これらはGoogleのGeminiモデルと密接に関連している 最新バージョンです。

iOS 26.4の段階では、Appleは社内で呼んでいるモデルと同等のモデルを使用するだろう。 基盤モデル バージョン 10アプリ内でのアクションの処理、個人のコンテキストの理解、画面の一部の読み取りなどが可能です。iOS 27とCamposの完全展開を見据え、同社はすでにより高度なバージョンをテストしています。 基盤モデル バージョン 11、競争力があると説明 ジェミニ3 計画、推論、コンテンツ作成のタスクにおいて。

この戦略には ローカルモデルとクラウドモデルを組み合わせる軽微なシステム調整など、単純または機密性の高い操作には、デバイス上で直接実行されるモデルが使用されます。より要求の厳しいリクエスト(大規模な要約、広範なドキュメント分析、複雑な検索など)については、システムはGoogleクラウドにシームレスに拡張され、すべてが安全に、かつデータを一切保存せずに実行されるというAppleの方針を常に遵守します。

このハイブリッドアプローチは、実際には、Appleが短期的にはGoogleやOpenAIのような巨大企業のトレーニング規模と計算能力に単独で匹敵することはできないということを認めていると言えるでしょう。しかし同時に、 これにより、企業はエクスペリエンスをある程度制御できるようになります。 プライバシーとセキュリティに対する独自のアプローチを守り続けます。

プライバシー、記憶、そして意図的な境界線

インフラ以外にも、アップルは、その信頼性の多くが、 プライバシーApple Intelligenceを導入して以来、同社はそのアーキテクチャが情報漏洩や過度に詳細なユーザープロファイルの作成のリスクを最小限に抑えるように設計されていると主張してきた。

新しいSiriの場合、様々な情報源によると、Appleは アシスタントの「記憶」を意図的に制限する何年もの履歴を保存し、各会話から学習する他のチャットボットとは異なり、Campos は技術的に可能な範囲よりも少ない情報を記憶し、たとえ一時的であっても、保存されるやり取りの期間と種類を制限します。

それは微妙なバランスです。 記憶が多すぎると不安を引き起こす可能性があります。 ユーザーや規制当局、特に欧州では、このツールの有用性を損なうような批判が相次いでいますが、Appleは、例えば同じセッション内でトピックを再開したり、基本的な設定を記憶したりといった機能を提供しつつ、アシスタントを私たちの活動のすべてを記録した生きたアーカイブにすることなく、妥協点を見つけようとしています。

同時に、Googleは、 個人データにアクセスしない この合意に基づくiPhoneユーザーの行動。欧州委員会と各国のデータ保護当局は、新しいSiriがiPhoneユーザーからのメール、写真、文書、会話の取り扱いを開始する際には、注意深く監視することを約束している。 数千万人の人々.

WWDC 2026と主要な展開日

Appleのこの移行ロードマップには、いくつかの重要な段階があります。2018年11月に予定されている新しいGeminiベースのSiriの最初の発表後、 2026年2月末 おそらく小さなイベントや記者会見で、次の大きなイベントは 世界開発者会議(WWDC).

リーク情報によると、WWDC 2026はおそらく 6月8日(月曜日)これはAppleが初めて展示するステージとなる Camposの統合チャットボット そして、Googleとの契約によって実現したApple Intelligenceの詳細な機能についてもご紹介します。Appleは通常、こうしたイベントでパートナー企業について直接言及することはありませんが、多くのデモではGeminiの役割が示唆されるでしょう。

基調講演に続いて、 iOS 27、iPadOS 27、macOS 27 これらの機能は、ベータプログラムに参加している開発者とユーザーに公開され、新しいSiriの実際の動作をより広い文脈で詳細に分析できるようになります。正式リリースは今秋、新型iPhoneと同時に、そしておそらくは 地域とデバイスの種類による制限 クラウドに最も依存する機能において。

このカレンダーでは2026年を Siriの改革の年これは、Apple Intelligence が独自のプロジェクトとして成熟したからというよりは、Google のモデルをエコシステムの中心に構造的に統合することによってもたらされる推進力によるものです。

Appleのビジネスの鍵となる新しいSiri

Siriの変更は技術的な魅力を超えて、戦略的な解釈も含んでいる。「ChatGPTのような」アシスタントへの移行は、 防御と攻撃の戦術 Appleの事業において、AI分野での遅れが認識され、特にスマート機能に重点を置いたAndroidの主力製品と比較して、iPhoneの成長期待が既に低下し始めていたため、防御的な姿勢が取られていた。

攻撃的だ。なぜなら、もしAppleがSiriを本当に役に立つシステム全体のアシスタントにすることに成功したら、 決済サービスの利用が大幅に増加iCloud や Apple Music から Apple TV+ や Apple Arcade まで、アシスタントが何かを推奨したり、整理したり、自動化したりするたびに、ユーザーがエコシステムをさらに深く探索するよう促す機会が得られます。

Appleのアクティブデバイスのインストールベースはすでに 世界中で23億5000万人米国とヨーロッパだけでも数千万人のSiri常用ユーザーがいる。この状況下では、アシスタントの目立った改善は、 使用時間が長く、依存度が高い これは、成熟が進むスマートフォン市場において極めて重要なことです。

クパチーノにとって大きな問題は、新しいSiriがリリースされた後、ユーザーが過去から明らかに進歩したと感じるのか、それとも「あまり変わっていない」と感じるのかということだ。長年の約束と遅延の後、 期待のハードルは非常に高く設定されています。 そして、中途半端な改善は、最先端の AI が iPhone の外で発揮されているという考えを強める可能性がある。

モバイルを超えて:AI PINと改良されたSiriを搭載したその他のデバイス

Siriのソフトウェア再設計と並行して、Appleは次のようなことに取り組んでいると報じられている。 人工知能に焦点を当てた新しいデバイス この強化されたアシスタントを活用するプロジェクトです。最も話題を呼んだプロジェクトの一つは、小規模な ピン状のガジェットエアタグとほぼ同じサイズで、いつでも持ち歩けるように設計されています。

The Informationなどのメディアからのリークによると、このデバイスは円形で薄く平らなデザインで、 アルミ製シャーシ、ガラス製部品、フロントカメラ2台(標準1台と広角1台)、マイク3台、スピーカー、物理ボタン1個、ワイヤレス充電その目的は、新しい Gemini ベースの Siri との永続的な音声インターフェースとして機能することです。

この提案は、Humane AI Pin や Rabbit R1 などの最近の試みを彷彿とさせます。 従来のスクリーンレスアクセサリ衣服に装着し、音声コマンドに反応したり、短いシーンを録画したり、AIを使ってメモを取ったりする。Appleの場合、違いは iPhone、iCloud、その他のエコシステムとの緊密な統合製品が市場に投入されれば、大きな変化をもたらす可能性がある。

検討された日付は、このAIピンが発売される可能性のある時期を示している。 2027しかし、関係者によると、このプロジェクトはまだ初期段階にあり、社内の期待に応えられなければ遅延、あるいは中止される可能性もあるとのことだ。いずれにせよ、このプロジェクトの存在自体が、AppleがAIに大きな可能性を見出していることを裏付けていると言えるだろう。 ソフトウェア機能だけでなく、新しいハードウェアカテゴリのエンジン噂されているレイバンのメタスタイルのスマートグラスも含まれます。

この「新しいインターフェース」のアプローチは、今後10年間で私たちがテクノロジーとどのように関わっていくかを定義する世界的な競争に適合しています。 音声 vs. スクリーン、モバイル vs. ウェアラブルGoogle は Android 上で古いアシスタントを Gemini に置き換えており、OpenAI と Jony Ive は独自の AI ガジェットを開発しており、最初の商用ピンは販売には失敗しましたが、多くの人が探求したい道を開いたのです。

新しいSiriをめぐる動き、Googleとの合意からProject Campos、そしてAIデバイスの可能性に至るまで、Appleが最初の生成型AIの波に臨んだ際の極度の慎重さを捨て去ることを決定したことは明らかだ。長年AlexaやGoogleアシスタントに遅れをとっていたアシスタントは、今や 双子座は追いつこうとする そして、この戦略が定着すれば、当初の不利な状況は、ハードウェア、ソフトウェア、そしてサービスの統合によって支えられた新たなリーダーシップへと転換するでしょう。このアプローチの成否は、今後数年間、ヨーロッパをはじめとする世界各国におけるiPhone、iPad、そしてMacの利用状況を大きく左右するでしょう。