Apple IntelligenceのプライバシーはAndroidの「ハイブリッドAI」と比べてどうなのか

Apple IntelligenceのプライバシーはAndroidの「ハイブリッドAI」と比べてどうなのか

生成AIはスマートフォンの中核に浸透しつつあります。しかし、それはプライバシーにとって何を意味するのでしょうか?Apple独自のAIアーキテクチャと、SamsungやGoogleが採用している「ハイブリッド」アプローチを比較してみましょう。

スマートフォンにApple Intelligenceのロゴが表示されている

写真:ニコラス・ココヴリス/ゲッティイメージズ

6月10日に開催された世界開発者会議で、Appleは「Apple Intelligence」によるAIへの遅ればせながら大きな動きを発表し、OpenAIと提携してChatGPTをiPhoneに導入するという数ヶ月にわたる噂を裏付けた。

OpenAIの共同設立者の一人であるイーロン・マスク氏はXに対してすぐに反応し、ChatGPTを搭載したAppleのAIツールを「不気味なスパイウェア」であり「容認できないセキュリティ違反」だと非難した。

「もしAppleがOSレベルでOpenAIを統合すれば、私の会社ではAppleデバイスは禁止されるだろう」とマスク氏は書いている。

しかし、AIのプライバシーが注目されている今、iPhoneメーカーは、Apple Intelligenceが人々のデータを保護する新しい方法を提供すると述べ、同社がデバイス上でどのコアタスクを処理できるかを検討しているという。

より複雑なリクエストに対応するため、Appleは自社のシリコンサーバー上で稼働するプライベートクラウドコンピューティング(PCC)と呼ばれるクラウドベースのシステムを開発しており、これは初期のAI時代にプライバシーを保護する革新的な新しい方法だと同社は述べている。

Appleのソフトウェアエンジニアリング担当シニアバイスプレジデント、クレイグ・フェデリギ氏は、同社の戦略を「AIにおけるプライバシーの全く新しい基準」と呼んでいます。Appleの主張は妥当なのでしょうか?また、iPhoneメーカーの戦略は、SamsungのGalaxyシリーズなどのデバイスで利用可能な「ハイブリッドAI」機能と比べてどうなのでしょうか?

AIとE2Eの出会い

PCCによって、Appleは「新しいエンドツーエンドのAIアーキテクチャ」と「ユーザーのiPhoneのプライベートクラウドエンクレーブ拡張」を設計し、データの制御を強化したと、リアルタイム監視ビデオの保存と分析を専門とするDigital BarriersのCEO、ザック・ドフマン氏は語る。

実際には、これはAppleがAIプロンプトの出所を隠し、iPhoneメーカー自身を含む誰もユーザーのデータにアクセスできないようにできることを意味します。「理論上、これはクラウドAIにとってエンドツーエンドの暗号化に最も近いものです」とドフマン氏は言います。

Appleは自社のAI向けに「非常に印象的なプライバシーシステム」を構築したと、Inruptのセキュリティアーキテクチャ責任者であるブルース・シュナイアー氏は述べている。「彼らの目標は、AIの利用が自社のクラウド内であっても、スマートフォンのセキュリティと同等の安全性を確保することです。多くの要素が絡んでいますが、かなりうまくいっていると思います。」

そして今のところ、これに匹敵するものは他にありません。Google AndroidとGoogle Nanoシリーズを搭載したSamsung Galaxyデバイスで使用されている「ハイブリッドAI」では、一部のAIプロセスがローカルで処理され、必要に応じてクラウドを活用することで、より高度な機能を実現します。

ITガバナンス企業GRCインターナショナル・グループのAIグループヘッド、カムデン・ウールヴェン氏は、強力なAI機能を提供しつつ、可能な限りのプライバシーを確​​保することが狙いだと述べている。「つまり、ミッドレンジのスマートフォンでも、かなり高度なAIが利用できるようになる可能性があるということです。」

しかし、この種のハイブリッドAI処理は、AppleがPCCで提供しているようなレベルの説明責任を負わずに一部のデータがクラウドサーバーに送信されるため、依然としてリスクをもたらす可能性がある。「ハイブリッドAIでは、一部のデータはデバイスから出て別の場所で処理されるため、傍受や悪用される可能性が高くなります」と、テクノロジーに特化したコースを提供するOpen Institute of Technologyの創設者兼ディレクター、リカルド・オクレッポ氏は述べている。

しかし、Googleとそのハードウェアパートナーは、プライバシーとセキュリティがAndroid AIアプローチの主要な焦点であると主張している。サムスン電子のモバイルエクスペリエンス事業部セキュリティチーム責任者であるジャスティン・チョイ副社長は、同社のハイブリッドAIはユーザーに「データのコントロールと妥協のないプライバシー」を提供すると述べている。

チェイ氏は、クラウドで処理される機能が、厳格なポリシーに則ったサーバーによってどのように保護されているかについて説明します。「当社のデバイス内AI機能は、クラウドサーバーに依存せず、デバイス上でローカルにタスクを実行することで、セキュリティをさらに強化します。デバイスにデータを保存したり、クラウドにアップロードしたりすることもありません」とチェイ氏は言います。

Googleは、自社のデータセンターは物理的なセキュリティ、アクセス制御、データ暗号化など、堅牢なセキュリティ対策を講じて設計されていると述べています。クラウドでAIリクエストを処理する際、データは安全なGoogleデータセンターアーキテクチャ内に留まり、ユーザーの情報は第三者に送信されないとしています。

一方、GalaxyのAIエンジンは、デバイス上の機能から得られるユーザーデータで学習されていないとチェイ氏は述べている。サムスンは、Galaxy AIシンボルでデバイス上で実行されるAI機能を「明確に表示」しており、コンテンツで生成AIが使用されていることを示す透かしを追加している。

同社はまた、ユーザーがクラウドベースの AI 機能を無効にする選択肢を提供できるように、「Advanced Intelligence 設定」と呼ばれる新しいセキュリティおよびプライバシー オプションも導入しました。

Googleは「ユーザーデータのプライバシー保護には長年の実績がある」と述べ、これはデバイス内およびクラウドで稼働するAI機能にも当てはまると付け加えた。「通話のスクリーニングといった機密性の高いケースでは、データが端末外に漏れないオンデバイスモデルを採用しています」と、Googleの製品信頼担当バイスプレジデント、スザンヌ・フレイ氏はWIREDに語った。

フレイ氏は、Google 製品がクラウドベースのモデルに依存していることを説明し、これにより「要約したい機密情報などの消費者情報が、処理のために第三者に送信されることはない」と述べている。

「私たちは、デフォルトで安全で、設計上プライベートであり、そして最も重要なことに、業界で最初に推進された Google の責任ある AI 原則に従っているため、人々が信頼できる AI 搭載機能の構築に注力し続けてきました」とフレイ氏は言う。

Appleが会話を変える

専門家によると、AppleのAI戦略はデータ処理における「ハイブリッド」アプローチを単純に組み合わせるのではなく、議論の本質を変えたという。「誰もがデバイス上でのプライバシー重視の推進を予想していましたが、Appleが実際に行ったのは、『AIで何をするか、どこでするかは重要ではなく、どのように行うかが重要だ』という主張でした」とドフマン氏は語る。彼は、これが「スマートフォンAI分野全体のベストプラクティスを定義する可能性が高い」と考えている。

それでも、Apple はまだ AI のプライバシーをめぐる戦いに勝ったわけではない。Apple が異例にも iOS エコシステムを外部ベンダーに開放することになる OpenAI との契約は、同社のプライバシーに関する主張に打撃を与える可能性がある。

Appleは、OpenAIとの提携がiPhoneのセキュリティを脅かすというマスク氏の主張を否定し、「ChatGPTにアクセスするユーザー向けにプライバシー保護が組み込まれている」と述べている。同社によると、ChatGPTにクエリを共有する前に許可を求め、IPアドレスは隠蔽され、OpenAIはリクエストを保存しないものの、ChatGPTのデータ利用ポリシーは引き続き適用されるという。

他社との提携はAppleにとって「奇妙な動き」だが、この決定は「軽々しく下されたものではない」と、セキュリティ企業ESETのグローバルサイバーセキュリティアドバイザー、ジェイク・ムーア氏は述べている。プライバシーへの影響は具体的にはまだ明らかではないものの、同氏は「双方で一部の個人データが収集され、OpenAIによって分析される可能性がある」と認めている。

つまり、一部のデータについては「OpenAIのルールに縛られる」ということです、とシュナイアー氏は言います。「AppleはOpenAIにクエリを送る際に個人識別情報を削除しますが、多くのクエリには個人識別情報が大量に含まれています。」

AppleとOpenAIの連携は、「AI分野全体の説明責任を根本的に変える可能性を秘めている」と、人工知能(AI)教授でテクノロジーコンサルティング会社Wisdom Works Groupの創設者でもあるアンディ・パードー氏は述べている。「このようなパートナーシップは、複数の異なる組織に責任を分散させ、相互接続されたシステムにおける成功と潜在的な失敗に対する責任の割り当て方に影響を与えるのです。」

AI技術がテクノロジー大手のOSに統合されるにつれ、セキュリティリスクも考慮する必要がある。Apple Intelligenceは少なくとも理論上は素晴らしい成果だが、同社のAIツールは「これまで日の目を見たことのない巨大な攻撃対象領域」も生み出すとドフマン氏は指摘する。「様々なセキュリティイノベーションを新たな目的のために組み合わせた新しいソリューションなので、もしうまくいけばゲームチェンジャーとなるでしょう。しかし、実際に稼働すれば、Appleが対処しなければならない問題がいくつか出てくるでしょう。」

そのため、AppleとGoogleはセキュリティ研究者に対し、自社のAIソリューションの脆弱性を発見するよう奨励しています。GoogleのセキュアAIフレームワークでは、セキュリティ企業MandiantがAIモデルの防御力をテストしています。

Appleの広報担当者は、PCCのセキュリティに関する文書と、AI開発に対する同社の「責任ある」アプローチを詳述したモデル文書へのリンクを提供した。Appleは、OpenAIとの提携に関連するプライバシーの懸念や潜在的なセキュリティリスクについて、WIREDの質問に対し、公式回答をしなかった。

AppleはPCCに「検証可能な透明性」と呼ぶモデルを採用しています。「セキュリティとプライバシーの研究者が、Appleデバイスと同様に、プライベートクラウドコンピューティングのソフトウェアを検査し、その機能を検証し、問題の特定に役立てられるようにしたいと考えています」と、AppleはPCCを紹介するブログ記事で述べています。これを実現するため、AppleはPCCのすべての製品ビルドのソフトウェアイメージをセキュリティ研究者向けに公開しています。

Apple Intelligenceは、ChatGPTとともに、まもなくリリースされるiOS 18ソフトウェアアップデートに統合され、今秋発売予定のiPhone 16に全機能が搭載予定です。この機能はオフにすることもできますが、デバイスを問わずAI機能を使用する場合は、プライバシーとセキュリティへの影響を考慮することをお勧めします。

iOSとAndroidのAIのどちらを選ぶかは、どちらを信頼するかにかかっています。Pardoe氏は、プライバシー機能、データ処理方法、透明性といった観点​​から、両OSの全体的なトレードオフを評価することを推奨しています。とはいえ、Pardoe氏が指摘するように、「Appleのプライバシー重視の姿勢は、何よりもデータセキュリティを優先するユーザーにとって依然として重要なポイントです」。

  • 受信箱に届く:ウィル・ナイトのAIラボがAIの進歩を探る

続きを読む