5月、Google幹部は、テキストと画像で学習させた実験的な新しい人工知能を発表した。この人工知能は、インターネット検索をより直感的にするだろうとしている。水曜日、Googleはこの技術が人々のウェブ検索方法をどのように変えるのかを垣間見せた。
来年から、マルチタスク統合モデル(MUM)により、GoogleユーザーはGoogle Lens(Google検索などのサービスにも組み込まれているスマートフォンアプリ)を使って、テキスト検索と画像検索を組み合わせることができるようになります。例えば、Lensでシャツの写真を撮り、「この柄の靴下」と検索できます。自転車の部品の画像で「修理方法」を検索すると、修理方法を説明する動画やブログ記事が表示されます。
Googleは、ユーザーが探索できる新たな方法を提案するために、MUMを検索結果に組み込みます。例えば、Googleに絵の描き方を尋ねると、MUMはステップバイステップの説明、スタイルのチュートリアル、手作りの材料の使い方などを詳しく説明します。また、Googleは今後数週間以内に、YouTube動画検索にもMUMを導入する予定です。AIが動画のトランスクリプトに基づいて動画の下に検索候補を表示します。
MUMは、テキストと画像に関する推論を行うように訓練されています。MUMをGoogle検索結果に統合することは、ウェブから収集した膨大なテキストと、Transformerと呼ばれる一種のニューラルネットワークアーキテクチャに基づく言語モデルの活用に向けた継続的な進歩でもあります。こうした取り組みの最初の一つは2019年に行われ、Googleは検索結果にBERTと呼ばれる言語モデルを注入し、ウェブランキングを変更し、検索結果の下にあるテキストを要約しました。

新しい Google 技術により、写真やスクリーンショットから始まり、テキスト クエリとして続行される Web 検索が強化されます。
写真: GoogleGoogle 副社長のパンドゥ・ナヤック氏は、BERT は過去 10 年で検索結果に最も大きな変化をもたらしたが、MUM は Google 検索結果に適用される言語理解 AI を次のレベルに引き上げるものであると述べた。
例えば、MUMは英語だけでなく75言語のデータを使用し、テキストだけでなく画像とテキストで学習します。深層学習システムにおけるパラメータ数、あるいは人工ニューロン間の接続数で測ると、BERTの1,000倍の規模となります。
Nayak 氏は MUM を言語理解における大きなマイルストーンと呼んでいますが、大規模な言語モデルには既知の課題とリスクが伴うことも認めています。
BERTやその他のTransformerベースのモデルは、学習に使用したデータに見られるバイアスを吸収することが示されています。研究者らは、言語モデルが大きくなるほど、バイアスや有害なテキストの増幅が悪化するケースもあることを発見しました。人種差別的、性差別的、その他問題のある大規模言語モデルの出力を検出して変更しようと取り組んでいる人々は、これらのモデルの学習に使用されるテキストを精査することが危害の軽減に不可欠であり、データのフィルタリング方法が悪影響を及ぼす可能性があると述べています。4月、アレンAI研究所は、GoogleがT5言語モデルの学習に使用した一般的なデータセットで使用されているブロックリストによって、クィアを自認する人々などのグループ全体が排除される可能性があり、言語モデルがそれらのグループによる、またはそれらのグループに関するテキストを理解することが困難になると報告しました。
検索結果の YouTube 動画では、まもなくトランスクリプトの内容に基づいて追加の検索候補が推奨されるようになります。
Google提供過去1年間、Googleの複数のAI研究者(元倫理AIチームの共同リーダーであるティムニット・ゲブル氏とマーガレット・ミッチェル氏を含む)は、大規模言語モデルが人間に危害を及ぼす可能性があることを示す研究に対し、経営陣から反対を受けたと述べています。大規模言語モデルの環境的・社会的コストを批判する論文をめぐる論争の後、ゲブル氏が解雇されたことを受け、Google従業員の間では人種差別への非難、労働組合結成を求める声、そしてAI倫理研究者に対する内部告発者保護の強化の必要性が高まりました。
6月、5人の米国上院議員は、アルファベットにおけるアルゴリズムによるバイアスの複数の事例とゲブル氏の解任を、検索などのGoogle製品やGoogleの職場環境が黒人にとって安全かどうかを疑問視する理由として挙げた。幹部宛ての書簡の中で、議員らは「アルゴリズムが、ネガティブなステレオタイプを強化するデータに依存し、住宅、雇用、信用、教育に関する広告の表示を制限したり、搾取的な広告ばかりを表示したりするのではないかと懸念している」と述べた。
Googleの広報担当者は、MUMはGoogleの検索品質基準に基づいて高品質と判断されたデータで学習されていると述べた。ウェブサイトは、誤解を招く、あるいは誇張されたコンテンツや、目障りな広告などにより、低品質の評価を受ける可能性がある。また、憎悪や暴力を助長するウェブサイトも低い評価を受ける可能性がある。しかし、GoogleはMUMの学習に使用されたデータに関する追加情報や、この言語モデルが偏見を増幅させたり特定のグループを排除したりしないという証拠を提供していない。
Google は、検索機能の変更が広く利用可能になる前に、保護対象の人々に関する検索でテストし、社内の検索品質評価者と A/B テストを実施していると述べている。
今年初め、Googleの従業員が、推論、論理、バイアスのモデルを評価するための一連のテストを作成した研究者グループに参加していました。しかし、Googleの広報担当者は、MUMがこれらのテストによって評価されたかどうかについての質問には回答しませんでした。
WIREDのその他の素晴らしい記事
- 📩 テクノロジー、科学などの最新情報: ニュースレターを購読しましょう!
- Wikipediaでナチスの歴史を書き換えるミッション
- レッド・デッド・リデンプションのワイルドウェストは避難所だ
- ハッキングを防ぐためにすべき6つのこと
- お気に入りのウェブアプリをデスクトップアプリに変える方法
- ケニアでは、偽情報を広めるためにインフルエンサーが雇われている
- 👁️ 新しいデータベースで、これまでにないAIを探索しましょう
- 🎮 WIRED Games: 最新のヒントやレビューなどを入手
- ✨ ロボット掃除機からお手頃価格のマットレス、スマートスピーカーまで、Gearチームのおすすめ商品であなたの家庭生活を最適化しましょう