2021年5月、悪意のある発言や短気な発言で悪名高いプラットフォームTwitterは、ツイートを送信する前にユーザーに再考を促す「プロンプト」機能を導入しました。翌月には、Facebookがグループ向けのAI「衝突アラート」を発表しました。これにより、管理者は「論争的または不健全な会話」が発生している可能性がある場合に対処できるようになります。メールやメッセージのスマート返信は、私たちが毎日何十億もの文章を完成させています。2020年に発売されたAmazonのHaloは、声のトーンをモニターするフィットネスバンドです。ウェルネスはもはや心拍数の追跡や歩数のカウントだけでなく、周囲の人々に対する私たちの印象にもなります。ネガティブな行動を予測し、予防するためのアルゴリズムによる治療ツールが開発されています。
スタンフォード大学のコミュニケーション学教授、ジェフ・ハンコック氏は、AIを介したコミュニケーションを「コミュニケーションの目的を達成するために、インテリジェントエージェントがコミュニケーション担当者に代わってメッセージの変更、拡張、または生成を行うこと」と定義しています。ハンコック氏によると、この技術はすでに大規模に導入されています。
その根底には、人間関係は完璧とは程遠いという、急速に広まっている信念がある。パンデミックの始まり以来、私たちの人間関係はコンピューターを介したチャネルに依存することが多くなった。オンラインでの口論、有害なSlackメッセージ、そして終わりのないZoomの渦巻く海の中で、アルゴリズムは私たちがお互いに優しくなれるよう助けてくれるのだろうか?アプリは私たちの感情を私たち自身よりも正確に読み取ることができるのだろうか?それとも、コミュニケーションをAIにアウトソーシングすることで、人間関係を人間らしくする要素が削ぎ落とされてしまうのだろうか?
コーディング共同子育て
ジェイ・キスーンは、いわば家庭裁判所制度の中で育ったと言えるだろう。少なくとも、その周囲で育ったと言えるだろう。母のキャスリーン・キスーンは家族法専門の弁護士で、10代の頃はミネソタ州ミネアポリスにある彼女の事務所に通い、書類の整理を手伝っていた。当時はまだ「高級コピー機」など存在しなかった時代で、キスーンは法律事務所の廊下を舞い上がる山積みの書類を整理しながら、家族が崩壊していく様々な方法についての話を耳にしていた。
その意味では、離婚や共同養育をしているカップルのためのスケジュール管理とコミュニケーションツール「OurFamilyWizard」の共同創業者であるキッスーン氏にとって、状況は大きく変わっていない。このツールは2001年に立ち上げられた。キャスリーン氏が構想し、ジェイ氏が事業計画を練り、当初はウェブサイトとしてOurFamilyWizardを立ち上げた。すぐに司法関係者の注目を集め、その中には2003年にミネアポリス州ヘネピン郡の家庭裁判所でこのプラットフォームの試験運用を行ったジェームズ・スウェンソン判事も含まれていた。このプロジェクトでは、キッスーン氏が言うところの「最も熱心な家族」40組がプラットフォームに登録され、「彼らは裁判システムから姿を消した」。最終的に誰かが裁判に持ち込まれたのは、2年後のことだったが、それは親がアプリの使用をやめた後だった。
20年を経て、OurFamilyWizardは約100万人に利用され、全米で裁判所の承認を得ました。2015年には英国で、その1年後にはオーストラリアでもサービスが開始されました。現在では75カ国で展開されており、類似製品としてはcoParenter、Cozi、Amicable、TalkingParentsなどがあります。アメリカ法曹協会家族法部門のブライアン・カープフ事務局長は、多くの弁護士が、特に夫婦間のコミュニケーションを「抑制」したい場合に、共同養育アプリを標準的な方法として推奨していると述べています。これらのアプリはハラスメントの抑止力となり、コミュニケーションにおける使用は裁判所の命令によって認められる場合もあります。
礼儀正しさを促進するため、AIはますます重要な機能となっている。OurFamilyWizardには「ToneMeter」機能があり、感情分析を使用してアプリで送信されたメッセージを監視します。Kissoon氏は「これは譲歩の合図になるものです」と述べています。感情分析は自然言語処理、つまり人間の音声分析のサブセットです。膨大な言語データベースでトレーニングされたこれらのアルゴリズムは、テキストを分解し、そこに含まれる単語やフレーズに基づいて感情と感情についてスコア付けします。ToneMeterの場合、メッセージで感情的なフレーズが検出されると、信号強度バーのセットが赤くなり、問題のある単語にフラグが付けられます。たとえば、「私たちが遅れたのはあなたのせいです」は「攻撃的」としてフラグが付けられる可能性があります。他のフレーズは、「屈辱的」または「動揺させる」としてフラグが付けられる可能性があります。それでも送信ボタンを押すかどうかはユーザー次第です。
ToneMeterは元々メッセージサービスで使用されていましたが、現在ではアプリ内での保護者同士のあらゆるやり取りに活用できるようコーディングされています。最高製品責任者のシェーン・ヘルゲット氏は、この技術は近い将来、否定的なコミュニケーションを抑制するだけでなく、肯定的な言葉遣いも促進するようになると述べています。彼は、このアプリが通常の会話を超えて、保護者同士が互いに肯定的な行動をとるよう積極的に促すツールになる可能性を秘めていることを念頭に、様々なやり取りから知見を集めています。例えば、事前にスケジュールを伝えるためのリマインダー機能や、誕生日や祝日の日程交換を提案する機能など、必ずしも必須ではないものの、歓迎されるような工夫が考えられます。
2019年にローンチされたCoParenterも感情分析を活用しています。親はテキストメッセージで交渉を行い、メッセージがあまりにも敵対的であれば警告が表示されます。これは、人間の調停者が依頼人を黙らせるのと似ています。システムが合意に至らない場合は、人間をチャットに参加させるオプションがあります。
感情的に緊張する交渉をアプリに委ねることには、問題がないわけではない。キッスーン氏は、トーンメーターが親の行動を肯定的か否定的かで採点しないように意識していた。そしてカープフ氏によると、ユーザーの行動に明確な効果があったという。「コミュニケーションがより機械的になるんです」と彼は言う。「読者に向けて書くようになったわけですからね」
共同養育アプリは、問題のある関係をうまく導くことはできるかもしれないが、解決にはならない。むしろ悪化させてしまうこともある。カープフ氏によると、一部の親はアプリを武器に「おとり」メッセージを送り、配偶者を怒らせて問題のあるメッセージを送らせようとするという。「意地悪な親はいつまでも意地悪な親だ」。キソン氏は、パイロットプログラムを開始した際に裁判官と交わした会話を振り返る。「道具について覚えておくべきことは、ドライバーを渡せば、それで色々なものを修理できるということです」と裁判官は言った。「あるいは、自分の目を突くこともできるのです」

写真:ブルシンスキー/ゲッティイメージズ
コンピューターがハグと言う
2017年、アデラ・ティモンズは心理学の博士課程に在籍し、カリフォルニア大学サンフランシスコ校とサンフランシスコ総合病院で臨床実習を行いました。そこで彼女は、低所得家庭でトラウマを経験した幼い子供を持つ家族と接していました。そこで彼女は、あるパターンに気づきました。患者はセラピーで進歩を遂げても、次のセッションまでの日々の混沌の中でその進歩が忘れ去られてしまうのです。彼女はテクノロジーが「セラピストの部屋と現実世界の間のギャップを埋める」ことができると信じ、問題が顕在化したまさにその瞬間に介入できるウェアラブル技術の可能性を見出しました。
現場では、これは「ジャストインタイム適応介入」と呼ばれます。理論的には、感情的な警鐘が鳴った時に耳元でささやいてくれるセラピストがいるようなものです。「しかし、これを効果的に行うには」と、現在フロリダ国際大学で生態システムのための技術的介入(TIES)ラボの所長を務めるティモンズ氏は言います。「関心のある行動を感知するか、遠隔で検知する必要があります。」
ティモンズ氏の研究は、人間の行動の計算モデル構築に携わり、カップルや家族の行動を効果的に予測できるアルゴリズムの開発に重点を置いています。当初、彼女はカップルに焦点を当てていました。ある研究では、研究者たちは34組の若いカップルに手首と胸にモニターを装着し、体温、心拍数、発汗量を追跡しました。また、会話を盗聴できるスマートフォンも渡しました。このデータと、カップルが感情状態や口論を記述した1時間ごとのアンケート調査を相互参照することで、ティモンズ氏と彼女のチームは、カップルが喧嘩をする可能性が高い時期を判断するモデルを開発しました。きっかけとなる要因としては、高い心拍数、「あなた」などの言葉の頻繁な使用、そして時間帯や部屋の明るさといった状況要因が挙げられました。 「衝突が避けられないことを強く示すような単一の変数は存在しません」とティモンズ氏は説明する(ロサンゼルスの交通状況は大きな要因の一つではあったが)。「しかし、モデルで使用されるさまざまな情報を組み合わせることで、現実世界で実際に機能するアルゴリズムの精度レベルに近づくことができます。」
ティモンズはこれらのモデルを拡張し、家族のダイナミクス、特に親子の絆を深めることに焦点を当てています。TIESは、スマートフォン、Fitbit、Apple Watch(既存の消費者向けテクノロジーと連携可能とすることを想定)を用いて、ポジティブな相互作用を受動的に検知することを目的としたモバイルアプリを開発しています。まず、主に心拍数、声のトーン、言語といったデータを収集します。ハードウェアは、身体活動や親子が一緒にいるか離れているかも検知します。
カップルを対象とした研究では、このアルゴリズムは86%の精度で葛藤を検知し、自己申告による感情状態との相関関係を導き出すことができました。家族関係においては、こうした状態を検知することで、アプリが積極的に介入できるようになることが期待されています。「『お子さんを抱きしめてあげて』とか、『今日、お子さんがうまくできたことを褒めてあげて』といった促しになるかもしれません」とティモンズ氏は言います。「ネガティブな状態を検知し、親が感情をコントロールできるように介入するアルゴリズムも開発中です。親の感情がコントロールされていると、物事がうまくいく傾向があることは分かっています。」
文脈情報は予測率の向上に役立ちます。例えば、前の晩はよく眠れましたか?その日は運動しましたか?プロンプトとしては、瞑想、呼吸法、認知行動療法などの提案が考えられます。マインドフルネスアプリはすでに存在しますが、これらはユーザーが怒ったり、動揺したり、感情的に圧倒されたりしそうな瞬間にアプリを使うことを思い出せることを前提としています。「実は、認知リソースを最も活用できない瞬間にアプリを使うのです」とティモンズ氏は言います。「そのスキルを使う必要がある瞬間に知らせることで、相手との折り合いをつけることができればと思っています」。家族と仕事をしてきたティモンズ氏の経験から言うと、週1回50分のセッションという伝統的なセラピーの構造は、必ずしも効果を発揮する最も効果的な方法とは言えません。「この分野では、心理的介入の科学を拡張できるかどうかに、より明確な関心が寄せられ始めていると思います」
この研究は、商業的に実現可能な技術システムを構築するための基金の一環として、米国国立衛生研究所(NIH)と国立科学財団(NSF)からの助成金によって支援されており、ティモンズ氏はこの研究が、アクセスしやすく、拡張可能で、持続可能な心理ケアの実現につながることを期待しています。彼女の研究室が、この技術が家族にとって効果的かつ安全であり、予期せぬ害を及ぼさないことを証明するデータを入手したら、この技術をどのように展開するかについて決定を下す必要があります。
データ駆動型ヘルスケアが拡大するにつれ、プライバシーへの懸念が高まっています。Appleは、この分野に進出した最新の大手テクノロジー企業です。同社は2020年にUCLAの研究者と共同で開始した3年間の研究の途中段階にあり、iPhoneとApple Watchがうつ病や気分障害を検知し、最終的には予測して介入できるかどうかを検証しています。データはiPhoneのカメラと音声センサーから収集されるほか、ユーザーの動きや入力方法までもが収集されます。Appleは、アルゴリズムをiPhone本体に組み込み、サーバーには一切送信しないことで、ユーザーデータを保護する予定です。
TIESラボでは、危害や乱用に関連する場合を除き、いかなるデータも販売または共有されないとティモンズ氏は述べている。彼女は、これらの技術を開発する科学者が誤用の可能性について考えることが重要だと考えている。「この分野における許容可能な限界と境界を確立することは、科学界、立法者、そして一般市民の共同責任です。」
次のステップは、これらのモデルが効果的かどうか、そして携帯電話からの指示が実際に意味のある行動変化につながるかどうかをリアルタイムでテストすることです。「これが非常に強力な介入メカニズムになると考える十分な理由と理論は数多くあります」とティモンズ氏は言います。「ただ、現実世界でどれほどうまく機能するかはまだ分かっていません。」
人間関係のX線写真
センサーとアルゴリズムが人間の相互作用の複雑さを理解できるという考えは、新しいものではありません。人間関係心理学者のジョン・ゴットマンにとって、愛は常に数字のゲームでした。彼は1970年代から、人間関係の錬金術を定量化し、分析しようと試みてきました。
ゴットマンはカップルに関する研究を数多く行っており、最も有名なのは1980年代にワシントン大学に設立した研究センター「ラブ・ラボ」だ。ラブ・ラボの類似体は、1996年に同じく心理学者の妻ジュリー・ゴットマンと設立したシアトルのゴットマン研究所で今も稼働している。ロマンティック・コメディーで例えると、ラブ・ラボは映画「恋人たちの予感」の冒頭シーンと映画「ミート・ザ・ペアレンツ」でロバート・デ・ニーロが将来の義理の息子に嘘発見器をかけるシーンを組み合わせたようなものだ。被験者は2人ずつワイヤーでつながれ、最初は交際歴、次に葛藤について話し合うように指示される。その間、さまざまな機械が被験者の脈拍、発汗、声のトーン、椅子の上でそわそわする度合いを追跡した。モニターが設置された奥の部屋では、訓練を受けたオペレーターがすべての表情をコード化した。ラブ・ラボは、カップルがどのように交流し、感情を伝えるかについてのデータ収集を目的としていた。
この研究は、人間関係カウンセリングの手法である「ゴットマン・メソッド」につながりました。肯定的なやり取りと否定的なやり取りの比率を5:1に保つことが重要であること、パートナーの関心を求める行動に33%反応しないことは「破滅」を意味すること、そして呆れた態度は結婚生活の破綻と強い相関関係にあることが示されています。「人間関係はそれほど複雑ではありません」と、ワシントン州オーカス島の自宅でジョン・ゴットマンは語ります。
ゴットマン夫妻もAIの領域に足を踏み入れている。2018年、彼らはスタートアップ企業「アフェクティブ・ソフトウェア」を設立し、人間関係の評価と指導のためのオンラインプラットフォームを構築した。そのきっかけは、ジュリー・ゴットマンがマイクロソフトのベテラン社員であるラファエル・リシツァ氏と、娘たちを学校の門まで迎えに行った際に出会った、何年も前の現実世界での交流だった。アフェクティブ・ソフトウェアの共同創業者兼CEOであるリシツァ氏は、ラブ・ラボのバーチャル版を開発している。これは、カップルがコンピューター、iPhone、タブレットのカメラを通して、ラブ・ラボと同様の「レントゲン写真」のような関係診断を受けられるというもの。ここでも、表情や声のトーン、そして心拍数がモニタリングされる。これは、感情検出、つまり「アフェクティブ・コンピューティング」がいかに進歩したかを示す指標となる。オリジナルのラブ・ラボはスクリーンやデバイスでバックアップされていたものの、最終的にはモニターを見てそれぞれの合図を正しくコード化するために、特別な訓練を受けた担当者が必要だった。ゴットマン氏は、人間的な要素を排除できるとは思っていなかった。 「感情を本当に繊細にコード化できる人はほとんどいませんでした」と彼は言う。「音楽的な才能がなくてはならず、演劇の経験も多少必要でした。まさか機械がそんなことをできるなんて夢にも思いませんでした」
機械がこれを実行できると誰もが確信しているわけではない。感情検出AIは不安定な領域だ。これは主に、人間は普遍的な感情表現を持っているという考えに基づいている。この理論は1960年代から70年代にかけてポール・エクマンの観察に基づいて発展した。エクマンは、ゴットマン夫妻の研究の基盤となり、多くの感情コンピューティング・ソフトウェアの基礎となっている表情コーディング・システムを開発した。ノースイースタン大学の心理学者リサ・フェルドマン・バレットをはじめとする一部の研究者は、表情から感情を確実に検出できるかどうか疑問視している。また、すでに広く使用されている顔認識ソフトウェアの中には、人種的偏見の証拠を示しているものもある。2つの主流プログラムを比較したある研究では、黒人の顔には白人の顔よりも多くの否定的な感情が割り当てられていることが判明した。ゴットマン氏によると、このバーチャル・ラブ・ラボはあらゆる肌タイプを含む顔データセットでトレーニングされており、彼のインタラクション・コーディング・システムは、アフリカ系アメリカ人やアジア系アメリカ人を含む米国のさまざまなグループでテストされている。「文化が、人々が感情を表現したり隠したりする方法を実際に調整していることはわかっています」と彼は言う。 「オーストラリア、イギリス、韓国、トルコで調査しました。そして、私が開発した特定の感情システムは本当に機能しているようです。では、すべての文化で機能するのでしょうか?それはまだ分かりません。」
ゴットマン氏は、ラブ・ラボは実際にはソーシャル・コーディング・システムによって機能していると付け加えた。会話の主題、声のトーン、ボディランゲージ、表情などを分析することで、その瞬間の特定の感情を検出することよりも、やり取りの全体的な性質を分析する。これらを組み合わせることで、怒り、悲しみ、嫌悪、軽蔑といったカテゴリーをより確実に分類できるとゴットマン氏は語る。カップルが参加する場合、詳細なアンケートに答え、10分間の会話を2回録画するよう求められる。1つは過去1週間についての話し合い、もう1つは対立についての会話だ。動画をアップロードした後、カップルは会話のさまざまな段階での感情状態を1(非常にネガティブ)から10(非常にポジティブ)の間で評価する。アプリは、検出された手がかりと併せてこれを分析し、肯定的・否定的比率、信頼度指標、そして恐ろしい「黙示録の四騎士」、すなわち批判、防御、軽蔑、妨害行為の発生率などの結果を提供します。このアプリはセラピストと連携して使用することを目的としています。
セラピーやメンタルヘルスサービスは、ビデオ通話を通じて提供されることが増えており、パンデミック以降、この変化は加速しています。マッキンゼーのアナリストによると、バーチャルケアとデジタルヘルスへのベンチャーキャピタル投資は新型コロナウイルス感染症以降3倍に増加し、WoebotなどのAIセラピーチャットボットが主流になりつつあります。Lastingなどの恋愛カウンセリングアプリはすでにゴットマンメソッドに基づいており、例えばパートナーに愛を伝えるようユーザーに通知を送っています。これは私たちを怠惰にさせるのではないかと想像されるかもしれませんが、ゴットマン夫妻はこれを教育プロセス、つまり最終的には第二の性質となるツールを身につけるためのプロセスだと考えています。研究チームはすでに、セラピストに頼らずに使用できる簡易版の開発を考えています。
多くのカップルがスマートフォンに頼りきりになっているという事実に刺激を受けたゴットマン夫妻にとって、テクノロジーはカウンセリングを民主化する道を開くものだ。「人々はテクノロジーを言語として、そしてあらゆる方法で生活を向上させるツールとして、以前よりずっと受け入れやすくなっています」とゴットマン氏は言う。

写真:リッチレッグ/ゲッティイメージズ
あなたのためのメール、あなたからではない
このテクノロジーはすでにあらゆるところに浸透しています。気づかないうちに、人間関係にも影響を与えている可能性があります。Gmailのスマートリプライ(メールへの返信方法を提案してくれる機能)やスマートコンポーズ(文章の締めくくりを提案してくれる機能)を例に挙げてみましょう。スマートリプライは2015年にモバイル機能として追加され、スマートコンポーズは2018年にリリースされました。どちらもニューラルネットワークを基盤としています。
コーネル大学の博士研究員、ジェス・ホーエンシュタイン氏がスマートリプライに初めて出会ったのは、現在は廃止されたメッセージアプリ「Google Allo」が2016年にリリースされた時だった。Alloには、返信の候補を生成するバーチャルアシスタントが搭載されていた。彼女はそれを不気味に感じた。「自分の話し方にアルゴリズムが影響するのは嫌だったのですが、これが影響しているに違いないと思いました」
2019年、彼女はAIが私たちの交流や関係性を確かに変えていることを明らかにする研究を行いました。Google Alloを用いたある研究では、113人の大学生がパートナーとタスクを完了するよう指示されました。タスクは、どちらか一方、両方、あるいはどちらもスマートリプライを使えない状態で行われました。その後、参加者はタスクの成功または失敗が会話の相手(またはAI)のせいであると考える割合を尋ねられました。2つ目の研究では、言語的効果、つまり肯定的または否定的な「スマート」リプライに対する人々の反応に焦点を当てました。
ホーエンシュタイン氏は、スマートリプライを使う人々が使う言葉遣いは肯定的なものに偏っていることを発見しました。人々は否定的な提案よりも肯定的な提案を受け入れる傾向が強かったのです。また、参加者は反対意見を言いたいのに、同意しか示されない状況に陥ることも多かったのです。この効果は会話をより迅速かつスムーズに進め、会話に参加している人々がお互いに対してより良い感情を抱くようになることにも気づきました。
ホーエンシュタイン氏は、これが職場の人間関係において逆効果になる可能性があると考えています。このテクノロジー(そして私たち自身の暗示性も相まって)は、私たちが誰かに異議を唱えたり、そもそも意見を異にしたりすることを思いとどまらせる可能性があります。AIはコミュニケーションをより効率的にする一方で、私たちの本心を掘り起こし、「いいね!」「いいね!」といったやり取りを減らす可能性もあります。職場でこれまで意見を言うのが難しかった人にとっては、これは発言意欲をさらに削ぐことになるかもしれません。
タスク完了に関する研究において、ホーエンシュタインは、良い結果に対しては人間が自分の手柄にしてしまうことを発見しました。何か問題が起きると、AIが責められました。こうすることで、アルゴリズムは人間関係を守り、人間自身の失敗に対する緩衝材を提供したのです。これは、透明性に関するより深い問題を提起します。AIが返答の作成に協力したことを明らかにすべきでしょうか? パートナーがスマートリプライを使用していると、最初は相手に対してより肯定的な感情を抱くようになりました。しかし、AIが関与していると告げられると、不快感を覚えました。
これは、こうしたテクノロジーの使用に共通するパラドックス、つまり認識と現実が一致していないという点を根底に抱えている。「人々はそれに不快感を覚えるが、コミュニケーションをとっている相手との対人関係における認識は改善される」とホーエンシュタイン氏は言う。「直感に反する行為だ」
ハンコック氏は論文の中で、これらのツールが「広範囲にわたる社会的影響を及ぼす可能性がある」ことを強調し、私たちの目の前で起こっている技術革命に対処するための研究課題を概説しています。AIを介したコミュニケーションは、私たちの話し方を変え、偏見を和らげることも、悪化させることも考えられます。私たちは、自分が本当は誰に話しかけているのか分からなくなるかもしれません。自己認識さえも変えてしまうかもしれません。「AIが送信者のメッセージをよりポジティブ、より面白く、より外向的なものに修正した場合、送信者の自己認識もよりポジティブ、より面白く、より外向的なものへと変化するでしょうか?」と彼は書いています。AIが私たちの人間関係の多くを支配しすぎてしまったら、私たちに残されるものは何でしょうか?