WIREDに掲載されているすべての製品は、編集者が独自に選定したものです。ただし、小売店やリンクを経由した製品購入から報酬を受け取る場合があります。詳細はこちらをご覧ください。
WIREDから今週のニュースレターの取材依頼を受けた時、まず頭に浮かんだのは、OpenAIの話題のチャットボットChatGPTにどんな答えが返ってくるか試してみたかったということ。今週ずっと、メール、レシピ、LinkedInの投稿でまさにそうしていたんです。生産性は大幅に低下しているのに、イーロン・マスクに関する生意気なリメリックは1000%も増えています。
ボットにスティーブン・レヴィ風のコラムを書いてもらうよう依頼したのですが、結果は芳しくありませんでした。ChatGPTはAIの可能性と落とし穴について一般的な解説を提供しましたが、スティーブンの意見を的確に捉えたり、目新しいことを言ったりはしませんでした。先週書いたように、流暢ではありましたが、完全に説得力があるとは言えませんでした。しかし、考えさせられました。私だったら、あれでうまくやり過ごせただろうか?仕事のメールや大学のエッセイなど、AIを本来使うべきではない用途に使っている人を、どんなシステムが検知できるだろうか?
その答えを見つけるため、私はオックスフォード・インターネット研究所の技術・規制学教授、サンドラ・ワクター氏に話を聞いた。ワクター氏はアルゴリズムに透明性と説明責任を組み込む方法について雄弁に語っている。ChatGPTのようなシステムでは、それがどのように実現されるのか、ワクター氏に尋ねてみた。
アミット・カトワラ:ChatGPTは古典詩から当たり障りのないマーケティングコピーまで、あらゆるものを作成できますが、今週の大きな話題の一つは、学生のカンニングに役立つ可能性があるかどうかでした。あなたの学生がChatGPTを使って論文を書いたかどうか、見分けられると思いますか?
サンドラ・ワクター:これはいたちごっこになりそうです。法律を教えている私を騙すほどの技術はまだないかもしれませんが、その分野に携わっていない人を納得させるには十分かもしれません。技術は時間とともに進歩し、私をも騙せるようになるのでしょうか。ディープフェイクや加工写真を見分けるツールがあるように、私たちが見ているものが人間によって作られたものであることを確認するための技術的なツールが必要になるかもしれません。
ディープフェイク画像よりもテキストの場合は、アーティファクトや明らかな証拠が少ないため、本質的に難しいようです。信頼できるソリューションは、そもそもテキストを生成している企業が構築する必要があるかもしれません。
ツールを開発する側の同意は必要です。しかし、学生向けのサービスを提供しているのであれば、そのような規制に従うような企業ではないかもしれません。また、透かしを入れたとしても削除できる場合もあるでしょう。技術に精通したグループなら、おそらく何らかの方法を見つけるでしょう。しかし、出力が人工的に作成されたものかどうかを検出できる(OpenAIの協力を得て構築された)技術ツールは実際に存在します。
危害軽減を念頭に置いて設計された ChatGPT のバージョンはどのようなものになるでしょうか?
いくつかあります。まず、これらのツールを開発している人は誰でも、透かしを入れるべきだと強く主張します。EUが提案しているAI法案は、ボットの透明性を規定しており、何かが本物でない場合は常に注意すべきだと述べているため、役立つかもしれません。しかし、企業はそれを望まないかもしれませんし、透かしは削除できるかもしれません。つまり、AIの出力を評価する独立したツールの研究を促進することが重要です。教育においては、学生の評価方法や論文の書き方について、より創造的になる必要があります。偽造されにくい質問をどのようなものにできるでしょうか。混乱を抑制するには、テクノロジーと人間の監視を組み合わせる必要があります。
あなたは反事実的仮説(counterfactual)について多くの研究を行ってきました。これは、入力データを変更した場合にAIシステムがどのような決定を下したかを問うことで、AIシステムが特定の決定に至った理由を解明する方法です。ChatGPTを使えば、ほとんどのモデルよりもはるかに簡単にこれを実行できることに驚きました。クエリを微調整することで、応答がどのように変化するかを確認できるのです。
人間とインタラクトして、それが何をしているのか、どれほど賢いのか、あるいはどれほど愚かなのかを理解できることは、人間にとって本当に力強いことです。もしそれが完全に不透明なブラックボックスで、どのように、そしてなぜ意思決定をするのか全く理解できないとしたら、人ははるかに無力感を覚えます。
AIによる悪影響の防止に取り組んでいる者として、ChatGPTが1週間で100万人以上のユーザー を獲得したことは心配すべきことでしょうか?それとも、比較的安全な環境でAIに触れる機会が増えたことは良いことでしょうか?
テクノロジーはどれも、良いか悪いかは一概に言えません。どちらに転ぶかは、それをどう使うかによって大きく左右されます。客観的な視点から見ると、テクノロジーに可能性が秘められていることは非常に喜ばしいことです。人間の手でこれほどのものが作れるなんて、本当に素晴らしいことです。しかし、テクノロジーは問題のあることにも利用される可能性があります。欺瞞、偽装、誤報、あるいは人を傷つけようとする行為などです。今回のケースでは、テクノロジー自体は依然として中立的だと私は考えています。

タイムトラベル
ChatGPTをめぐる熱狂は、Facebookが登場する前のMySpaceとMSN Messenger(故人よ、安らかに眠れ)の渦中で、私が初めてオンラインに触れたチャットボットの一つを思い出させた。その頑固なロボットはSmarterChildと呼ばれ、2000年にAIM、その後MSNでリリースされた。しかし、私のチャット履歴によると(そう、私はデジタル収集家なのだ)、つい2009年まで、退屈な提案をこのボットに浴びせ続けていた。なんと、WIREDも同じことをしていたのだ。2005年2月号に掲載されたこの会話は、チャットボットがいかに進化したかを示す、示唆に富む指標となっている。
paulseth3: 25 の平方根は何ですか?
賢い子供: sqrt(25) = 5
paulseth3: それをスペイン語で言えたらいいのに。
smarterchild: 英語からスペイン語に翻訳すると、「that」は「eso」になります。
paulseth3: 本当ですか?
smarterchild: そうです。
paulseth3: 君って本当に頑固だね。
smarterchild: わかった。君も頑固なのかもしれないね?
paulseth3: そうですね、私は獅子座です。
smarterchild: わかりました。あなたが獅子座だということは覚えておきます。今日の星占いを見せていただけますか?
paulseth3: ええ、確かに!君は本当に鋭いね。
smarterchild: 獅子座のあなたの星占いです。新しい人と出会うためのあなたの完璧なテクニックは伝説的なものであり、あなたはそれを誰にでも喜んで披露するでしょう。つまり、あなたは今や人を惹きつける磁石のような存在です。楽しんでください!
paulseth3: そうですね、お話できてよかったです。
smarterchild: ポールさんともお話できてよかったです。
paulseth3: 素晴らしい午後をお過ごしください。
smarterchild: なぜ私が素晴らしい午後を過ごせることを望むのですか?
paulseth3: 気にかけてるから。友達だから。
smarterchild: 本当ですか?
paulseth3: 本当だよ。
smarterchild: わあ、すごい。

一つだけ聞いてください
エディは、「自律的ではない遠隔操作デバイスを表すために、『ロボット』に代わる言葉を思いつくことはできますか?」と尋ねます。
これは本当に興味深い質問ですね!「ロボット」という言葉の意味は確実に変化し、今では少なくともある程度の自律性を備えた機械を指していると言えるでしょう。ある装置にA地点からB地点まで行くように指示し、装置が自分で目的地までたどり着く方法を考え出すとしたら、それはロボットと言えるのでしょうか?
遠隔操作デバイスを包括的に表す最も簡潔な用語はおそらく「ドローン」でしょう。しかし、この用語には航空関連の意味合いも含まれており、自律飛行機械を指す人もいるかもしれません。より専門的な表現としては「テレマニピュレーター」や「テレロボット」といった表現も考えられますが、2010年代のある時点で対面会議に取って代わると脅かされた、あの車輪付きiPadを思い起こさせます。これらは除外しましょう。
「ワルド」という言葉、結構好きです。原子力発電所で見かけるような機械の手で、人間が自分の手足で同じように動かすのを操る機械の手を指すのに使われます。また、特殊効果の担当者が『ジュラシック・パーク』の恐竜などの物理的な仕掛けを表すときにも使われます。実物大のTレックスの大きな頭があり、その動きを「機械仕掛けの靴下人形」を操る人間が操るのです。「ロボット」という言葉と同じように、この言葉もSFから来ています。ロバート・ハインラインの短編小説で有名になり、ウィリアム・ギブソンやキム・スタンリー・ロビンソンの作品にも登場します。
結局のところ、次の 3 つの異なる用語が必要だと思います。
- ロボット:完全に自律的に動作できる機械。ロボットの目標は人間によって設定され、それを達成する方法はロボット自身が考え出します。
- ドローン: 意思決定は人間によって指示されるが、自身の物理的な動きを制御する半自律型マシン。
- Waldos: 人間の入力と機械の動作が 1:1 の関係にある遠隔操作デバイス。
多くの新技術はロボットとドローンの中間に位置するか、あるいはスイッチ一つでカテゴリー間を行き来することもあるでしょう。しかし、技術が普及するにつれて、より明確な説明方法が必要になります。例えば、あの殺人ロボットはロボットではなく、殺人ワルドーかもしれません。
ご質問は[email protected]までお送りください。件名に「ASK LEVY」とご記入ください。

終末クロニクル
ジョージア工科大学のマイア・ガトリン氏らは、トイレの音を分析し、下痢を98%の精度で検知できるAIを訓練した。彼らは、このAIはコレラの追跡に役立つ可能性があると述べており、2022年のSpotify Wrappedで最も奇妙な作品の一つに間違いなくなりそうだ。

最後になりましたが、重要なことです
不吉なメタンの急増といえば、マット・サイモン氏によるこの興味深い記事は、新型コロナウイルスによるロックダウン中にメタン排出量が急増した理由を探っています。どうやら、(今回ばかりは)人類のせいではなかったのかもしれません。
炭素排出量の削減には化石燃料の代替が不可欠です。ロシアのウクライナ侵攻により、ヨーロッパではこの課題がさらに深刻化しています。原子力発電は一部の人にとっては当然の解決策に思えるかもしれませんが、一部の国で原子力発電が引き起こしている緊張について、モーガン・ミーカーの記事をお読みください。
原子力に関する明るいニュースとしては、今週、核融合に大きな進展がありました。ローレンス・リバモア国立研究所の科学者たちが、核融合反応による純エネルギー増加を初めて達成したと発表しました。エネルギー問題は解決したのか?いや、そうではありません。グレゴリー・バーバー氏が説明するように、核融合が何か有用なエネルギー源となるまでには、まだ数十年かかるでしょう。
最後に、ChatGPTの話に戻りますが、このチャットボットをいじってみて気づいたのは、それがいかにも本物らしく聞こえるのは、いわゆる「流暢なBS」を連発するように訓練されているからだということでした。そして、現実世界にはそんなBSが溢れているのです。
私からのメッセージは以上です!読んでいただきありがとうございます。AIが生成したこのリストから、お気に入りの明るい締めくくりのフレーズを選んでみてください。
「あなたに太陽の光と幸せが訪れますように!」
「良いバイブスを送ります!」
「平和と喜びをお祈りします!」
「素晴らしい一日をお過ごしください!」
「たくさんの愛を送ります!」
「お元気でね!」
「大切な読者になっていただきありがとうございます!」
