2011年の冬、マサチューセッツ工科大学で計算神経科学のポスドク研究員を務めるダニエル・ヤミンズは、マシンビジョンのプロジェクトに深夜まで取り組むこともあった。彼は、画像内の物体を、サイズや位置、その他の特性の変化に関係なく認識できるシステムを、丹念に設計していた。人間なら容易に認識できるものだ。そのシステムはディープニューラルネットワーク、つまり生体脳の神経回路に着想を得た計算装置の一種だった。
「実際に課題を解くニューラルネットワークを発見した時のことを、とても鮮明に覚えています」と彼は言った。午前2時で、指導教官のジェームズ・ディカルロや他の同僚を起こすには少し早すぎたので、ヤミンズは興奮してケンブリッジの冷たい空気の中を散歩した。「本当に興奮しました」と彼は言った。
これは人工知能分野だけでも注目すべき成果の一つとなり、今後数年間、ニューラルネットワークをAI技術の寵児とする多くの成果の一つとなっただろう。しかし、ヤミンズ氏らの主たる目標はそこではなかった。彼らや他の神経科学者にとって、これは脳機能の計算モデル開発における極めて重要な瞬間だったのだ。
ディカルロ氏と、現在スタンフォード大学で自身の研究室を運営しているヤミンズ氏は、脳の構造を解明するためにディープニューラルネットワークを用いる神経科学者グループの一員です。特に、科学者たちは、脳内の様々なタスクへの特化の背後にある理由を解明しようと苦心してきました。彼らは、脳の異なる部分がなぜ異なる機能を果たすのかだけでなく、なぜその違いがこれほどまでに特異的なのかについても疑問を抱いてきました。例えば、なぜ脳には一般的な物体を認識する領域と、特に顔を認識する領域がそれぞれ存在するのでしょうか。ディープニューラルネットワークは、このような特化こそが問題解決における最も効率的な方法である可能性を示しています。

スタンフォード大学に所属する計算神経科学者ダニエル・ヤミンズ氏は、脳のように階層的にシーンの特徴を処理するニューラルネットワークが、物体認識において人間に匹敵する能力を発揮できることを示した。写真:フォンテジョン・フォトグラフィー/ウー・ツァイ神経科学研究所
同様に、研究者たちは、音声、音楽、そして擬似的な香りを分類することに最も優れた深層ネットワークが、脳の聴覚系や嗅覚系と類似した構造を持っていることを実証しました。このような類似性は、2Dシーンを見てそこに含まれる3Dオブジェクトの根底にある特性を推測できる深層ネットワークにも見られ、生物学的知覚がいかに高速かつ驚くほど豊かであるかを説明するのに役立ちます。これらの結果はすべて、生体神経系の構造が、担うタスクに対する最適な解を体現していることを示唆しています。
神経科学者たちは長らく、その仕組みが不可解なディープニューラルネットワークと脳の比較に懐疑的であったことを考えると、こうした成功はなおさら予想外のことである。「正直なところ、私の研究室では(最近まで)ディープニューラルネットワークを扱った人は誰もいませんでした」とMITの神経科学者ナンシー・カンウィッシャー氏は語る。「今では、ほとんどの人が日常的にディープニューラルネットワークの訓練を行っています。」
ディープネットとビジョン
人工ニューラルネットワークは、パーセプトロンと呼ばれる相互接続されたコンポーネントで構成されています。パーセプトロンは、生物のニューロンを簡略化したデジタルモデルです。ネットワークは少なくとも2層のパーセプトロンで構成され、1層は入力層、もう1層は出力層です。入力層と出力層の間に1層以上の「隠れ層」を挟むことで、「深層」ニューラルネットワークが形成されます。隠れ層の数が多いほど、ネットワークは深くなります。
ディープネットは、猫や犬の画像を表すパターンなど、データ内のパターンを拾い出すように学習できます。学習では、パーセプトロン間の接続強度を反復的に調整するアルゴリズムを使用し、ネットワークが与えられた入力(画像のピクセル)を正しいラベル(猫または犬)に関連付けることを学習します。学習が完了すると、ディープネットは理想的には、これまでに見たことのない入力を分類できるようになります。
ディープネットは、その一般的な構造と機能において、脳を緩く模倣することを目指しています。脳では、ニューロン間の接続の強さの調整が、学習された連想を反映すると考えられています。神経科学者たちは、この比較における重要な限界をしばしば指摘してきました。例えば、個々のニューロンは「愚かな」パーセプトロンよりも広範囲に情報を処理する可能性があり、ディープネットはしばしばバックプロパゲーションと呼ばれるパーセプトロン間の通信に依存しますが、これは神経系では発生しないようです。それでもなお、計算神経科学者にとって、ディープネットは脳の各部位をモデル化するための最良の選択肢のように思われることもありました。

イラスト: Lucy Reading-Ikkada/Samuel Velasco/Quanta Magazine
視覚系の計算モデルを開発する研究者たちは、霊長類の視覚系、特に人、場所、物を認識する経路である腹側視覚路に関する知見に影響を受けてきました。(背側視覚路は、主に別の経路であり、動きや物の位置を認識するための情報を処理します。)ヒトでは、この腹側視覚路は眼から始まり、視床にある感覚情報の中継局のような外側膝状体へと続きます。外側膝状体は一次視覚野のV1と呼ばれる領域に接続し、その下流にはV2とV4領域があり、最終的に下側頭葉皮質へとつながります。(ヒト以外の霊長類の脳にも相同構造が見られます。)
神経科学における重要な洞察は、視覚情報処理は階層的であり、段階的に進行するというものです。初期の段階では、視野内の低レベルの特徴 (エッジ、輪郭、色、形状など) が処理されますが、物体全体や顔などの複雑な表現は、後になって下側頭皮質に現れます。

イラスト:サミュエル・ベラスコ/クアンタ・マガジン
これらの洞察は、ヤミンズと彼の同僚によるディープネットの設計を導きました。彼らのディープネットには隠れ層があり、その一部は画像のあらゆる部分に同じフィルターを適用する「畳み込み」を実行しました。それぞれの畳み込みは、エッジなど、画像の異なる重要な特徴を捉えました。より基本的な特徴はネットワークの初期段階で捉えられ、より複雑な特徴は霊長類の視覚系に見られるように、より深い段階で捉えられました。このような畳み込みニューラルネットワーク(CNN)を画像分類のために訓練する場合、フィルターの値はランダムに初期化された状態で開始し、タスクに必要な正しい値を学習します。
研究チームの4層CNNは、5,760枚のフォトリアリスティックな3D画像に描かれた8つのカテゴリー(動物、ボート、車、椅子、顔、果物、飛行機、テーブル)の物体を認識することができました。画像に写っている物体は、ポーズ、位置、スケールが大きく異なっていました。それでも、ディープネットの性能は、人間のパフォーマンスに匹敵しました。人間は、様々な物体を認識しながらも非常に優れています。
ヤミンズ氏は知らなかったが、コンピュータービジョンの世界で起こりつつあった革命が、彼と彼の同僚たちが採用していたアプローチを独自に検証することになる。彼らが CNN の構築を終えて間もなく、AlexNet と呼ばれる別の CNN が、毎年開催される画像認識コンテストで名を馳せた。AlexNet も、初期段階では基本的な視覚的特徴を捉え、高次の段階ではより複雑な特徴を捉える階層的処理アーキテクチャに基づいていた。AlexNet は、1,000 種類のオブジェクトを表す 120 万枚のラベル付き画像でトレーニングされていた。2012 年のコンテストでは、AlexNet はテストされた他のすべてのアルゴリズムを圧倒した。コンテストの測定基準によると、AlexNet のエラー率はわずか 15.3% であったのに対し、次点のアルゴリズムは 26.2% だった。AlexNet の勝利により、ディープネットは AI と機械学習の分野で正当な競争相手となった。
しかし、ヤミンズ氏とディカルロ氏のチームの他のメンバーは、神経科学的な成果を求めていました。もし彼らのCNNが視覚システムを模倣するなら、新しい画像に対する神経反応を予測できるのではないかと彼らは考えました。その答えを見つけるために、彼らはまず、CNN内の人工ニューロンセットの活動が、2頭のアカゲザルの腹側視覚経路における約300箇所の活動とどのように対応するかを明らかにしました。
次に、CNNを用いて、訓練データセットに含まれていない画像をサルに見せた際に、これらの脳部位がどのように反応するかを予測しました。「優れた予測ができただけでなく、ある種の解剖学的な一貫性も見られました」とヤミンズ氏は述べています。CNNの初期層、中間層、後期層は、それぞれ初期、中間、高次の脳領域の行動を予測しました。形態は機能に従うのです。
カンウィッシャー氏は、2014年にこの研究結果が発表された際に感銘を受けたことを覚えている。「深層ネットワーク内のユニットが個々に生物物理学的にニューロンのように振る舞うとは述べていません」と彼女は言う。「それでも、機能的な一致には驚くべき特異性があります。」
サウンドに特化
ヤミンズとディカルロの研究結果が発表された後、霊長類の視覚系ほど研究が進んでいない領域を中心に、より優れた脳のディープネットモデルが模索されるようになりました。例えば、MITの神経科学者ジョシュ・マクダーモット氏は、「特にヒトの聴覚皮質については、まだ十分に理解されていません」と述べています。ディープラーニングは、脳がどのように音を処理するかについての仮説を生み出すのに役立つのでしょうか?

マサチューセッツ工科大学の神経科学者ジョシュ・マクダーモット氏は、ディープラーニング・ニューラルネットワークを用いて、脳内の聴覚処理に関するより優れたモデルを開発している。写真:ジャスティン・ナイト/マクガバン研究所
それがマクダーモットの目標だ。アレクサンダー・ケルとヤミンズを含む彼のチームは、音声と音楽という2種類の音を分類するためのディープネットの設計に着手した。まず、彼らは蝸牛(内耳にある音を伝える器官で、その仕組みは非常に詳細に解明されている)のモデルをハードコードし、音声を処理して音を異なる周波数チャネルに分類し、畳み込みニューラルネットワーク(CNN)への入力とした。CNNは、音声クリップ内の単語認識と、背景ノイズが混ざった音楽クリップのジャンル認識の両方を学習させた。チームは、多くのリソースを必要とせずにこれらのタスクを正確に実行できるディープネットアーキテクチャを模索した。
3つのアーキテクチャの組み合わせが考えられました。ディープネットの2つのタスクは入力層のみを共有し、そこから2つの異なるネットワークに分割されます。もう一方の極端な例として、タスクはすべての処理において同じネットワークを共有し、出力段でのみ分割されます。あるいは、その中間の数十通りのバリエーションのいずれか、つまりネットワークの一部の段は共有され、他の段は独立しているという構成も考えられます。
当然のことながら、入力層の後に専用の経路を持つネットワークは、経路を完全に共有するネットワークよりも優れた性能を示しました。しかし、入力層後に7つの共通層を持ち、その後にそれぞれ5層からなる2つの独立したネットワークを持つハイブリッドネットワークは、完全に独立したネットワークとほぼ同等の性能を示しました。マクダーモット氏らは、最も少ない計算リソースで最も優れた性能を発揮するネットワークとして、ハイブリッドネットワークを選択しました。

イラスト:サミュエル・ベラスコ/クアンタ・マガジン
このハイブリッドネットワークをこれらのタスクで人間と対戦させたところ、良好な結果が出ました。また、非一次聴覚皮質には音楽と音声を処理するための異なる領域があることを示唆する、多くの研究者による以前の研究結果とも一致しました。さらに、2018年に発表された重要なテストでは、このモデルは被験者の脳活動を予測しました。モデルの中間層は一次聴覚皮質の反応を予測し、深層層は聴覚皮質のより高次の領域を予測しました。これらの予測は、深層学習に基づいていないモデルの予測よりも大幅に優れていました。
「科学の目標は、システムがどのような行動を取るかを予測できるようにすることです」とマクダーモット氏は述べた。「これらの人工ニューラルネットワークは、神経科学におけるその目標に私たちをより近づけてくれます。」
カンウィッシャーは当初、自身の研究におけるディープラーニングの有用性に懐疑的でしたが、マクダーモットのモデルに触発されました。カンウィッシャーは、1990年代半ばから後半にかけて、下側頭葉皮質の紡錘状顔面野(FFA)と呼ばれる領域が顔の識別に特化していることを示した研究で最もよく知られています。被験者が顔の画像を凝視しているとき、FFAは家などの物体の画像を見ているときよりも著しく活性化します。なぜ脳は顔の処理と他の物体の処理を区別するのでしょうか?
従来、神経科学においてこのような「なぜ」という問いに答えることは困難でした。そこでカンウィッシャー氏は、ポスドクのカタリーナ・ドブス氏をはじめとする同僚たちと共に、ディープネットの活用に着目しました。彼らはAlexNetの後継となるコンピュータービジョン技術、つまりVGGと呼ばれるより深層化された畳み込みニューラルネットワークを用い、顔認識と物体認識という特定のタスクにおいて2つの別々のディープネットを訓練しました。

現在コロンビア大学のポスドク研究員であるアレクサンダー・ケル氏は、MITのマクダーモット氏と共同で、複数の聴覚タスクを実行するニューラルネットワークの設計における様々なアーキテクチャ戦略の有効性を評価しました。提供:アレックス・ケル
研究チームは、顔認識を訓練したディープラーニングネットワークは物体認識が苦手であり、物体認識を訓練したディープラーニングネットワークは顔と物体を異なる方法で表現していることを発見しました。これは、これらのネットワークが顔と物体を異なる方法で表現していることを示唆しています。次に、研究チームは単一のネットワークを両方のタスクで訓練しました。その結果、ネットワークは内部的に組織化され、ネットワークの後期段階で顔と物体の処理を分離していることが分かりました。「VGGは後期段階で自発的に分離します」とカンウィッシャー氏は述べています。「初期段階で分離する必要はありません。」
これは人間の視覚システムの構造と一致しています。分岐は、腹側視覚経路の共通初期段階(外側膝状体とV1野、V2野)の下流でのみ発生します。「顔と物体の処理における機能的特化は、両方の課題で訓練された深層ネットワークにおいて、人間の脳と同様に自発的に出現することを発見しました」と、現在ドイツ、ギーセンのユストゥス・リービッヒ大学に所属するドブス氏は述べています。
「私にとって最も興奮しているのは、脳がなぜ今のような状態なのかという疑問に答える方法が今や得られたと思うことだ」とカンウィッシャー氏は語った。
香りの層
匂いの知覚に関する研究からも、同様の証拠がさらに出てきている。昨年、コロンビア大学の計算神経科学者ロバート・ヤン氏と彼の同僚は、神経科学者によって非常に詳細なマッピングが行われたショウジョウバエの嗅覚系をモデル化するディープラーニングネットワークを設計した。
匂い処理の最初の層には嗅覚感覚ニューロンが関与し、それぞれのニューロンは約 50 種類の匂い受容体のうち 1 つのみを表現します。同じ種類の感覚ニューロン (平均で約 10 個) はすべて、処理階層の次の層にある単一の神経クラスターに到達します。この層では脳の両側にこのような神経クラスターが約 50 個ずつあるため、感覚ニューロンの種類とそれに対応する神経クラスターの間には 1 対 1 のマッピングが確立されます。神経クラスターは、ケニオン層と呼ばれる次の層のニューロンに複数のランダム接続を持ちます。ケニオン層には約 2,500 個のニューロンがあり、各ニューロンは約 7 つの入力を受け取ります。ケニオン層は、匂いの高レベル表現に関与していると考えられています。約 20 個のニューロンからなる最後の層は、ハエが匂いに関連した行動を導くために使用する出力を提供します (Yang 氏は、この出力が匂いの分類として適切かどうかは誰も知らないと警告しています)。
このプロセスを模倣する計算モデルを設計できるか調べるため、ヤン氏らはまず、画像と同じようにはニューロンを活性化しない匂いを模倣するデータセットを作成した。2枚の猫の画像を重ね合わせ、ピクセルごとに足し合わせると、結果の画像は猫にはまったく見えないかもしれない。しかし、2個のリンゴの匂いを混ぜると、やはりリンゴの匂いがするだろう。「それが嗅覚タスクを設計する際に利用した重要な洞察です」とヤン氏は語る。彼らは4層のディープネットを構築した。ショウジョウバエの処理層をモデル化した3層と出力層だ。ヤン氏らがこのネットワークを訓練してシミュレートされた匂いを分類させたところ、ネットワークはショウジョウバエの脳で見られるのとほぼ同じ接続性、つまり第1層から第2層への1対1のマッピングと、次に第2層から第3層へのスパースでランダムな(7対1)マッピングに収束することが分かった。
この類似性は、進化とディープネットの両方が最適解に到達したことを示唆している。しかし、ヤン氏はその結果について依然として懸念を抱いている。「もしかしたら、今回は単に運が良かっただけで、一般化できないのかもしれません」と彼は述べた。
検証の次のステップは、まだ研究されていない動物の嗅覚系の接続性を予測できる深層ネットワークを進化させ、神経科学者によって検証することです。「これにより、私たちの理論をより厳密に検証できるようになります」と、2021年7月にMITに移るヤン氏は述べました。
ブラックボックスだけではない
ディープネットは、訓練データセットから大きく逸脱したデータへの一般化が不可能だとしばしば非難されます。また、ブラックボックスであることでも悪名高いです。ディープネットの決定を、それを形作る数百万、あるいは数十億ものパラメータを検証することで説明することは不可能です。脳のある部分のディープネットモデルは、単にブラックボックスを別のブラックボックスに置き換えただけではないでしょうか?
ヤン氏の意見では、必ずしもそうではない。「脳よりも研究しやすい」と彼は言った。
昨年、ディカルロのチームは、ディープネットの不透明性と、一般化できないとされる問題の両方に取り組んだ研究結果を発表しました。研究者たちはアレックスネットの一種を用いてマカクザルの腹側視覚情報流をモデル化し、人工ニューロンユニットとサルのV4野の神経部位との対応関係を解明しました。次に、この計算モデルを用いて、サルのニューロンで不自然に高いレベルの活動を引き起こすと予測される画像を合成しました。ある実験では、これらの「不自然な」画像をサルに見せると、神経部位の68%の活動が通常レベルを超えて上昇しました。また別の実験では、画像が1つのニューロンの活動を上昇させ、同時に近くのニューロンの活動を抑制しました。どちらの結果も、ニューラルネットモデルによって予測されていたものでした。
研究者たちは、これらの結果はディープラーニングが脳に一般化しており、完全に理解不能なわけではないことを示唆していると考えている。「しかしながら、これらのモデルが価値を付加するかどうか、またどのように付加するかについては、他の多くの『理解』の概念を探求する必要があることを認識している」と研究者らは記している。
ディープラーニングと脳の構造と性能の収束は、必ずしも両者が同じように動作することを意味するわけではない。明らかに同じように動作しない点もある。しかし、両システムには共通の広範な原理に従うだけの十分な類似点があるのかもしれない。
モデルの限界
マクダーモット氏は、これらのディープネット研究に潜在的な治療的価値を見出している。今日、聴覚障害は耳の変化が原因で起こるのが一般的だ。脳の聴覚系は、障害された入力に対処しなければならない。「ですから、聴覚系の他の部分が何をしているのかを的確にモデル化できれば、人々の聴力を改善するために実際に何をすべきか、より的確なアイデアが得られるでしょう」とマクダーモット氏は述べた。
それでも、マクダーモット氏はディープラーニングネットワークが何を実現できるかについては慎重な姿勢を崩していない。「ニューラルネットワークをモデルとして用いることの限界を理解しようと、私たちは相当な努力を重ねてきました」と彼は語った。

マクダーモット研究室の大学院生、ジェネル・フェザー氏は、メタマーと呼ばれる慎重に設計された音声入力のペアを用いて、ニューラルネットワークの性能と人間の聴覚の性能を比較した。写真:ケイトリン・カニンガム/マクガバン研究所
こうした限界を顕著に示す例として、マクダーモット研究室の大学院生ジェネル・フェザーらは、物理的に異なる入力信号でありながらシステム内で同一の表現を生成する「メタマー」に注目しました。例えば、2つの音声メタマーは波形が異なりますが、人間には同じように聞こえます。研究チームは聴覚系のディープネットモデルを用いて、自然音声信号のメタマーを設計しました。これらのメタマーは、音声クリップと同様に、ニューラルネットワークの異なる段階を活性化しました。ニューラルネットワークが人間の聴覚系を正確にモデル化しているのであれば、メタマーも同じに聞こえるはずです。
しかし、実際にはそうではありませんでした。人間は、ニューラルネットワークの初期段階では、対応する音声クリップと同じ活性化を引き起こすメタマーを認識しました。しかし、ネットワークのより深い段階では、一致する活性化を引き起こすメタマーは認識されませんでした。それらのメタマーは人間にはノイズのように聞こえたのです。「つまり、特定の状況下では、この種のモデルは人間の行動を非常にうまく再現しますが、そこには大きな欠陥があるのです」とマクダーモット氏は述べています。
スタンフォード大学で、ヤミンズ氏はこれらのモデルがまだ脳の本質を反映していない点を研究しています。例えば、これらのモデルの多くは訓練に大量のラベル付きデータを必要としますが、人間の脳はたった一つの例からでも容易に学習できます。同様に効率的に学習できる教師なしディープネットの開発も進められています。ディープネットはバックプロパゲーションと呼ばれるアルゴリズムを用いて学習しますが、多くの神経科学者は、このアルゴリズムは適切な接続が欠如しているため、実際の神経組織では機能しないと考えています。「実際に機能する、生物学的により妥当性のある学習ルールに関して、大きな進歩がありました」とヤミンズ氏は述べました。
MITの認知神経科学者、ジョシュ・テネンバウム氏は、これらのディープネットモデルはすべて「真の進歩」ではあるものの、主に分類やカテゴリー化のタスクを行っていると述べています。しかし、私たちの脳は、外にあるものを分類する以上のことを行っています。私たちの視覚システムは、表面の形状やシーンの3次元構造を理解し、根底にある因果関係を推論することができます。例えば、木が消えたのは車が目の前を通過したからだとリアルタイムで推測できます。
脳のこの能力を理解するため、MITで現在はイェール大学に在籍するイルケル・ユルドゥリム氏が、テネンバウム氏らと共同で効率的な逆グラフィックスモデルと呼ばれるものを構築した。これは、顔の形状、質感、照明の方向、頭のポーズなど、背景にレンダリングされる顔を記述するパラメータから始まる。生成モデルと呼ばれるコンピュータグラフィックスプログラムが、パラメータから3Dシーンを作成し、その後、さまざまな処理段階を経て、特定の位置から見たそのシーンの2D画像を生成する。研究者らは、生成モデルからの3Dおよび2Dデータを使用して、修正版のAlexNetをトレーニングし、見慣れない2D画像から3Dシーンの可能性のあるパラメータを予測するようにした。「このシステムは、結果から原因へ、2D画像からそれを生み出した3Dシーンへと逆戻りすることを学習します」とテネンバウム氏は述べた。
研究チームは、アカゲザルの下側頭葉の活動に関する予測を検証することで、モデルをテストしました。アカゲザルに7つのポーズをとる25個体の175枚の画像を提示し、「顔パッチ」と呼ばれる顔認識に特化した視覚処理領域から神経信号を記録しました。また、これらの画像をディープラーニングネットワークに提示しました。ネットワークでは、第1層の人工ニューロンの活性化が2D画像を表し、最終層の活性化が3Dパラメータを表します。「その過程で、ネットワークは一連の変換を経ますが、基本的に2Dから3Dへと変換するようです」とテネンバウム氏は述べています。研究チームは、ネットワークの最後の3層が、アカゲザルの顔認識ネットワークの最後の3層と驚くほどよく一致していることを発見しました。
これは、脳が生成モデルと認識モデルを組み合わせて、物体を認識し特徴付けるだけでなく、場面に内在する因果構造を瞬時に推論していることを示唆している。テネンバウム氏は、このモデルが脳のこのような働きを証明するものではないことを認めている。「しかし、このモデルは、よりきめ細かなメカニズムに基づいて、こうした疑問を問うための扉を開くものです」と彼は述べた。「それは…私たちに、その過程を歩む動機を与えてくれるはずです。」
編集者注:ダニエル・ヤミンズとジェームズ・ディカルロは、 シモンズ財団傘下のグローバル・ブレイン研究プロジェクト「シモンズ・コラボレーション」から研究資金を受けています。シモンズ財団は、編集上独立した本誌の資金提供も行っています。シモンズ財団への資金提供に関する決定は、クオンタの報道内容に影響を与えるものではありません。詳細は、こちらのページをご覧ください。
オリジナルストーリーは、数学、物理科学、生命科学の研究の進展や動向を取り上げることで科学に対する一般の理解を深めることを使命とする、 シモンズ財団の編集上独立した出版物であるQuanta Magazineから許可を得て転載されました。
WIREDのその他の素晴らしい記事
- 📩 テクノロジー、科学、その他の最新情報を知りたいですか?ニュースレターにご登録ください!
- 穏やかに話し、巨大なサイバー軍を指揮する男
- Amazonは「ゲームで勝つ」ことを望んでいる。では、なぜそれが実現していないのだろうか?
- 森の床の遊び場が子供と細菌について教えてくれること
- 図書館の仮想棚から電子書籍が消えていくことに出版社は懸念を抱いている
- PCゲームで調整する価値のある5つのグラフィック設定
- 🎮 WIRED Games: 最新のヒントやレビューなどを入手
- 🏃🏽♀️ 健康になるための最高のツールをお探しですか?ギアチームが選んだ最高のフィットネストラッカー、ランニングギア(シューズとソックスを含む)、最高のヘッドフォンをご覧ください