オーディオのプロがヴィンテージトラックを「アップミックス」して新たな命を吹き込む方法

オーディオのプロがヴィンテージトラックを「アップミックス」して新たな命を吹き込む方法

ジェームズ・クラークが2009年末、ロンドンの伝説的スタジオ、アビー・ロード・スタジオに赴任した当時、彼はオーディオエンジニアではなかった。ソフトウェアプログラマーとして雇われたのだ。入社して間もないある日、彼は1960年代から70年代にかけての音楽レコーディングのベテラン数名と昼食をとっていた。当時はコンピューターが普及する前で、楽曲は1本のテープに収録されていた。会話を盛り上げるため、クラークは一見無害そうな質問をした。「マルチトラック録音以前の時代のテープから、個々の楽器を分離できますか?分解できますか?」

エンジニアたちは彼の提案を却下した。「何時間もかけて、なぜそれが不可能なのかを事細かに説明し合った」とクラークは回想する。ちょっとした音響トリックを使えば、1チャンネルのモノラルを2チャンネルのステレオに変えることも可能だが、クラークはそれには興味がなかった。クラークはもっと精密なもの、つまり曲を分解して、リスナーが一度に一つの要素だけを聞き取れるようにする方法を探していた。ギターだけ、ドラムだけ、あるいはボーカルだけ、といった具合だ。

「人間の耳でできるなら、ソフトウェアでも同じことができると、彼らに言い続けました」と彼は言う。彼にとってこれは挑戦だった。「私はニュージーランド出身です。私たちは、人々が間違っていることを証明するのが大好きなんです。」

この挑戦によって、彼はアップミックスという分野の最先端に立ちました。アップミックスとは、ソフトウェアエンジニアとオーディオエンジニアが協力して、かつては考えられなかった方法で古い録音を変換するものです。機械学習を使用することで、エンジニアは録音された声と楽器を完全に別々のコンポーネントトラック(ステムと呼ばれることが多い)に「デミックス」することを実現しました。曲のコンポーネントを分離することは驚くほど難しい問題で、はさみを使うというよりは、絵の具の渦巻きをほどくようなものです。しかし、エンジニアがステムを入手すれば、分離されたトラックを「アップミックス」して、新しい、おそらくは改善された何かにすることができます。古い録音のこもったドラムトラックを強調したり、曲のアカペラバージョンを作成したり、またはその逆に曲のボーカルを削除してテレビ番組や映画のBGMとして使用したりすることもできます。

アビーロードの従業員だったクラークが、やがてビートルズの楽曲に実験の焦点を当てるのは当然の流れだった。しかし、昔の音楽を分解しようとしていたのは彼だけではなかった。世界中で、他のオーディオ愛好家たちが、それぞれのお気に入りのトラックで同じ課題に取り組み、いくつかの同じ手法に収束していった。クラークの運命的なランチタイムの会話から数年の間に、曲を分割するためのアプリやツールの数は爆発的に増加し、この手法を取り巻く学者や愛好家のコミュニティも成長した。サンプルベースの音楽のクリエイターにとって、デミックスは40年前のヒップホップ爆発の原動力となったデジタルサンプラー以来、最も偉大な音響的発明と言えるだろう。カラオケファンにとっては、ゲームチェンジャーとなるだろう。古典的だが質の低い録音の権利を所有する人々(またはプライベートエクイティファーム)、あるいは法的グレーゾーンに踏み込むことをいとわない愛好家にとって、アップミックスは過去を聴くための全く新しい方法を提供する。数十年にわたるゆっくりとした進歩を経て、ディープラーニングは今や両技術を急速に進化させています。不気味の谷現象は音楽の音とともに生き生きとしています。

ニューオールドサウンズ

20年前、デミックスの実験を最初に行った人物の一人が、ロングアイランド出身のプロの電子試験エンジニア、クリストファー・キッセルでした。キッセルはレコーディングスタジオに簡単にアクセスできませんでした。しかし、生涯にわたる音楽ファンであった彼は、古いトラックを新しいサウンドにすることを夢見ていました。

1960年代まで、ポピュラー音楽のほとんどすべてがモノラルで録音され、聴かれていました。楽器パートとボーカルパートはすべてテープの1つのトラックに録音され、1つのスピーカーから再生されていました。曲はテープに録音された時点で、ほぼ完成していました。しかし、キッセルは古いモノラル録音を根本的にアップデートできるかもしれないという予感を抱いていました。

2000年、キッセルは初めてMacを購入しました。その目的は、50年代と60年代のシングルトラックのポップソングを、ヘッドフォンや適切にセパレートされたスピーカーに適した2チャンネルステレオバージョンに変換することでした。「モノラルと比べて、ステレオはよりリアルなサウンドで、ミュージシャン同士の掛け合いをより深く聴き、深く理解することができます」と彼は言います。ほとんどのリスナーはおそらく2つのスピーカー(またはヘッドフォン)で音楽を聴くことを好むでしょう。キッセルは、古い録音をステレオ化することにこだわるほどでした。

新しいMacを手にした最初の夜、キッセルはフロッピーディスクを使って、初期のデジタルオーディオワークステーション「sonicWORX」をインストールした。これは、録音されたボーカルの音量を部分的に上げることができるプラグイン「Pandora Realtime」を実行できる唯一のソフトウェアだった。「当時としては非常に先進的でした」とキッセルは言う。彼は、このツールでもっと面白いことができるのではないかと試してみたかった。そこで、ミス・トニ・フィッシャーの1959年のヒット曲「ビッグ・ハート」を読み込み、その魅力を解き明かそうとした。

キッセル氏によると、SonicWORXの波形ビジュアライザーと設定を使って曲を微調整した結果、「リードボーカル、バックボーカル、ストリングスを分離し、右側に、残りのバック楽器を左側に移動させることができた」という。粗削りで多少の不具合はあったものの、効果は強力だった。「聴いていて本当に興奮しました」と彼は語る。数十年経った今でも、キッセル氏はあの最初の体験に圧倒されている。

彼は、デル・ヴァイキングスの「Whispering Bells」、ジョニー・オーティスの「Willie and the Hand Jive」、そしておそらく最も適切なのは、影響力のあるサウンドエンジニアのジョー・ミークがプロデュースし作曲した未来的な DIY の驚異であるトルネードスの「Telstar」など、さらに多くの 50 年代と 60 年代のクラシックを試しました。

キッセルは、フォーラムのモデレーターを務めたり、この分野の進歩を記録するウェブサイトを運営したりすることで、発展途上のデミキシングとアップミキシング(これらの名称は後から生まれたものですが)の分野に没頭しました。彼は、音を視覚的なオブジェクトとして扱うことを可能にする「スペクトル編集」という手法に着目し始めました。楽曲をスペクトルエディターに読み込むと、録音されたすべての周波数が、カラフルな山と谷としてグラフ上に並べられて表示されます。当時、オーディオエンジニアは録音データから不要なノイズを除去するためにスペクトル編集を使用していましたが、大胆なユーザーはオーディオトラックの特定の周波数に焦点を絞り、それらを抜き出すこともできました。「Frequency」というフリーウェアのスペクトル編集ツールが登場したとき、キッセルはそれを試してみることにしました。

彼はFrequencyを使って約60時間をかけ、ボーカルグループ「ファイヴ・キーズ」による1951年のモノラルR&Bヒット曲「The Glory of Love」のアップミックスを作成しました。アプリを使って個々のボーカリストを注意深く選別し、彼らの声をステレオスペクトル全体に拡散させました。キッセルの友人であるディスコ界のレジェンド、トム・モールトンが最終的な仕上げを行い、この曲はスペクトル編集されたアップミックスとして初めて商業アルバムに収録されました。2005年、複数のレーベルがすぐにモノラルからステレオにアップミックスされたヒット曲のコレクションをリリースし始めました。ライセンス契約されている場合もあれば、パブリックドメインになっている場合もあり、その中間の場合もあります。

フランスのソフトウェア企業Audionamixは、ユーザーが独自にトラックを分解できるようにプロ仕様のデミックスソフトウェアの開発を開始し、この技術群をより身近なものにしました。2007年には、エディット・ピアフの伝記映画『ラ・ヴィ・アン・ローズ』のために、モノラル録音を劇場対応のサラウンドサウンドに変換するという、アップミックスにおける大きな成果を発表しました。2009年には、映画、テレビ、CMの仕事獲得を継続するため、ハリウッドにオフィスを開設しました。

彼らのプロジェクトには、フォーカス・デミックス(集中的なデミックス)も含まれていました。英国のオンライン融資会社Sunnyが、故アメリカ人R&Bシンガー、ボビー・ヘブの楽曲「Sunny」をCMで使用しようとした際、曲のオリジナルボーカルの1つがCMのナレーションを邪魔していることが判明しました。Audionamixの協力により、この厄介なボーカルは完全に削除されました。このフランスの企業はまた、元々は「音楽分離」と呼ばれていましたが、現在はやや穏和な「音楽除去」という名称に変更されたサービスも提供しています。これは、古いテレビ番組や映画から、ライセンス取得に費用がかかりすぎる可能性のある音楽を削除し、DVDやストリーミングなどの最新フォーマットでリリースできるようにするものです。Audionamixの研究員であるニコラス・カタネオ氏によると、「これは少なくとも商業的には、実際に使えるようになった最初のものです」とのことです。(古い映画やテレビ番組の音楽を研究する研究者は、オリジナルのサウンドトラックを確実に聴きたいのであれば、2009年頃以前のリリースに頼るべきでしょう。)

AudioSourceREとAudionamixのXtrax Stemsは、自動デミックスを実現するコンシューマー向けソフトウェアの先駆けと言えるでしょう。例えば、Xtraxに楽曲を入力すると、ボーカル、ベース、ドラム、そして「その他」のトラックが出力されます。「その他」とは、ほとんどの音楽で聞かれる様々な音を網羅する重要な役割を担う、いわば「その他」のことです。いずれは、万能のアプリケーションが、録音された楽曲を瞬時に、そして完全にデミックスできるようになるかもしれません。それまでは、1トラックずつデミックスしていくことになりますが、これは独自の芸術形式へと発展しつつあります。

耳で聞こえるもの

アビー・ロード・レコードのジェームズ・クラークは、2010年頃から本格的にデミキシング・プロジェクトに取り組み始めた。研究を進める中で、彼は1970年代に書かれた、ビデオ信号を顔や背景といった構成要素の画像に分解する技術に関する論文に出会った。その論文は、彼が物理学の修士課程で、信号の周波数の時間変化を示すスペクトログラムを研究していた頃を思い出させた。

スペクトログラムは信号を視覚化できるが、論文で説明されている非負値行列因子分解と呼ばれる手法は、情報を処理する方法だった。この新しい手法がビデオ信号に有効なのであれば、音声信号にも使えるだろうとクラークは考えた。「楽器がどのようにスペクトログラムを構成するかを調べ始めました」と彼は言う。「『これはドラムのようだ、これはボーカルのようだ、これはベースギターのようだ』と認識し始めました。」約1年後、彼は音声を周波数で分解する説得力のあるソフトウェアを制作した。彼の最初の大きな進歩は、ビートルズの唯一の公式ライブアルバムである『ライブ・アット・ザ・ハリウッド・ボウル』の2016年リマスターで聞くことができる。1977年に発売されたオリジナルLPは、観客の甲高い叫び声のために聴きづらい。

観客の騒音を何とか抑えようと試みたものの、結局うまくいかなかったクラークは、ついに「セレンディピティ・モーメント」に遭遇した。歓声を上げるファンを、信号から除去すべきノイズとして扱うのではなく、ミックスの中のもう一つの楽器として捉えることにしたのだ。観客を個々の声として認識することで、クラークはビートルズファンを鎮め、彼らを孤立させ、背景に追いやることにした。こうして、4人のミュージシャンが音響的に前面に出てくるようになった。

クラークはアップミックスの頼れる専門家となり、グラミー賞にノミネートされた38枚組CD『ウッドストック - バック・トゥ・ザ・ガーデン:50周年記念決定版アーカイブ』の救済にも貢献した。このアーカイブは、1969年のメガ・フェスティバルのすべてのパフォーマンスを収録することを目的としていた(情報開示:私はこのセットのライナーノーツを寄稿した)。フェスティバル中の激しい雨が降る中、シタール奏者のラヴィ・シャンカールがステージに立った。しかし、このパフォーマンスの録音で最大の問題は雨ではなく、当時のシャンカールのプロデューサーがマルチトラックテープを持ち逃げしたことだった。スタジオでそれらを聴いたシャンカールは、それらを使い物にならないと判断し、代わりにスタジオで偽造した『アット・ザ・ウッドストック・フェスティバル』のLPをリリースした。ウッドストック自体の音源は1つも入っていなかった。オリジナルのフェスティバルのマルチトラックはずっと前に姿を消したため、将来の再発プロデューサーには、コンサートのサウンドボードからの損傷したモノラル録音しか残されなかった。

クラークはこのモノラル録音のみを用いて、シタール奏者の楽器を雨音、音響のノイズ、そして数フィート離れた場所に座るタブラ奏者から分離することに成功した。その結果は「完全に本物らしく、正確」なものとなり、ミックスの中にわずかなアンビエンスが残っていたと、ボックスセットの共同プロデューサーであるアンディ・ザックスは語る。

「アップミックスによって、取り戻せないものを再び取り戻す可能性が生まれるというのは、本当に刺激的です」とザックスは語る。この手法を、古典的な白黒映画をカラー化するのと似ていると考える人もいるかもしれない。「常に緊張感があります。再構築したいという気持ちと、自分の意志を押し付けたくないという気持ち。それが挑戦なんです」

深淵へ向かう

クラークがビートルズのハリウッド・ボウル・プロジェクトの作業を終えた頃、彼と他の研究者たちは壁にぶつかっていました。彼らの技術はかなり単純なパターンには対応できましたが、ビブラート(一部の楽器や人間の声に特徴的な微妙な音程変化)のかかった楽器には対応できませんでした。エンジニアたちは新たなアプローチが必要だと気づきました。「それがディープラーニングへとつながったのです」と、音楽ソフトウェア企業AudioSourceREの創業者兼最高技術責任者であるデリー・フィッツジェラルドは言います。

フィッツジェラルドは生涯にわたるビーチ・ボーイズのファンだった。彼が趣味でモノラルからステレオへのアップミックスを手がけた作品のいくつかは、2012年以降の公式リリースに採用された。クラークと同様に、フィッツジェラルドも非負値行列分解の手法を編み出した。そしてクラークと同様に、彼もその限界に達していた。「コードの微調整に費やす時間が、とてつもなく長くなってしまったんです」と彼は言う。「もっと良い方法があるはずだと思いました」

記事画像

超スマートなアルゴリズムがすべての仕事をこなせるわけではありませんが、これまで以上に速く学習し、医療診断から広告の提供まであらゆることを行っています。

フィッツジェラルド、ジェームズ・クラーク、そして他の人々によるAIへの移行は、人間の耳が楽器同士の音を自然に聞き分けることができるのであれば、機械でも同じ分離をモデル化できるはずだというクラークの当初の直感を反映するものでした。「私は、ニューラルネットワークのアプローチをより深く理解するために、ディープラーニングの研究を始めました」とクラークは言います。

彼は、ビートルズの初期のヒット曲「シー・ラヴズ・ユー」からジョージ・ハリスンのギターを引き出すという明確な目標を念頭に実験を始めました。オリジナルのレコーディングでは、楽器とボーカルがすべて1つのトラックにまとめられていたため、操作はほぼ不可能でした。

クラークはアルゴリズムの構築に着手し、ラジオセッション、ライブバージョン、トリビュートバンドによる演奏など、見つけられる限りのあらゆるバージョンの曲で学習させた。「かなり多くのバージョンがあったので、曲がどのように聞こえるかを理解するための例がたくさんありました」とクラークは言う。スペクトログラムを使うことで、曲の見た目も把握できたアルゴリズムはオーディオを楽器ごとに個別のステムに分割したが、クラークが認識できたのはハリソンのグレッチ・チェット・アトキンス・カントリー・ジェントルマン・ギターだけだった。

クラークは9ヶ月かけて、ギターパートを数秒ずつ選別し、まるで手作業でフレーズごとにトラックをクリーニングしたかのようだった。他の楽器からの不要なオーディオアーティファクトに耳を傾け、スペクトル編集ソフトウェアを使ってそれらを見つけて除去した。最終段階では、トラック本来のアンビエンスを再現することに取り組んだ。これは簡単だった。アビーロードの従業員として、彼は「She Loves You」が最初に録音された名高いスタジオ2を予約することができた。彼はスタジオのスピーカーからトラックを流し、新たに録音することで、よく保存された音響の繊細さを捉えた。2018年8月、クラークはAIによるデミックス作業を初めて公開した。

完売となったレクチャーシリーズでは、ビートルズやピンク・フロイドなど多くのアーティストがレコーディングを行ったスタジオ2を、ファンが実際に体験できる貴重な機会が設けられました。来場者は、スタジオのピアノを同時に演奏し、「ア・デイ・イン・ザ・ライフ」のエンディングで鳴り響くEメジャーコードを再現しました。また、未来への展望も垣間見ることができました。

満員の観客の前で、クラークはビートルズの1963年のオリジナル音源「シー・ラヴズ・ユー」を演奏した。そして静まり返った観客の前で、彼は不可能と思われた演奏を披露した。ハリソンのギター以外はすべて削除された、同じ音源を演奏したのだ。

3日後、クラークのデモの抜粋がウェブ上に公開されました。真実を信じる人々はたちまち殺到し、信じないオーディオマニアたちはオンラインフォーラムでクラークを貶め始めました。「この新技術の素晴らしさを示すデモが、まさか嘘だったとは残念だ」と、Beatlebugという名のユーザーが書き込みました。

「アビーロードがそんな風に人々を誤解させてしまうのは少し悲しい」とRingoStarr39も同じスレッドに投稿した。

Beatlebug、RingoStarr39、その他は、クラークの講義の音声部分は、後にステレオ録音された「Sie Liebt Dich」という曲のドイツ語バージョンから切り離しやすい部分だと主張した。彼らは、ジェームズ・クラークはペテン師だと主張した。

しかし、クラークが示したのは概念実証に過ぎなかった。「シー・ラヴズ・ユー」のハリソンのギタートラックを完璧に仕上げるのに、約200時間を要した。ジョン・レノンのギターを分離することすら試みていなかったのだ。「プロジェクトには現実的な選択肢ではありませんでした」と彼は認める。自動化には程遠いものだった。しかし、実現は可能だった。そして、実現するだろう。

上へ、上へ、そして飛び立つ

フランスのストリーミングサービスDeezerがオープンソースのコードライブラリ「Spleeter」をリリースしたことで、堰堤が完全に決壊しました。これにより、プロプログラマーから一般プログラマーまで、誰でもデミックスとアップミックスのためのツールを構築できるようになりました。コンピューターのコマンドラインインターフェースを使いこなせる人なら誰でも、GitHubからソフトウェアをダウンロードしてインストールし、お気に入りの曲のオーディオファイルを選択するだけで、独自のアイソレートされたステムセットを生成することができました。人々はこのコードライブラリをクリエイティブに活用し始めました。テクノロジーブロガーのアンディ・バイオ氏がこのライブラリを試用したところ、映画「フレンズ」のテーマ曲とビリー・ジョエルの「We Didn't Start the Fire」を組み合わせたマッシュアップがいかに簡単に作れるかに気づき、喜びました。「こんな力を持つべきではない」と彼はツイートしました。

第一世代のユーザーは、独創的な方法でデミックスとアップミックスを行っています。ミュージシャンの中には、曲から楽器を1つ取り除き、練習用のトラックを作成したり、新しい音楽の素材を作成したりしている人もいます。ポッドキャスト制作者は、騒音下で録音された会話をクリーンアップしています。趣味のユーザーは、iPadアプリや無料サイトを利用して独自のミックスを作成したり、あらゆる曲をカラオケ用に加工したりしています。日本では、Spotifyの「SingAlong」(リスナーが曲のボーカルの音量を下げられる)や、リアルタイムの音源分離を謳うLINE MUSICなど、公式ライセンスに基づいたボーカル除去機能を提供しているストリーミングサービスがいくつか存在します。

既存の企業 (Audionamix、James Clarke) とともに、プロフェッショナルなデミキシング サービスを提供する最新の企業は、カリフォルニアを拠点とする新興企業の Audioshake です。

同社はまもなく、音楽著作権者(ミュージシャンとレーベルの両方)がクラウドに楽曲をアップロードし、数分以内に映画、放送、ビデオゲームなどへのライセンス供与に適した高品質のステムをダウンロードできるサービスを開始する。Audioshakeは、デミキシング技術の進歩を追跡するオーディオ研究者で構成される組織であるSignal Separation Evaluation Campaignが設定したベンチマークにおいて、ドラム、ベース、ボーカルの音質において業界最高評価を得ていると主張している。

しかし、Audioshakeはギター、より正確にはギター1本を自動的に分離する方法を初めて開発した企業でもあります。同社はその方法については口を閉ざしています。「ギターの倍音と音色に合わせて、ディープラーニングネットワークのアーキテクチャを特別に改良しました」と、同社のAI研究者ファビアン=ロバート・シュテーターは述べています。基本的に、ユーザーがAudioshakeにトラックをアップロードすると、同社のアルゴリズムのレイヤーが曲の波形を数値表現に変換し、AIモデルがギターの音域とそれ以外の音域を判別しやすくします。

動作を確認するため、いくつかの曲をアップロードするように勧められました。数分のうちに、同社のソフトウェアはギター、ベース、ドラム、ボーカルのパワートリオ形式で演奏するロックバンドのトラックを分解することができました。トーキング・ヘッズのオリジナル・ラインナップによるトラックでは、デヴィッド・バーンの12弦アコースティックギターが(最小限のアーティファクトで)分離され、ティナ・ウェイマスのベースとクリス・フランツのドラムのトラックと並んで再生されました。ギター、ベース、ドラム、ボーカルという同じ構成の他の曲でも同様にうまく機能します。しかし、音楽は膨大であり、パワートリオ形式はパラメータが厳格に設定されているという欠点があります。

これらのパラメータの外には、デミックスという未開の領域が広がっている。Audioshakeから戻ってきた「She Loves You」のオリジナル音源では、レノンとハリソンのギターがまるで幽霊のように鳴り響いている。ジェームズ・クラークの手作業は、今でも機械では到底及ばない。とはいえ、Audioshakeはほんの数年前にはできなかったことを実現しており、機械がより多くの楽器を認識する未来を示唆している。それは未踏の領域なのかもしれない。1960年代以降、ほぼすべてのプロデューサーにとって、レコーディングスタジオは珍しい楽器を組み合わせ、リスナーの耳で混ざり合うように意図的に設計された、驚異的な新しいサウンド(そして文字通りの倍音)を生み出す場所だった。

しかし、もしこれらの遺物が芸術作品になったとしたらどうだろう?もしデミックスの試みが失敗に終わり、適切なプロデューサーにクールに聞こえたなら、素晴らしい新音楽の土台となるかもしれない。シェールが「Believe」でオートチューンをポップトレンドに変えたことを考えてみよう。アーカイブ・プロデューサーのアンディ・ザックスはこう言った。「プレイステーションでヒップホップのレコードを作っている16歳の若者が、この機器の天才的な使い方を思いつき、私たちがかつて聞いたことのない音の世界を創り出すだろう」

クラーク氏は現在も、ビートルズのモノラルボーカルトラックを分解するためのAI手法の開発に取り組んでいます。また、Audio Research Groupという独立系会社を設立し、デミキサーとして業務を行っています。最近では、マスターテープをすべて失い、LP盤しか残っていないバンドのトラックセット作成を手伝っています。

しかしクラークでさえ、多くの録音は分離できない。特に楽器の周波数が近い場合や、ラジオ放送や多くの観客によるライブ録音のように録音が圧縮されている場合はなおさらだ。彼はかつて、1991年にロンドンで録音されたREMテープをデミックスしようとしたことがある。「スペクトルの観点から見ると、とにかく情報が足りないんです。圧縮されすぎているんです」とクラークは言う。「本当にぼんやりとした結果になるんです」。今のところ、過去のぼんやりとした部分はぼんやりしたままだろう。しかし、中にはこれまで以上に明るく聞こえるものもあるだろう。


この記事についてのご意見をお聞かせください。編集者宛ての手紙は[email protected]までお送りください


WIREDのその他の素晴らしい記事

  • 📩 テクノロジー、科学などの最新情報: ニュースレターを購読しましょう!
  • SF作家か預言者か?陳秋帆のハイパーリアルな人生
  • NFTは注目されている。地球の気候への影響も同様に重要だ
  • これらのウミウシは自ら首を切り落とし、新しい体を育てる
  • テレビの人種ファンタジーは実際何を伝えたいのでしょうか?
  • 終末に備えたいのですね
  • 🎮 WIRED Games: 最新のヒントやレビューなどを入手
  • 📱 最新のスマートフォンで迷っていますか?ご心配なく。iPhone購入ガイドとおすすめのAndroidスマートフォンをご覧ください。