| ENGLISH |
(下野) 応用側の立場からすれば予測ができればいい。株式でも高精度に予測できれば、それだけで目的を果たしているっていうような話になるので、その間を求めなくてもいいって。ただ、サイエンスとして現象や対象を強く意識している立場からすると、そこに逆に物足りなさを感じるっていうそのジレンマは、われわれの世代が、ある意味で初めて味わっているかもしれないですね。私、囲碁がすごく好きで、囲碁の世界のトップのプロが人工知能に負けてしまいましたけど、あれも本当に衝撃的でした。あんな複雑なことを脳はしている、だから脳はすごいっていうことを思っていて、脳を研究の対象としてきたっていうところがありますが、ある意味それとは全く違うかたちで、勝つか負けるかっていうほうに関しては、ブラックボックスが目的を達成してしまったっていう。じゃあ、それにどう向き合って生きていくのかっていうのは、非常に根本的なところで悩むことで、それは現象が何であってもそうなんではないかなというのは思うんですけど、どうなんですかね、皆さん。
(中島) 物理はとりあえず数式に落として頑張るところから始まる気がするのですが、今その話でいくと、もう結局何か具体的な数式として書き下すということはできてなくて、インプットとアウトプットしかないってことなんですよね?どういう式で書けているかわからないけど、複雑なことがブラックボックスの中で起きていて、関数はあるらしいけど、その関数の具体的な形が我々にはわからないと。でも、その関数はうまいこと構築されている、という理解でいいのでしょうか?
(下野) いや、先ほど多体系っていう話がありましたけど、多要素っていうのがある種の前提なんで、いっぱいデータを入れると。その結果として、答えをシンプルに、イエスとノーであったりとか、そういったかたちで出力してくる訳ですが。データの入力と出力の間をどういうふうにつなぐのか、このつなぎ方を、抽象化した多レイヤーの中での足す、引くという重みづけの計算の中で表現をすると。でも、その計算をどうするかっていう、どういうふうに情報圧縮していくかっていうのに関しては、つまるところは最適化で、答えからラーニングして、つなぎ方の形を作って、それが未知のデータに対してもちゃんと予測できるっていう理屈ですね。
(高棹) じゃあ基本的には、とにかくいっぱいデータを食わせるって感じですかね?
(下野) そうですね。ディープラーニングで驚かれている話の一つとしては、聞かれたことがあるかもしれないですが、データをいっぱい入れると、データそのものが持ってるノイズっていうのがありますから、それによって結局精度っていうのは頭打ちになるっていうのが、ある種の常識だったんですけれど、それを、なぜかデータをどんどん入れていっても、うまくいくと、エラーを回避して精度が頭打ちせずに上がっていってしまうっていう現象が見えて、それもある種の現象的ブレイクスルーって言われてますね。
(高棹) それは面白いですね。ある意味、生データ食わせるっていうのは良いことだと思うんです。なぜかっていうと、僕らの主観で、「これはノイズだ」と思って消したのが実はノイズじゃなかったかもしれないし、ディープラーニングによってどこがノイズかを彼らが正確に判断して、それでさらに精度が上がったのかもしれない。
(中島) ちょっとその図に戻るんですけど、普通は物理現象があって、いろいろ実験した結果、こういう法則があるって人間が考えるわけですよね。今の場合だと、現象に対応するのは生データだと思って、生データがいっぱい入ってきて、何か関数っていうか法則みたいなものをディープラーニングが見いだすってことでいいんですか?ただし、どういうかたちで見いだしたかは僕らにはわからないと、そういうことですか?
(下野)
その理解で正しいと思います。私はディープラーニングの様な方向を掘り下げる専門家ではなくて、どちらかというと、我々の理解できる法則っていうものの表現をできる研究の姿っていうのを求めています。現象って多面的なんですよね。ある一側面だけを見ると、モデリング、最適化っていうニューラルネットワークの問題で設定できるんですけど、実際の脳の中では細胞の種類がまた多様に内在的に存在してますし、またそれが組み合わさっての全体がいきなり作られてるわけでなくて、ある種のレイヤーの構造ができたり、レイヤーの間でのスペシフィックなつながり方とかっていうのがあったり、さらに、活動の仕方でどういうタイプのものが、どういうスペシフィックなつながり方をしているのかって、そういったビルドアップの中で全体の機能を発現してると考えると、今ある知識から答えにいきなり向かってパフォーマンスを最適化されたとしても、そのモデルに対して次に得られた実験事実を、さらにどう組み込んだらよいかに、常に困るだろうと思うんです。でも、ちゃんとここは細胞が個々にあって、こういう配置になって、あるつながり方は未知で、ある種のランダムさは仮定していたけど、いずれわかってくれば具体化してゆける、っていう形で表現できていれば、データが積み上がっていく。またデータが出てくれば、分からないところを埋めればいいという形なら、ちゃんと積み上がっていくので、建設的に知識が現実に近づけていけるというストラテジーを、われわれは考えられている。ある側面だけを見て最適化すると、一瞬ぼんってある方向性では話が進むんですけど、それをじゃあ次のステップ、次のステップっていうのを多面的な情報を積み上げるときには、どうしていくんだろうっていうところが個人的に悩むところです。 一方で、最適化っていうのは、それとは別に予測性能が上がればいいっていう現象に対して使う。そういうのでいい問題ってあるんですね。例えば、モデルの素材をたくさん用意して、適切に入力して、現実に非常にうまく予測するそれらの組み合わせ方として得ようという様な問題。そういう問題には、ブラックボックス的なアルゴリズムっていうのも結構使っていこうとしてるというところはありますね。
(川中) いや~、面白いって。私、人工知能とはちょっと離れるんですけども、要するに、基本原理はよくわかんないけど、予測ができればいいってする立場って、宇宙物理でも実はあるんですね。超新星爆発は星が一生を終えるときに起こるんですが、タイプが二つあって、一つは Ia 型超新星爆発っていうのと、もう一つは重力崩壊型超新星爆発。で、Ia型超新星爆発っていうのは、白色矮星と呼ばれる太陽ぐらいの星が一生を終えたあとに作る高密度天体があるんですけども、大きさが地球ぐらいで温度は1万°Cぐらいっていう。何らかの機構で、こいつの質量が外からガスが降り積もることによって増えると、核暴走反応が起こって爆発するっていう現象なんですね。で、この Ia 型超新星爆発って、もう宇宙のあちこちで結構見つかってるんですけども、これの特徴として、明るさが大体どの Ia 型超新星爆発も同じだっていうのがあるんですね。明るさがどんな Ia 型超新星爆発も同じだということは、それを見ると、そこまでの距離が推定できるってことなんですね。見かけの明るさがこれぐらい。でも、実際の明るさはこれぐらいのはずだから、この Ia 型超新星爆発は、これぐらい離れてるはずだっていうのが。そうすると、ある銀河の中で Ia 型超新星爆発が起これば、その銀河までの距離が推定できると。で、いろんな銀河までの距離を推定することで、実は宇宙がどのように膨張してるかっていうことがわかるわけなんですね。それを大規模にしていくことによって宇宙の膨張の歴史っていうのがわかって、実は最近の宇宙は膨張速度が加速してるっていうことが前世紀にわかったんですね。これはノーベル物理学賞を受賞するぐらい大きな発見なんです。それまで宇宙膨張っていうのは、どちらかというと減速してるんじゃないかと思ってた人が多いんですけど、むしろ膨張は加速しているということがある。問題は、Ia型超新星爆発がいかにして実現するかっていうことは、実はまだわかってないんです。だから、それで言うと、本来ならば Ia 型超新星爆発っていう現象がありますと。で、それの法則を一旦見いだして、爆発の様子っていうのを、①,②,③の矢印をたどって現象に適用するっていう、これが完成して初めてそれを道具として使うっていうことがなされれば一番理想なのかもしれないですけども、すっ飛んでるわけですね、ここは。どういう法則が絡み合って爆発するかっていうのが完全にわかってない。
(中島) じゃあ、シミュレーション上では爆発してくれないとか、そういうことですか。
(川中) シミュレーションで爆発してくれないんです(笑)。だから、爆発させるようなシミュレーションっていうのは、どこか本当にわかってないようなところをつけ足したりしてるわけですよね。観測を完全に再現するっていうことはできてないけど、何か予測はできるっていう話ですよね。だから、宇宙がどのように膨張してるかっていうことは実際わかったわけなんです。これはこうらしいぞっていうことで、宇宙の進化だったり宇宙の現象っていうのを予測する能力のある理論っていうのは、それはそれで重要視されると。一方で、宇宙の現象から何か法則を見いだすっていうことも大事で、私はこっちはすごい大事だなと思って、割とこっちは力を入れてるとこではあるんですけども、決して相反するものじゃ全然なくって、協力していかなくちゃいけない話ではありますよね。
(下野) そうですね。