シリーズ白眉対談14「実験と理論とシミュレーション」(2018)

様々なシミュレーション

(中島)僕は実験で、研究しているのは量子シミュレーションと呼ばれるものなのですが、それ(高棹さんが最初に描いて下さったスキーム図)には収まらない感じです。例えば何か物理系Aがあって、この系はある方程式で記述されるのだけど、②にいきたいと思っても数値計算が追いつかない。例えば、流体力学のナビエ–ストークス方程式というのは直接解くのは難しいから、風洞実験という別の物理系Bを使って解くということをします。
(高棹)別のサイクルになるって感じですかね。
(中島)そうです。例えば今の風洞実験で言うと、本当に飛行機いちいち作っていたら大変ですけど、ナビエ – ストークス方程式のときはレイノルズ数っていう無次元の量さえ同じにすれば、基本的には同じ方程式で記述されるので、そこを同じにしてもっと作りやすい模型とかでテストするということができます。僕の研究は、それと同じようなことを量子系と呼ばれる物理系に対してやっているという感じです。
(下野)シミュレーションっていう概念自体がけっこう難しいですよね。意外に広がりがあるっていうことが今見えてきてると思うんです。今日対談するのを、これまで話したことから、どんな話になるだろうっていうのを私もシミュレーションしましたけど、なかなかうまくいかなかった。
(一同)(笑)
(下野)われわれの研究でお話をさせていただくとすると、いろんなシミュレーションというか、理論と現象の関係性っていうのがあるんですけれども、脳の中には、ニューロンっていう細胞が大量にあるのがまず問題です。その一つ一つのニューロンという素子の挙動を表現する方程式、それ自体が研究になるんですけども、その素子が大量に集まったらどんな挙動をするかっていうことは、うまく平均化できるというようなことを前提としないと議論が長く難しかった。これが、①の矢印ですよね。それからさらに平均化を超えて踏み込んだ研究が出てきて、非常にノンユニフォームになっているっていうことを真面目に考えはじめると、今度は実験データが足りていないとも気づきます。知りたいことは「法則」であり、究極的な理解であり、また情報の圧縮した姿としての「解」です。こういったものを抜き出せたら、一歩は理解が進んだということで、まだデータが足りていないから、データに戻ってそれを取っていくっていうことと、でも取るときには、常に何か、どういうかたちで話がこれまでの抽象化された姿よりも改良されてるのかっていうのを意識しながらデータを取っていってるっていうのが、われわれのやっている研究の姿のような気がします。 高棹さんが描いてくださったスキーム図への別の見方として、①から②を介してから③で戻すか、①からその逆向きの矢印ですぐに現象(a)に戻すか、のどちらに力点を置くかっていうので研究のアプローチって多少個人差があるんですよね。つまり法則そして解を抜き出したいっていうところでは、しっかりと何か抽象化した表現を持ちたい。でも、もう一つの考え方は、何か現象の見た目を再現できればいいじゃないかっていう発想、あるいは自動化アルゴリズムに頼っても、予測性能が高ければいいという発想があります。その前者寄りの人と後者寄りの人の間での、ある種のイデオロギー的な視点の個人差といいますか、そういったものも見受けられる気がしますね。
(高棹)なるほど、僕は本当②しかやったことなくて。
(川中)でも、高棹さんも一応現実の現象を意識されてないわけじゃないですよね。
(高棹)ないわけじゃないです。ただ、数学の観点だと、まず得られた法則、方程式に解があるかっていうのは慎重に検証しなきゃならない。先ほど出てきたナビエ–ストークス方程式って、ミレニアム懸賞問題になってますけど、要はこの方程式が数学的に解けますかっていうのが、未解決という大問題があるわけで。
(中島)いや、物理のセンスでいくと、解がないということはないだろうっていう(笑)。流せば流れるし、例えば、初期条件に対してすごく敏感になるとか何か乱流になるとか、そういうことはあるだろうけど、解がないってことはないだろうと思うわけですよ。
(高棹)例えばあるところで特殊な渦ができて、その渦のスピードがある時刻で無限大に発散しちゃうことがあるのではないかとか、そういう意味です。
(下野)それは、特異点とかの話でしょうか?
(高棹)そう思ってもいいかもしれません。

ミクロとマクロ

(下野)その問題意識って、われわれもかなり共有しているところがありまして、ミクロとマクロの関係性って、数学を作るときに、イプシロン-デルタ論法(注2)みたいな二つの大きさを用意して、その間の相対関係から無限とかそういったものを決めていくっていう、ロジカルな構造っていうのはありますよね。
(高棹)ええ。
(下野) そのときに発散してしまうっていうのは、そのロジックの立て方の根本のところの、ある種の抱えている難しさというか、そういったものなのかなとも思ってまして、だから、われわれには素子としてはニューロンというものがあって、それらがインタラクションして、という見方は離散的ですけれども、それを遠くから引いて見ると、もうあたかも連続的に存在してるかのようなふうに見えて、活動が伝搬しているように見えると。それはある種の連続化なんですけれども、よく見たら素子としても離散は存在していて、じゃあ、どこからある種の連続領域と見れるのかっていう、その限界点みたいなところ、スケールっていうのは、ある見方からすると、これは一番難しいというか。
(高棹)そういうのって、マルチスケールとか呼んだりしますよね。人に話しかけたら返事が返ってくるという現象は、すごくマクロな視点ですけど、本来だったら連続的に見れたほうがいいわけですよね。でもそれってなかなか、今のところは下野さんの専門のような脳科学の分野と、心理学というものに分かれてる。そこを何か連続的につながると面白いっていうのはありますよね。
(下野)そうですね。モチベーションとしてる背景は、その面白さに非常に近いです。先ほどの無限の話をもう一度、整理しておくと、ミクロからマクロを見てしまうと、ある意味、無限に大きくなったサイズの姿で、見通しが立てれなくなってしまって困るっていう姿になって、逆に上から下を見ると、もう1つ1つの点が小さすぎて見えなくなってしまうような世界になってる、という話でした。これは、われわれの研究での計測の限界点ともリンクしているんですよね。様相をマクロに全部測れれば、ある意味それは連続化して見ていくことはできるんですけど、どうしてもミクロにも見たい。構造面ではミクロとマクロ両方見る技術は、これはすごく技術的なブレイクスルーでもあるんですけど、少しずつ揃ってきている。 ただ活動の部分は、時間的に変化している。この対談をするためにでも、脳はいろんな機能を果たしてるわけですけど、やっぱり時間的な側面っていうのが大事になっている。で、ネットワークとして配線されていても、それがどういうふうに使われるのか。時間的に変化するのか、我々の用語でレパートリーっていいますけど、それがまた大事で、その時間的な側面まで考えようとしたときには、まだ計測技術で深刻な難しさがあります。ミクロに見ると計測領域が限定されますし、マクロに見ると一つ一つのグリッドサイズの解像度の限界が今度は難しくなるっていう、現在の計測法の限界が、ある意味、理論的にも用意できるものの限界にダイレクトに影響してるっていうような構図になっています。
(川中)物理の世界でも、ミクロに追求していこうっていう流れって、特に京都だから、もう湯川、朝永あたりからずっと続いてるところあるんですけども、確かにその方向性は、京大は非常に強くて、すごい優秀な方がいっぱいいます。私もだから実際学部時代は、やっぱりそれこそが究極の物理だろうみたいな感じで思ってて、ある意味もちろんそうかもなという気持ちは今でもあるんだけども、どうやらミクロまで見ていってもわかんないことってやっぱりある。例えば、重力多体系問題っていうのは、たとえ素粒子の正体がわかったからといって、そっちのことは全然わかんないわけですよね。一つ一つの法則はわかっても、じゃあ、それがたくさん集まったときに何が見えるか、それを人間がどう認識するかっていうのは、結局マクロの話で見ないと絶対にわかんないことで。さっきのお話にもありましたけど、いかに抽象化するか、いかに数式とかに落とすかっていうのは、またミクロを追求するのとは別のセンスが必要になりますよね。(中島)だから、物性物理のアンダーソン(注3)という人は、“More is different”、たくさんあるっていうのは、もうちっちゃい少数系とは全然違っているんだよっていうことを言っています。そういう多体系になると、統計物理といって、いろんな統計的な性質で全体を見る必要が出てくるときもあるし、相互作用とかが入ってきたら、単体では出てこないような色々な現象を創発したり。材料とか物性系はまさにそういう世界ですね。
(下野)ちょっと踏み込むと、こういった話っていうのは、ある意味、複雑系って呼ばれた話で、もう20年前、30年前からいわれてた話ですね。最近何が違っているかといえば、本当にデータを取れるようになってきてるっていうことです。いわゆるビッグデータっていわれてますけれど、以前はデータが取れないっていうのを前提としたアプローチっていうのはいっぱいされていたわけですけど、本当に取れるようになってきて、しかも現象と、いわゆる、数理的な表現とのマッチアップ、ループっていうものを本当に回せるような時代になってきているっていうのが今のような気がしますね。
(川中)確かにそう。だからデータを取れるようになったり、より詳細に見れるようになったっていうおかげで、人間の頭のよさって、昔から今ではそんなに変わんないと思うんだけども、ループを回すのが早くなったっていうのは、現実的な時間で、それこそ人間の一生のタイムスケールぐらいでできるようになった。ただ、短時間で実際に現象を理解するとかの、知ることはできるっていう側面はある一方で、ある程度、装置なりコンピュータに任せるっていうことで、ブラックボックス化してしまうっていうとこありますよね。
(下野)そうそう。
(川中)例えば、シミュレーションって、要するにもう基本原理は人間が与えるけれども、その先をちょっとコンピュータに任せると。そうしたときに答えを出してくれますけども、その答えが本当にちゃんとこっちの想定している現象から出てきたものなのか、あるいは、コンピュータの中でちょっとの誤差が積もり積もって出てきてしまったものなのかっていうのは、すぐには区別つかない。


注2:数学において、極限を議論するための論法。
注3:Philip Warren Anderson:アメリカの物理学者。1977 年ノーベル物理学賞受賞。

1 2 3