| ENGLISH |
(下野) その問題意識って、われわれもかなり共有しているところがありまして、ミクロとマクロの関係性って、数学を作るときに、イプシロン-デルタ論法(注2)みたいな二つの大きさを用意して、その間の相対関係から無限とかそういったものを決めていくっていう、ロジカルな構造っていうのはありますよね。
(高棹) ええ。
(下野) そのときに発散してしまうっていうのは、そのロジックの立て方の根本のところの、ある種の抱えている難しさというか、そういったものなのかなとも思ってまして、だから、われわれには素子としてはニューロンというものがあって、それらがインタラクションして、という見方は離散的ですけれども、それを遠くから引いて見ると、もうあたかも連続的に存在してるかのようなふうに見えて、活動が伝搬しているように見えると。それはある種の連続化なんですけれども、よく見たら素子としても離散は存在していて、じゃあ、どこからある種の連続領域と見れるのかっていう、その限界点みたいなところ、スケールっていうのは、ある見方からすると、これは一番難しいというか。
(高棹) そういうのって、マルチスケールとか呼んだりしますよね。人に話しかけたら返事が返ってくるという現象は、すごくマクロな視点ですけど、本来だったら連続的に見れたほうがいいわけですよね。でもそれってなかなか、今のところは下野さんの専門のような脳科学の分野と、心理学というものに分かれてる。そこを何か連続的につながると面白いっていうのはありますよね。
(下野) そうですね。モチベーションとしてる背景は、その面白さに非常に近いです。先ほどの無限の話をもう一度、整理しておくと、ミクロからマクロを見てしまうと、ある意味、無限に大きくなったサイズの姿で、見通しが立てれなくなってしまって困るっていう姿になって、逆に上から下を見ると、もう1つ1つの点が小さすぎて見えなくなってしまうような世界になってる、という話でした。これは、われわれの研究での計測の限界点ともリンクしているんですよね。様相をマクロに全部測れれば、ある意味それは連続化して見ていくことはできるんですけど、どうしてもミクロにも見たい。構造面ではミクロとマクロ両方見る技術は、これはすごく技術的なブレイクスルーでもあるんですけど、少しずつ揃ってきている。 ただ活動の部分は、時間的に変化している。この対談をするためにでも、脳はいろんな機能を果たしてるわけですけど、やっぱり時間的な側面っていうのが大事になっている。で、ネットワークとして配線されていても、それがどういうふうに使われるのか。時間的に変化するのか、我々の用語でレパートリーっていいますけど、それがまた大事で、その時間的な側面まで考えようとしたときには、まだ計測技術で深刻な難しさがあります。ミクロに見ると計測領域が限定されますし、マクロに見ると一つ一つのグリッドサイズの解像度の限界が今度は難しくなるっていう、現在の計測法の限界が、ある意味、理論的にも用意できるものの限界にダイレクトに影響してるっていうような構図になっています。
(川中) 物理の世界でも、ミクロに追求していこうっていう流れって、特に京都だから、もう湯川、朝永あたりからずっと続いてるところあるんですけども、確かにその方向性は、京大は非常に強くて、すごい優秀な方がいっぱいいます。私もだから実際学部時代は、やっぱりそれこそが究極の物理だろうみたいな感じで思ってて、ある意味もちろんそうかもなという気持ちは今でもあるんだけども、どうやらミクロまで見ていってもわかんないことってやっぱりある。例えば、重力多体系問題っていうのは、たとえ素粒子の正体がわかったからといって、そっちのことは全然わかんないわけですよね。一つ一つの法則はわかっても、じゃあ、それがたくさん集まったときに何が見えるか、それを人間がどう認識するかっていうのは、結局マクロの話で見ないと絶対にわかんないことで。さっきのお話にもありましたけど、いかに抽象化するか、いかに数式とかに落とすかっていうのは、またミクロを追求するのとは別のセンスが必要になりますよね。(中島)だから、物性物理のアンダーソン(注3)という人は、“Moreis different”、たくさんあるっていうのは、もうちっちゃい少数系とは全然違っているんだよっていうことを言っています。そういう多体系になると、統計物理といって、いろんな統計的な性質で全体を見る必要が出てくるときもあるし、相互作用とかが入ってきたら、単体では出てこないような色々な現象を創発したり。材料とか物性系はまさにそういう世界ですね。
(下野) ちょっと踏み込むと、こういった話っていうのは、ある意味、複雑系って呼ばれた話で、もう20年前、30年前からいわれてた話ですね。最近何が違っているかといえば、本当にデータを取れるようになってきてるっていうことです。いわゆるビッグデータっていわれてますけれど、以前はデータが取れないっていうのを前提としたアプローチっていうのはいっぱいされていたわけですけど、本当に取れるようになってきて、しかも現象と、いわゆる、数理的な表現とのマッチアップ、ループっていうものを本当に回せるような時代になってきているっていうのが今のような気がしますね。
(川中) 確かにそう。だからデータを取れるようになったり、より詳細に見れるようになったっていうおかげで、人間の頭のよさって、昔から今ではそんなに変わんないと思うんだけども、ループを回すのが早くなったっていうのは、現実的な時間で、それこそ人間の一生のタイムスケールぐらいでできるようになった。ただ、短時間で実際に現象を理解するとかの、知ることはできるっていう側面はある一方で、ある程度、装置なりコンピュータに任せるっていうことで、ブラックボックス化してしまうっていうとこありますよね。
(下野) そうそう。
(川中) 例えば、シミュレーションって、要するにもう基本原理は人間が与えるけれども、その先をちょっとコンピュータに任せると。そうしたときに答えを出してくれますけども、その答えが本当にちゃんとこっちの想定している現象から出てきたものなのか、あるいは、コンピュータの中でちょっとの誤差が積もり積もって出てきてしまったものなのかっていうのは、すぐには区別つかない。