「生命のかたち」特別シンポジウム「意識・脳・身体──生命から世界へ」報告
高橋 惇

「生命のかたち」特別シンポジウム「意識・脳・身体──生命から世界へ」報告 高橋 惇
日時
2017年1月14日(土)13:00-17:00
場所
三鷹天命反転住宅 In Memory of Helen Keller
担当教員+ゲスト講師
小林康夫(本学大学院 IHS)
池上高志(本学大学院 総合文化研究科)
金井良太(Araya Brain Imaging)
郡司ペギオ幸夫(早稲田大学 理工学術院)
山田せつ子(コンテンポラリー・ダンサー)
主催
東京大学大学院博士課程教育リーディングプログラム「多文化共生・統合人間学プログラム(IHS)」教育プロジェクト1「生命のかたち」

シンポジウムを通じて印象的だったのは、人工知能・機械学習の話題がちらほら散見されたことである。素朴に考えれば、今回のシンポジウムのテーマである「意識」と昨今話題になっている人工知能・機械学習は基本的に関係ない。「意識」は「知能」はどちらも人間(に限らないかもしれないが)の精神現象の一側面だが、異なるものである。ましてや機械学習などの技術が果たしてどれほどまで人間知性を捉える役割を担えるかは全くの未知数である。

しかし、それでもその話題が持ちきりであったことは興味深い。もしかしたら「意識」と「知性」には深い関係があるのかもしれない。そう感じさせる話が出てきたことは面白かった。何をもってして「意識」とするかの問題は一旦脇に置いておくとして、「自己を参照し、予測する能力」を付加した機械学習のプログラムは学習効率が上がった、という話である。ある意味これは「意識」によってより高次の「知性」を得られる可能性を示唆しているように感じた。しかし高次の自己認識能力などと意識がどれほど関係があるかも、現時点では正直なんとも言えない。自己認識なき意識が存在可能かどうかはそれ自体興味深い問いであり、答えは断言できないように思う。もちろん素朴に考えれば「自分」を認識できないような意識は、意識とは認め難いような気もするが、素朴に思いつくような形態とは異なる状態の意識も排除する理由はない。もちろん、まず考えるべきは我々がよく知る通常の意識であるとするなら、自己認識能力は意識の必要条件であると言って良いかもしれない。もう一つ非常に気になったのが、最後にも質問させていただいた「理論家の役割」である。特に池上先生は現状から近未来にかけての、郡司先生はより未来を見据えた問題意識を持っていて面白かった。

理系の研究には「銅鉄主義」という言葉がある。「銅で○○の実験をしたら面白い結果が出た。次は鉄でもやってみよう」という態度のことである。銅で見つかった面白い現象が鉄ではどのように現れるのかを知ることは、(例えば)金属における統一理論を作る際に参考になるため、必ずしも悪い側面だけではない。しかし機械学習技術の発展によって早晩この手の研究の銅鉄主義的な部分は機械がオリジナルの論文が出てからどんな人間よりも早くこなせるようになってしまうことは想像に難くない。オリジナルの論文を読んでその論文にある「新奇性のある面白さ」を理解し、それを他の物質なりなんなりに拡張する、という機械学習が技術的にどれほど困難かはさておき、科学者もしくは理論家の職を奪い得る発展の中で最も早く実現されることは間違いない。これには普通の科学者の感覚から言うと「自分の頭で考えて研究」していれば問題は無かろうという反応が率直には出てくるが、これは池上先生の認識に近い。例えば、現状の理論物理学ではその理論的な応用のしやすさから様々な種類の「エントロピー」が定義され、解析に利用されている。具体的には神経科学の分野でも「自由エネルギーアプローチ」というものが最近流行しており、これは本質的にはエントロピーの応用である。これは一見「神経科学に物理的手法を当てはめる」という風に見え、興味深く感じられるかもしれないが、本質的にはエントロピー最大化原理を数多ある他分野の最適化問題に当てはめただけとも言える。その意味では「分野をまたぐ広い意味での銅鉄主義」に他ならない。そのような研究は「学際的」であるとして評価されやすいが、そればかりでは最終的に機械学習にお株を奪われてしまうだろうというのが池上先生の意見であると思う。

以上の例に関しては結局銅鉄主義を超える創造的な研究をしていれば問題ないという解決策(?)があったが、機械学習は潜在的にそれよりもはるかに強力になりうる。例えば、最終的にどれだけの人間に「納得感」が生まれたかを理論毎にデータ化し、「納得感」を高めるように学習させれば「納得感の高い」理論を次々と生み出す枠組みが作れるかもしれない。そうなってしまったら、いよいよ人間の研究者の出る幕はなくなってしまう気がする。仮にそのようになってしまっても、結局研究というのは研究者の好奇心によって進められる営みなのだから、人間は機械のことは気にせず好きに研究を続ければ良い、というのが金井さんの見解だったと理解している。一方で私は、そのような学習は今のままの機械学習では到達されないのではないかと考えている。これは、機械学習には基本的に膨大な量のデータが必要となるが、出力としての新理論の「納得感」を最適化させるためには膨大な数の「理論」が必要なためである。残念ながら実験などから出てくる生のデータ(現在の機械学習で用いられている)に比べると人類が手にしている理論の数は圧倒的に少なく、通常の意味での「学習」ができないためである。

楽観的なことを書いたが、これはあくまで「現時点での機械学習の技術では本質的にレシピが欠けている」というだけであり、将来的に可能性が0であるという主張をしているわけではない。一般的な人工知能(GAI)が開発されれば人間と比較して能力が勝るか否かは完全に電力とPCの容量の問題になると思われる。その時には、金井さんのような見解で人間はようやく生きる意味を追求できるようになるのかもしれない。

ihs_r_1_170114_mitaka_01.jpg
ihs_r_1_170114_mitaka_02.jpg
ihs_r_1_170114_mitaka_03.jpg