人工知能の世界的な権威者であるマーヴィン・ミンスキー博士は笑いについて独特の考え方を打ち出しています。笑いとは計算回路が破綻しそうになるのを防ぐために、バグ、つまり無効な、あるいは破壊的な思考プロセスを見つけて、そのような演算を抑制して思考をリセットする効果があるというのです。例えば人工知能の計算回路に無限ループを作るバグが発生したとしましょう。この場合プログラムは永遠に計算から離れられず、計算回路はフリーズして人工知能は破綻してしまいます。人工知能を破綻から守るためには、破綻しそうな課題が与えられた時に、その課題を避けるか、計算回路をストップさせて思考をリセットする必要があります。人間の笑いにも同じような効果があると、ミンスキー博士は考えています。
イギリスの数学者であり哲学者でもあったバートランド・ラッセルは論理主義による数学大系を統合する一方で、自己矛盾に基づくパラドックス理論を展開して、完全に信頼できる常識的推論(例えば、AならばBで、BならばCである場合、AならばCであると言える等)の限界点を示唆しました。難しい言葉が並びましたので、思考を無限ループから守る笑いの機能を考えるヒントとして、「近さのパラドックス」の簡単な例を用いて、笑いの持つ本質的な機能の意味をより深く探っていこうと思います。
近さのパラドックスとは次のようなものです。10と11は近い数です。11と12も近い数です。これを永遠に続けると10と100万も近い数だと言えることになります。これは大人にとっては、ばかなジョークにしかならない戯言ですが、子どもにとっては真面目な疑問になり得ます。『これは明らかにおかしい所がある。前提だろうか、それとも論理だろうか。ところで前提は何だろう。もちろん{もしAがBの近くにあって、BもCの近くにあるとすれば、AはCの近くにある}ということだ。これには悪いところはない。それなら論理がどこか間違っているにちがいない。でもいま使っているのは、{AならばBで、BならばCで、AならばC}ということだけだ。どこが悪いんだ。ちっとも悪くないじゃないか!』
もしもこのような無限ループを作る思考回路に人工知能が陥った場合、どうすればいいのでしょうか?それは思考そのものを監視して、不健全な思考が始まりそうになると、思考をストップさせて、回路全体をリセットする機能が必要になるのです。このような思考そのものを監視する思考回路をミンスキー博士は「検閲エージェント」という名で呼び、AI(人工知能)における迷走の問題を解決する方法として大変重要であると述べています。機械に自分自身を検査させて、バグと迷走が思考回路を破綻させないために、「自分が今考えていること」を機械自身に検閲させる必要があるのです。人間の場合にも、子を持つ親はこのような出口のない迷走思考問題をまじめに考えないように子どもに教え、このような問題に至る思考を抑制するように、「それについて考えようとしない」ように、そしてそれらを「ナンセンス」すなわちジョークとして思考回路から放逐するように指導する必要があるのです。
(以上、山口昌男監修『反構造としての笑い』NTT出版に収められたマーヴィン・ミンスキー博士の論文の日本語訳を参考に著者が編集)
ミンスキー博士がここで述べていることは、人工知能の開発のみならず、子育ての現場でも参考になります。親たちは子どもの脳が馬鹿げた考え方に染まり、思考回路が変になりそうなときは、『そんな馬鹿馬鹿しい事!』と笑い飛ばしてしまうことを教えなければならないのです。そして人工知能で動くロボットにとっても、無意味で破壊的な思考回路が発生したときには、それを避けることが死活問題になります。こんな時にロボットもゲラゲラと大声で笑って思考回路をリセットする必要があると言うことなのです。
ゲラゲラと笑うことは高度な知性を持つ存在物にとって、無限の思考ループを回避して知性という高度なシステムを守るために必要不可欠な事だったのです。笑わないロボットが壊れるように、笑わない子どもの脳も壊れる危険性をはらんでいることを、子育て現場にいる私たちは肝に銘じなければなりません。