非合理性がどうして得をすることになるのか?
非合理性とは、合理性を含まない認識、思考、会話、行動のことをいいます。
一般的に合理性とは、道理にかなった性質や、むだなく能率的に行われるような物事の性質をさします。
道理にかなっていなかったり、能率的ではない行動が得をしてしまうという矛盾がどうして生じてしまうのか、という問いです。
このように本来ならば、合理的な判断に基づけば無駄がなくなるはずだと多くの人は考えます。
そこで、社会学で扱われる「囚人のジレンマ」ゲームを実際に見ていくことでこのパラドックスを解明していきましょう。
非合理性が得をする「囚人のジレンマ」
非合理性が得をするのは、「囚人のジレンマ」ゲームを見ていくとわかります。
このゲームでは、非合理的な判断をした方が得になるのです。
今回、参考にしたのは「ヒューマンエラーの心理学」(2019 一川誠)です。
囚人のジレンマ
物語形式でみていきましょう。
ある国で、悪いことをした共犯者2人が刑務所に入れられました。
しかし、2人を有罪にするだけの証拠を警察は持っていません。
そこで、警察は2人を別々にして連絡を取れないようにし、罪を吐かせることにしました。
3つの条件を2人に言います。
①どちらか1人だけが自白したら、その1人は釈放し、片方は懲役3年
②2人とも自白したら、懲役2年
③2人とも黙秘した場合、証拠不十分で、軽犯罪のため懲役1年
この表からわかることは、2人とも黙秘した場合が最も刑が軽いということです。
けれど、それには問題があって、2人は相談ができません。
A君は考えました。
この場合、僕が白状することによって懲役2年になったほうが得になる。
この場合、僕が白状することによって釈放されたほうが得になる。
そしてBさんもA君のことを考えます。
2人は白状する場合と白状しない場合のどちらの場面も想定して、合理的な判断をしました。
けれど、どちらも刑期が最小になる選択肢③は選ばれませんでした。
合理的な判断なのに、2人にとって最適の結果をもたらさないというジレンマが生じます。
最適な結果は「非合理的」な信用に基づき、どちらも何も言わないという選択肢です。
ここで信用という言葉がでてきました。
この囚人のジレンマを一般化して、非合理性と信用を考えていきます。
非合理性を合理的なものにすることはできるのでしょうか。
非合理性と信用
非合理性に基づく信用は、合理的判断よりも得をすることが「囚人のジレンマ」からわかりました。
「囚人のジレンマ」は1950年にランド研究所で考え出されたものです。
この問題の開発者は、誰かがこの囚人のジレンマのパラドックスを解決してくれることを願っていました。
しかし、解決方法は見つからないという考えにいたったそうです。
損得の追求を合理的にしていった結果よりも、信用に切り替えた方が得をするという結果。
その得を経済に応用すると信用経済という考え方ができます。
合理性を追求していった結果、非合理的な信用が一番得をするという経済です。
この信用経済で考えたいことは、人工知能との関係です。
現代の経済は人工知能と結びつけて考えられていますが、人工知能と言えば、合理性に基づいていると私たちは考えます。
合理的な人工知能は信用を重要視できるのでしょうか?
信用経済と人工知能
人工知能の進化によって、人工知能が経済や政治を考えていくのではないかという論があります。
その中で、信用経済になっていくことと、人工知能が経済をまわしていくことは一見矛盾するように思えます。
人工知能といえば、合理性に優れているというイメージがつきまといます。
しかし、実はこの人工知能はこの非合理性も学んでいくという実験結果がでました。
「囚人のジレンマ」ゲームを無期限に繰り返していくとします。
すると、人工知能は協調性を重要視する「おうむ返し戦略」が優位だと判断しました。
これは相手が信頼を選ぶと同じ信頼を選ぶ。
相手が裏切ると裏切るという戦略です。
人工知能も協調を学びます。
さらに、機械は機械どうしの場合の方がより協力的判断になりやすいことが判明したそうです。
とすれば、人工知能に経済を任せてもいいと思われますが、そこで人が考えなければいけないのは、その枠組みになります。
機械は、指示された通りの判断を行いますが、その結果が望ましいものになるかどうかは、その枠組みを決める人間にゆだねられるからです。
人間の幸せや人権などを枠組みにおいて、機械を判断材料の道具と考えることも可能ということです。
非合理性が合理的になる例-まとめ
非合理性が合理的になる例を、「囚人のジレンマ」から見ることができました。
「囚人のジレンマ」では、非合理的な信用の判断をした場合にもっとも得になります。
そのことから、現代社会がなぜ信用経済に移行しているか、という理由の一つを見ていきました。
人工知能の判断でも、ゲームを繰り返していくと協調性を選ぶようになっていきます。
人工知能も非合理性を学ぶのです。