旧帝志望受験生の日常

難関国立理系志望の浪人生です。普段の生活、勉強内容、模試の結果などをさらしていきます。

【AIに感情はあるのか】ロボットに倫理感をもたせるために

ロボットに倫理感を持たせるための具体的な研究

人の手を離れて自律的に動作するロボットが我々の社会の中で様々な役割を担うようになったら、そうしたロボットにも「倫理」が実装されるべきだとする考えはアイザック・アシモフロボット三原則に言及するまでもなく古くから存在する。ロボットが人間と同等の「行為者」とみなされるか否かにかかわらず、人々の福利がロボットの動作の影響を受けることになるなら、ロボットの動作には何らかの安全策が必要だからだ。問題は、ロボットに実装されるべき「倫理」とはいかなるものであり、そしてどうやってそれを実装すればよいのか、という点である。倫理学の中でも「規範倫理学」と呼ばれる分野において、我々の倫理的正当化がどのようになされるべきかという問題には様々な答え方が提唱されてきた。例えば行為の是非はその結果によって判定するべきだとする功利主義、動機や普遍化可能性によるべきだとするカント的義務論、そして個々の行為ではなく行為者の性格や人柄を重視するべきだとするアリストテレス的徳論理などがある。これらの各理論を人工知能に実装しようとする試みは1990年代末より様々な研究者によって散発的におこなわれてきた。しかし「倫理学理論をどのように実装するべきか」という問いに入る前に、そもそも「どの理論を採用すべきか」という問題に決着がつかないままであった。人間が採用すべき倫理学理論に関して意見の一致が見られない以上、ましてや人工知能が採用すべき倫理学理論に意見の一致が期待するべくもないのだ。ロボットの倫理エンジンをつくりあげるために、構想された契約主義的アルゴリズムを具体的なロボット機器に応用する試みがなされる。例えば、自動運転車が不可避的な交通事故に巻き込まれた際には「全体の被害を最小限に留める」戦略よりも、「生じうる被害の中でも最大の被害を最小化する」戦略が選択されるべきだとする。また、病気や怪我の診察をおこなう医療ロボットや災害時に治療を要する患者を救出するロボットに対して同様のアプローチが行われる。こうして人工知能に関連する具体的な倫理的問題の事例においても、契約主義的アルゴリズムに基づく戦略の有望さが示されることになる。「人間にとって道徳とは何なのか」という基礎的問題から、具体的な人工知能の応用方法までを視野に入れながら、「倫理学理論のロボットへの実装」を構想することがとても重要である。アルゴリズムへの実装可能性の問題を脇に置けば、最大の争点は「倫理学理論の評価基準」になるだろうと思われる。ロボットに倫理を教える中で試した戦略は、そもそも倫理学理論に優劣をつけるという問題を回避することにあった。それを回避することによって、計算可能性という一点においてのみ倫理学理論の評価をおこなうことが可能になった。また「道徳文法」と「合理的意思決定」の二点を鍵として、理論そのものの是非と実装の容易さの評価の一致を試みた。道徳は一種のゲームであり、だからこそゲームの思考エンジンをベースにした倫理エンジンが構想される。結局はどの理論に沿った倫理がロボットにとって真に望ましいものなのかを決める手段は、おそらく実際に各理論に沿って出来上がったロボットたちを比較するしかないだろう。どのように設計をすれば、自立機会に倫理を実装したことになるのかという問題もある。しかしこの問題については、どの分野で、どのように使用される自律機械なのかという点に大きく左右される。人間と同様の情動や意図や責任が伴わなければ倫理とは言えないような領域もあるが、自動走行システムや医療診断システムの「倫理」に、人間とまったく同じ能力が必要だとは言えないだろう。今後、自律機械の判断や行動が人々の生活にますます大きな影響を与えるようになる。だが、あるべき未来を決めるのは我々人間の選択である。だからこそ、「我々はどのような社会で暮らしたいと考えているか」を問い直し、「自律機械の判断にはどのような基準が必要で、そしてそれは可能なのか」といった議論を行わなければならない。そしてもちろん、その結論が国や文化によって大きく異なる可能性もある。例えば、動物を模したペット型ロボットを患者や高齢者と触れ合わせることで、認知能力やQOLの改善をはかるロボットセラピーという療法がある。これは犬や猫などの動物との触れ合いによって生じる効果を、ロボットを用いることでより安全かつ安定して引き出そうとするものだ。このような自律機械の利用について、日本では好意的に受け止められ、問題視されていないものの、ヨーロッパでは逆に大きな反発を呼び、「ロボットを動物だと錯覚させ、高齢者を騙す行為だ」と言う論者すら存在する。このような日本とヨーロッパの自律機械に対する態度の違いは、社会的問題に対する世論の関心の大きさよりも、宗教的・文化的な背景が影響していることは想像に難くない。その違いを無視して倫理を論じるべきではないだろう。ロボットや人工知能の倫理問題は、すでに空想上の問題ではなくなっている。我々が考えるべき問題である。  

 

 

 

<参考文献> 
・Leben, D. (2018) Ethics for Robots: How to Design a Moral Algorism, Palgrave. 

 

・Tonkens, R. S. (2012). Out of character: on the creation of virtuous machines. Ethics and Information Technology, 14(2), 137 – 149. 

 

・Wallach, W. and Allen, C. (2009) Moral Machines: Teaching Robots Right from Wrong. Oxford University Press. (岡本慎平・久木田水生訳『ロボットに倫理を教える:モラル・マシーン』名古屋大学出版会、2019年) 

 

ロールズ、ジョン(川本隆史、福間聡、神島裕子訳)『正義論[改訂版]』紀伊國屋書店、2010年)