【特別講演】金融関係者が押さえておきたいAI倫理
慶応義塾大学法科大学院 教授 山本龍彦 氏
AI倫理に関する動向として、日本では内閣府が2019年3月に「人間中心のAI社会原則」を発表し、また6月15日に「AI利活用ガイドライン案」の意見公募を開始した。世界的動向として、EUでは、GDPR(一般データ保護規約)の運用が2018年5月に開始され、また2019年4月には「信頼可能なAIのための倫理原則」を欧州委員会が発表した。またOECDでは2019年5月に「AI原則」という理事会勧告が採択された。
内閣府の「人間中心のAI社会原則」では、人間中心の原則 AIの利用は、憲法及び国際的な規範の保障する基本的人権を侵すものであってはならないと記されている。「AI利活用ガイドライン」では、公平性の原則(人間の判断の介在)について、AIによりなされた判断を用いるか否か、あるいは、どのように用いるか等に監視、人間の判断を介在させることが必要であると記されている。認定を受けてFintech事業を行う企業は、意見公募を活用すべき。また、日本のプライバシーに関する法はOECDの影響を受けてできたので、おそらく今回も、OECDのAI原則の影響を受けるだろう。
OECDの「AI原則」では、人間中心の諸価値と公正について、「法の支配、人権、民主主義的諸価値を尊重すべき。人間による判断の可能性のメカニズムを取り入れるべき。」と記されている。
信用スコアについて、スコア「利用」社会にとどまるべき。もし、民間の信用スコアと国の信用スコアが統合されると、スコア「監視」社会、スコア「監視」国家になってしまう。AmazonやJScoreで、性別の変更だけでスコアが変わることが指摘されたことがある。シカゴとフィラデルフィアが使う予測システムでは、黒人の再犯率を高く見積もってしまうことがわかったので、ウェイトを下げた。これらの問題は、少なくともReputationリスクはあることを意識すべきである。透明性、説明責任などが必要ではあるが、データを開示すると、評価が悪くなる行動を避けるようになるので開示にも限界がある。
プライバシーについて、日本のAI社会原則では示されている。欧米の法は、プライバシーフレンドリーなのではないか。EUでは、ドイツ連邦憲法裁判所で1983年に、情報自己決定権というプライバシー権利のようなものが憲法の解釈ででてきた。EU基本権憲章8条では、データ保護の権利が記されている。日本では、データ保護はデータ保護であり、個人情報と法は別で分けて考えられてきた経緯があり、外発的にデータ保護の考え方が出たのが事実である。
EUではDignity(尊厳:貴族、カント、ナチスの悪夢から)、アメリカではLiberty(自由:政府からの干渉を避けたい)で考えられる。日本(アジア)の特異性について、法の中で経済合理性を最大化するというのが欧米の考え方であるが、日本は逆で、経済合理性に法が関与しようとする違いがある。