企業に説明責任を求める『AI』の基本原則
企業に説明責任を求める『AI』の基本原則
近年の人工知能(『AI』)は、ディープラーニング(深層学習)によりビッグデータ(膨大なデータ)を使って精度の高い結論を素早く導き出せるようになったことから、急速に進化し、活用の幅が広がっています。しかし、その判断基準などは表に出にくく、また『AI』を活用する際の倫理面などへの懸念もあります。これらなどについて国際的にも議論が進む中、日本政府は今月にも『AI』に関する基本原則を公表する予定です。 |
【ポイント1】技術の進化により、『AI』の活用の幅は拡大
一方で、判断基準が「ブラックボックス」化することへの懸念も
■近年、『AI』はディープラーニングによりビッグデータを使って精度の高い結論を素早く導き出せるようになったことから、急速に進化し、生活の様々な場面で『AI』が活用されるようになりました。例えば、金融機関では『AI』が融資の判断に関わったり、就職採用活動において『AI』が書類選考などの合否判定に関わったりしています。
■こうした中で、『AI』が物事をどのように判断したかの基準は表に出にくく、いわゆる「ブラックボックス」化することへの懸念もあります。また、『AI』に学習させるデータに偏りがあると判断が偏ってしまったり、性別や国籍などを判断材料としたことによって差別が生じるリスクなども指摘されています。
【ポイント2】政府は『AI』に関する7つの基本原則を公表予定
『AI』の判断について、使う企業に説明責任を求める
■日本では、政府が「人間中心のAI社会原則検討会議」において、『AI』をより良い形で社会実装し、共有するための基本原則を策定しており、今月中にも公表される見込みです。
■報道によるとこの基本原則とは、1.『AI』は人間の基本的人権を侵さない、2.誰もが『AI』を利用できるように教育を充実させる、3.個人情報を慎重に管理、4.『AI』のセキュリティーの確保、5.公正な競争環境の維持、6.『AI』を利用した企業に決定過程の説明責任、7.国境を越えてデータを利用できる環境を整備、の7つからなるものです。これにより、『AI』が物事を判断する場合に、その説明責任が企業に求められることになり、『AI』が下した判断理由などが分かりやすくなると考えられます。
【今後の展開】基本原則は世界に発信する見込み、国際的議論の進展に期待
■『AI』に関するルールは、今年から経済協力開発機構(OECD)が、『AI』の信頼構築と社会実装を促す原則などの理事会勧告の策定を始めたほか、欧州連合では『AI』倫理等に関するガイドライン作成の議論を進めています。日本は、今回発表予定の7つの基本原則を、来年6月に大阪で開催予定の20カ国・地域首脳会議(G20サミット)などで参加国に発信すると見られ、今後も国際的な議論が進んでいくと期待されます。
(2018年12月 7日)
印刷用PDFはこちら↓
関連マーケットレポート
■当資料に基づいて取られた投資行動の結果については、当社は責任を負いません。
■当資料の内容は作成基準日現在のものであり、将来予告なく変更されることがあります。
■当資料に市場環境等についてのデータ・分析等が含まれる場合、それらは過去の実績及び将来の予想であり、今後の市場環境等を保証するものではありません。
■当資料は当社が信頼性が高いと判断した情報等に基づき作成しておりますが、その正確性・完全性を保証するものではありません。
■当資料にインデックス・統計資料等が記載される場合、それらの知的所有権その他の一切の権利は、その発行者および許諾者に帰属します。
■当資料に掲載されている写真がある場合、写真はイメージであり、本文とは関係ない場合があります。
三井住友DSアセットマネジメント株式会社
金融商品取引業者 関東財務局長(金商)第399号
加入協会:一般社団法人投資信託協会、一般社団法人日本投資顧問業協会、一般社団法人第二種金融商品取引業協会