AIと倫理の問題について。
目次
AIと倫理の問題の概要
「AI倫理」という言葉もあるほど、AIが社会に与える影響は大きく倫理的な懸念も想定されており、企業経営においてはAIガバナンスという言葉も存在しています。
そのなかで、キーワードとなるのは、以下と考えられています。
- 信頼できるAI(Trustworthy AI)
- 責任あるAI(Responsible AI)
国内外のルール
ソフト・ロー、ハード・ロー
ソフト・ロー | ・公的機関だけではなく、業界団体・学会が定める自主i・ガイドライン ・契約時の業務の実施基準とされたり、裁判時の善管注意義務違反の参考とされたりする ・法的強制力はない ・迅速な変更が可能 ・個々の案件に即した柔軟な運用が可能 |
---|---|
ハード・ロー | ・法律、公的機関が定める遵守義務が生じるルール ・法的強制力がある ・成立・変更には議会の承認が必要で迅速なルールは難しい ・厳格な変更が可能 |
日本政府のルール
- 人間中心のAI社会原則(内閣府)
- AI利活用ガイドライン(総務省)
- 国際的な議論のためのAI開発ガイドライン案(総務省)
- AI原則実践のためのガバナンス・ガイドライン(経済産業省)
- 新AI事業者ガイドライン(総務省、経済産業省)
外国政府のルール
- Blueprint for an AI Bill of Rights(アメリカ・ホワイトハウス)
- Executive Order on Sale,Secure,and Trustworthy Artifical Intelligence(バイデン大統領令)
- AI RISK MANAGEMENT FRAMEWORK(アメリカ商務省NIST)
- AI法案等(EU)
- Ethics guidelines for trustworthy AI(EU)
国際機関のルール
- Recommendation of the Council on Artifical Intelligence(OECD)
- 広島AIプロセス(G7)
- GPAI(Global Partnership On AI)
- ISOフレームワーク(国際標準化機構)