AIと倫理①

AIと倫理の問題について。

目次

AIと倫理の問題の概要

「AI倫理」という言葉もあるほど、AIが社会に与える影響は大きく倫理的な懸念も想定されており、企業経営においてはAIガバナンスという言葉も存在しています。

そのなかで、キーワードとなるのは、以下と考えられています。

  • 信頼できるAI(Trustworthy AI)
  • 責任あるAI(Responsible AI)

国内外のルール

ソフト・ロー、ハード・ロー

ソフト・ロー・公的機関だけではなく、業界団体・学会が定める自主i・ガイドライン
・契約時の業務の実施基準とされたり、裁判時の善管注意義務違反の参考とされたりする
・法的強制力はない
・迅速な変更が可能
・個々の案件に即した柔軟な運用が可能
ハード・ロー・法律、公的機関が定める遵守義務が生じるルール
・法的強制力がある
・成立・変更には議会の承認が必要で迅速なルールは難しい
・厳格な変更が可能

日本政府のルール

  • 人間中心のAI社会原則(内閣府)
  • AI利活用ガイドライン(総務省)
  • 国際的な議論のためのAI開発ガイドライン案(総務省)
  • AI原則実践のためのガバナンス・ガイドライン(経済産業省)
  • 新AI事業者ガイドライン(総務省、経済産業省)

外国政府のルール

  • Blueprint for an AI Bill of Rights(アメリカ・ホワイトハウス)
  • Executive Order on Sale,Secure,and Trustworthy Artifical Intelligence(バイデン大統領令)
  • AI RISK MANAGEMENT FRAMEWORK(アメリカ商務省NIST)
  • AI法案等(EU)
  • Ethics guidelines for trustworthy AI(EU)

国際機関のルール

  • Recommendation of the Council on Artifical Intelligence(OECD)
  • 広島AIプロセス(G7)
  • GPAI(Global Partnership On AI)
  • ISOフレームワーク(国際標準化機構)

この記事が気に入ったら
いいね または フォローしてね!

  • URLをコピーしました!
目次