不正競争防止法、AIの公平性・説明責任・透明性について。
目次
AI・ディープラーニングの全体像
- 人工知能
 - 機械学習
 - ディープラーニングの基本・応用
 - ディープラーニングの研究
 - AIプロジェクト
 - AI社会実装に伴う法律・倫理
 
不正競争防止法
概要
- 不正競争防止法の目的→「事業者間の公正な競争」・「これに関する国際約束の的確な実施」の確保
 
営業秘密
- 不正競争→「営業秘密の不正取得行為」が含まれる
 
- 秘密管理性
 - 有用性
 - 非公知性
 
限定提供データ
- 不正競争→「限定提供データの不正取得行為」が含まれる
 - 「限定提供データ」→「特許法・著作権法」によって保護されず、「営業秘密」にも該当しないデータ
 - 業として特定の者に提供する情報として電磁的方法により相当量蓄積され、および電磁的方法によって管理されている技術上または営業上の情報
 
- 限定提供性
 - 相当蓄積性
 - 電磁的管理性
 
AIの公平性・説明責任・透明性
- 「公平性・説明責任・透明性」→AIの社会実装と運用において、遵守すべき設計思想として参照される
 
公平性
- AIがバイアスを社会に反映させることがないように配慮すること
 - 機械学習モデルを作成する段階で、人種・性別・民族・文化等に対する不公平さを排除しなければならない
 
説明責任
- AIを用いた業務の内容と目的、社会問題が生じた場合の説明態勢を開示する責任
 
透明性
- 各プロセスが誰にでもわかるように説明できる状態
 - 必ずしも最新のアルゴリズムではなく、活用実績が十分にあって、信頼性の高い従来のモデルも検討すべき
 - 「ブラックボックス問題」→AIの社会実装を阻止してしまう要素
 - ブラックボックス性の解消に向けた取組み→「XAI(Explainable AI;説明可能AI)」の研究
 - 出力結果に至った経緯や判断の根拠を説明できるAIの仕組み
 
人間中心のAI社会原則
- 2019年、「人間中心のAI社会原則」の原案公開
 - 人間の尊厳が尊重される社会
 - 多様な背景を持つ人々が多様な幸せを追求できる社会
 - 持続性ある社会
 
人間中心のAI社会原則
| 目指すこと | 人間がAIに過度に依存したり、AIが人間の行動を制限したりするのではなく、人間が自身の能力を発揮するための道具としてAIを使いこなして、人間の尊厳が尊重される社会の構築 | 
|---|---|
| 基本理念 | AIの設計思想の下において、人々がその人種・性別・国籍・年齢・政治的信念・宗教等の多様なバックグラウンドを理由に、不当な差別をされることなく、すべての人々が公平に扱われなければならない | 
7つの基本原則
- 人間中心の原則
 - 教育・リテラシーの原則
 - プライバシー確保の原則
 - セキュリティ確保の原則
 - 公正競争確保の原則
 - 公平性、説明責任及び透明性の原則
 - イノベーションの原則
 
