AIと倫理の問題について。
目次
AIと透明性
- ディープラーニングなどの複雑なモデルは、その判断過程がブラックボックスとなるという問題
- AI利用の旨、判断の根拠、AIの目的とその適切な利用方法、AIに関する責任者等、AIがもたらす影響など
- データの来歴(どのように生成され、どのように処理されてきたか)
- 「透明性」→開示の必要性が指摘される
- 「アカウンタビリティ」→AIに関して責任を負うことを意味する
- AIの出力がもたらす入力やパラメータ等を追跡できる追跡可能性
- 出力の原因を探ることができる検証可能性
- 責任者や担当組織の明確化
AIとセキュリティ
- AIにおける「セキュリティ」
- 学習用データを汚染するデータ汚染攻撃
- 敵対的事例(Adversarial example)を用いた推論結果の操作、推論結果を集めることによる学習用データやモデルの推測、細工したモデルの配布など
AIと悪用防止策
- 「ディープフェイク」→ポルノ、偽情報、詐欺、危険物製造方法の調査など
- サイバー攻撃へのAIの利用など
AIと雇用保護
- 仕事の喪失からの労働者の保護
- 労働者が容易に他の仕事に移行できるよう手助けする
- 仕事の消滅により生じる影響が不公平になる可能性
- 他方、AIによりどのようなタスクを自動化できるか、人間が行うべきタスクは何かを考え、AIと人間の協働を考えてゆくべきという指摘もある
AIと価値観(民主主義)
- 誤情報の拡散による選挙への影響
- 他国の、AIを駆使した選挙への介入
- 偏った人へ偏った情報を勧め、社会が二極化するリスク
- AIにより死者をデジタル上で復活させることによる死者の尊厳の問題
- AIの戦争利用
- AIの電力消費による環境への影響など
生成AIと誤情報
- 生成AIによる誤情報の問題(政治、経済)
- バイアスのかかったコンテンツの生成と強化・再生
- 不適切なコンテンツの防止
- 非公開情報で学習した結果を生成コンテンツ内で表示してしまうことによるプライバシー問題・機密保護問題