AIやデータの活用における倫理的課題について。
目次
AI・ディープラーニングの全体像
- 人工知能
- 機械学習
- ディープラーニングの基本・応用
- ディープラーニングの研究
- AIプロジェクト
- AI社会実装に伴う法律・倫理
データ倫理
- 政府・企業→AI・データの倫理に対して責任ある対応が求められる
- データの取扱いに関するポリシーを明確に定義し、統制することが必要
- 企業倫理、研究倫理
- 個人データを用いた「プロファイリング」→個人の自律的選択が脅かされるリスクあり
- 「データ倫理」→①データの倫理、②アルゴリズムの倫理(AI倫理)、③実践の倫理
- 法律が技術的な発展には追いついておらず、問題に適切に対処できない場合あり
→既存の法規制を守るだけでは倫理的な問題を回避することはできない
データに関する不正行為
データを扱う上での不正行為
- データの捏造
- データの改鼠
- データの盗用
- データの汚染
- 「データ汚染」→機械学習モデルの学習データに加えられる改竄。入力データのご分類を恣意的に引き起こすこと。
※画像データに仕掛けられることが多い→摂動(特定の画素に、目視では認識できない程度の小さな変更操作を加えること)
※学習データにノイズを仕込むこと - 「敵対的攻撃」→学習済みモデルがある入力に対して誤った出力をするように、特定の入力データを恣意的に加工する行為
→「敵対的サンプル(Adversarial Example)」
※学習済みモデルに、ノイズのあるデータを入力し、誤判断をさせること
フェイクコンテンツ
- 「ディープフェイク(deep fake)」→2つ以上の画像や動画を結合し、実在しない対象物の画像や奥がを生成する技術
- 「敵対的生成ネットワーク(GAN)」→ディープフェイクを作り出す技術として使われており、オープンソースとして公開されてしまっている
- 有益な活用→映像制作、有名芸術から新作を生み出す、亡くなった家族写真を動く写真にする、オンライン会議でフェイク画像を生成できるカメラアプリを使用する
- 対策→フェイクコンテンツを検出する技術の研究開発
AI・データの倫理に関するガイドライン
IEEE Ethically Aligned Design(EAD) | 米国電気電子学会(IEEE)がAIに関する倫理的課題について検討するために作成した報告書 |
---|---|
Ethics Guidelines for Trustworthy AI (信頼性を備えたAIのための倫理ガイドライン) | EUのAIハイレベル専門家会合(AI HLEG)によって発表されたガイドラインで、最終的には国際的ガイドラインに発展させる方針 |
人間中心のAI社会原則 | 総合イノベーション戦略推進会議によって公開 |
Partnership on AI (人々と社会に利益をもたらす人工知能のためのパートナーシップ) | 2016年、Meta・Amazon・Google・IBM・Microsoftの5社によって創立された非営利団体 |
- 企業→社内で倫理的にデータを取り扱う文化を確立する動きを取りはじめている
- 自主規制のための「AI Principal(AIP;AI原則)」の整備が必要