
「暴言」を吐くAIチャットボット 「人種差別」をする犯罪予測AI 「男女差別」をする人材採用AI・与信審査AI……
AIの「暴走」をどう防ぐか?
「技術」「ブランド」「ガバナンス」「組織・人材」 4つのアプローチで「責任あるAI」を実現する
「責任あるAI」のベースにあるのは 「人間中心」のデザインであり、人間が意思決定の中心となることである。
「責任あるAI」実現のために守るべき規範が「AI倫理」である。
【主要目次】 Part1「責任あるAI」「AI倫理」とは何か? ●なぜ今「責任あるAI」が重要なのか? ・デジタルツインの波とAI ・労働生産性におけるAIの貢献 ・意思決定におけるAIの役割 ・加速するAIへの法規制
●求められる「AI倫理」とは? ・アシモフの「ロボット工学原則」と抜け穴 ・AIのガイダンス制定の世界的な流れ ・「責任あるAI」と5つの行動原則「TRUST」
●AIの潜在的リスクに備える4つの観点からのアプローチ ・AIに混入する潜在的リスクとは? ・各産業分野におけるAI適用と考えうるリスク ・AIの導入・定着のために求められる施策とは?
Part2「責任あるAI」を実践する4つのアプローチ ●技術のリスクを防ぐアセスメントの方法 ・AIの開発プロセスで忍び寄るリスク ・リスクを表面化させるアルゴリズム・アセスメント(AA)とは?
●ブランド価値を守り、高めるESGアプローチ ・ESGによるブランド価値の創出・向上 ・AI開発においても無縁ではない「環境」意識
●ガバナンスにおける効果的な「火消し」の方法 ・AIガバナンスのロードマップ ・日本企業で導入が広がるAIガバナンス
●組織・人材に「AI倫理」を根付かせる ・研修プログラムとこみゅにけー書 ・具体的事例を用いた演習 ・リーダー企業になるためのチェックリスト
|