人工知能学会がAIの研究開発における「倫理指針」を公表したとのことです。
この方針には、開発者の倫理にとどまらずAI自身が守るべき倫理観にかかる条項が盛られているのが特徴です。
この記事を見たとき、誰でも知っているであろう有名な「ロボット三原則」を思い出しました。
倫理指針というとAIを開発する側に求められる倫理観というが今までの常識であったかと思います。その根底にあるのはAIには倫理が理解できないという暗黙の制約があったからです。
今回AI自身が守るべき倫理を設けるに至ったのは「AIがAIを生み出す」ことへのリスクを考えてのことだそうです。そしてAIが市民権を行使するときに守るべき行動指針でもあります。
裏を返すと、社会的にそういった配慮が必要な時期に差し掛かっているということになります。
このAI倫理が実効性を持つ頃、シンギュラリティ(AIが人知を超えること)を迎えているのかどうかわかりません。それ以前にAIが人間と同様の倫理観を持てるのかどうかも定かではありません。
「倫理指針」の策定に携わった教授は記事中で「指針を社会とAI研究者の対話の始まりにしたい」と書かれています。AIが守るべき指針とはいいつつ、主役はAI自身ではなく創造する側とそれを受け入れることになる社会の問題だと言っているのです。
我々は近い未来に起こり得る事態への”心構え”を迫られているのです。