責任あるAIの使用とAIガバナンスを調整するための活動は依然として進行中です。
調査対象の経営層のうち、責任あるAIに関する心構えを文書化したと答えたのはわずか17%でした。50%は経営陣の一部に責任あるAIに関して心構えがあると答えていますが、まだ完全に文書化されていません。
これらの数字は、規制がまだ進行中であること、あるいはAIガバナンスの複雑さを反映しているのかもしれません。大規模な生成AIの導入を検討している企業は、倫理的な使用基準、説明のしやすさ、バイアス検出方法、その他の責任ある使用上の考慮事項について責任を負うことになります。多くの企業にとって、これは未知の領域です。
企業のAIプロジェクト運営委員会は、責任ある使用を調整する役割を最終的には継承することになるかもしれません。今回の調査結果では、AI運営委員会(40%)およびデータガバナンス協議会(42%)を設置し、生成AIの準備状況を周知する動きが確実に見られます。
責任あるAIに関する心構えを文書化した企業は、AI運営委員会とデータガバナンス協議会を設置する傾向がはるかに高くなっています。後者の重要性は何度言っても足りないくらいです。生成AIに限らず、人工知能はその原動力となるデータによって決まるからです。
その作業の重要性、複雑さ、微妙な性質により、大規模言語モデル運用 (LLMOPs)、データプライバシー、リスク修復、ガバナンス、大規模な生成AI展開におけるその他の懸念を解決するべく企業を支援する、新しい種類のAIガバナンスの専門家も出現すると予想されています。彼らは企業がテクノロジーを活用し、可能性を切り拓くことを支援することになるでしょう。