トピックス 新規研究会「AI品質アジャイルガバナンス研究会」設置のお知らせ

AI品質アジャイルガバナンス研究会 主査 平田 雄一

 AI品質管理に関わる法規・標準・ガイドラインの抽象的な要求事項を、AI品質管理の現場に迅速に適用し、AI品質を向上させることを可能とするAI品質アジャイルガバナンス手法を開発することを目的とする研究会を新たに設置します。

 世の中でAIの利用の仕方が多様になったことで、AIが設計者の予期しない場面で人権侵害など社会問題を起こす事例が増えており、AIを使う上でのリスクを低減するための品質確保は今後ますます重要となります。そのため、人権侵害のようなAIの社会に対する負のインパクトを最小化するために、欧州AI法案や多様なガイドラインがつくられています。しかしながら、これらに規定されている要求事項は非常に抽象的であるため、直接AI品質管理の現場に迅速に適用することが困難です。そこで、このような状況を改善するために、新規研究会を立ち上げました。本研究会は、AI品質確保に関わる法規・標準・ガイドラインの多様で抽象的な要求事項を、アジャイルガバナンスの枠組みで具体化することを目指します。
 世の中には、欧州AI法案、ISO/IEC/JTC1 SC42の標準、AI原則実践のためのガバナンス・ガイドラインなど、数多くの法規・標準・ガイドラインが作られており、それらの全ての要求事項を個別に具体化するには膨大な作業が必要で困難です。
 そのため、本研究会では、それらの要求事項を集約してAI原則として整理したうえで、その実践を支援するAI原則対応例をAIと品質管理の専門家の視点でまとめます。特に、公平性などのAI倫理(注1)を品質の一部として捉える新しい考え方を受け、AI倫理も上記のAI原則に含めます。
 また、AIは技術進歩が速く、現在の個別技術を想定した個別の規範ではなく、AIに関わる組織自体が自主的に、柔軟に俊敏にAIを統治する仕組みが必要です。そこで、本研究では、白紙から対応方法を検討するのではなく、柔軟なAIのガバナンスを目指したAI原則実践のためのガバナンス・ガイドライン、及び、それが準拠している「アジャイルガバナンス」のフレームワーク(注2)に基づいて、AI原則対応例を構築します。
 本研究会では、次の要領で研究を進めます。(1)まず、主査が、品質管理の現場で実践が難しい抽象的な法規・標準・ガイドラインの要求事項を集約し、AI原則に整理します。(2)次に、主査が、AI原則の中で特に研究が必要な重要な項目を選択して研究会に提示します。(3)これを受け、研究会メンバーが、そのAI原則の項目に関連する具体的事例を調査して収集します。(4)その後、研究会のAI技術の専門家と品質管理の専門家が、具体的事例及びアジャイルガバナンスの枠組みに基づいて、品質管理の現場に即した当該AI原則項目の実践的解釈案と充足方法を検討して提示します。このとき、類似の事例で当該企業に発生するリスクを予測できる過去経緯もまとめます。(5)最後に、研究会メンバー全員で妥当な解釈について合意します。
 本研究会では、AIの品質リスクが社会問題となる将来を見据え、AI品質やAI技術の専門家、ISO 9001のPDCAサイクルなど品質管理の専門家の知見を結集し、数多くの法規・標準・ガイドラインを集約したAI原則に対して、実践的解釈とその充足プロセスをAI品質アジャイルガバナンス手法として報告書にまとめ、品質管理コミュニティ全体で活用可能な形で公開し、AI品質の向上を進めていきます。本研究会は、多様な観点で研究を深めるために、新たな研究会メンバーを幅広く募集しております。品質管理、AI標準、AIガバナンス、AI品質、AI倫理、AI法規、AI技術などの分野の最前線で活躍されている方々の参画をお待ちしております。

 注1:「AI倫理」は、AIを使った製品やサービスが、人権侵害などを起こさず社会に受け入れられるために必要な倫理です。
 注2:「アジャイルガバナンス」のフレームワークは、従来のPDCAの枠組みをペースとしつつ、急速なAI技術の進化により引き起こされるリスクの変化に対応するために、ガバナンスの仕組みを迅速に更新し続けるものです。

Follow me!