~AIガバナンスの民間自主取組をリードする団体として、AI特有のリスク・課題を踏まえた政策的対処を要請~
政府の「AI事業者ガイドライン(第1.0版)」など、事業者による自主的な取組を基調とするAIガバナンスの潮流を踏まえ、「AIガバナンスの民主化」を掲げて民間の自主取組のハブとしてAIガバナンス実装の知見蓄積・制度への提言を行うAIガバナンス協会(以下「AIGA」)は、2024年10月3日(木)、政府・AI制度研究会の議論を踏まえつつ、会員意見を集約し、AIリスクへの制度的対処に関する意見書を公表しました。
【AIGAのAI制度の検討に関する基本姿勢】
政府AI戦略会議の下に設けられ、8月2日に第1回会合が召集されたAI制度研究会(https://www8.cao.go.jp/cstp/ai/ai_kenkyu/ai_kenkyu.html)では、法制度の要否も含めて、AIに関する制度の在り方が検討され、今秋に中間取りまとめを公表することとされています。
AIの技術特性上、ビジネス活用において多くのリスクがあり、開発・提供・利用といった各レイヤーのアクターが対策を行う必要があることは事実です。AIGAには、こうした現状認識に立脚し、AIガバナンスにおける自主宣言である「AIガバナンス行動目標」(https://www.ai-governance.jp/ai-governance-action-agenda)を共同で宣言し、AIガバナンスの自主取組と社会実装に取り組む各業界のリーディングプレイヤーが集まっています。
AIGAは今般、開発・提供・利用のバリューチェーンを跨いだ先進企業が集う民間のハブとして、社会的価値とイノベーションの両立に資する形でガバナンスを推進するため、AI制度研究会の中間取りまとめに先んじて、政策枠組みに対する基本的な考え方及び論点について意見集約と発信を行うこととしました。
今回の意見書も含め、AIGAが発信するAI活用の最前線のプレイヤーの声がAI制度研究会をはじめAI政策に関わる多くの人々に届き、中間取りまとめ以降の議論がより深化していくことを期待しています。
【意見書の全文】
公表した意見書の全文は以下のURLからご覧いただけます(PDFファイルが開きます)。
【公表版】AIガバナンス協会_AIをめぐる制度検討への意見
(URL: https://cdn.prod.website-files.com/66e98b87b115812d1af8fc1c/66fde51d5b78da0edc2d02a3_241003_opinion_ai_regulation.pdf)
【意見書の概要】
上記の現状認識と基本姿勢に基づき、大方針として以下の3点が求められるとしています。
– 技術中立性: 保護するべき権利・利益は既存法で保護されているため、人が侵害した場合と同様にAIが規律される必要はあるが、「AIを活用した故に」過剰な規制を受けることは避けるべき
– リスクベースアプローチ: ユースケースやモデルの性質によって、AI活用のもたらすリスクは大きく異なるため、大味で議論をせず、どのような類型がハイリスクであるかを慎重に検討すべき。特にユースケース単位のリスクについては、必ずしも企業規模の大小とリスクの大小が一致しないことにも留意すべき。その上で、ハイリスク類型は法規制を検討する一方でローリスク類型については民間認証や自己宣言に委ねるなど、柔軟な規制手法の選択が必要
– 国際的なイコールフッティング: 基盤モデル含め、AIモデル・サービスは国境を超えた市場であるため、日本企業がグローバルに活躍するためにも、海外制度との相互運用性の確保は重要。また、仮に何かしらの規律を設ける際には、日本企業だけが重い負担を負って競争力を削がれるといった事態は避け、海外企業にも実効的な制度とし、内外の企業のレベルプレイングフィールドを確保すべき
その上で、基盤モデルのリスク対策・学習データの概要等に関する透明性確保やインシデント発生時等の事後対応を基調とした制度設計など、AIのみを対象とした規律について考えられる方向性や、規制一辺倒の議論ではなく、AIのビジネス活用を後押し・支援する施策も両輪で進めていく必要性などについて取りまとめています。
【参考資料の概要】
上記検討の前提となった、AIGA内でのアンケート調査「AIをめぐる制度検討についての意見調査」の概要も、参考資料として添付しています。
本アンケートには、開発・提供・利用とそれぞれの立場の事業者が回答しており、たとえば下記のような意見の傾向がみられています。
– ハードローへの賛否: 規制自体の是非は内容次第だが、第三者認証などの中間的な施策へのニーズが比較的多く見られる
– 既存法の課題: 一部の個別法領域では、既存法の解釈が明確でない、あるいは対応検討が必要なリスクが認識されている
【意見書取りまとめにかかる経緯】
2024年6月4日 AI制度研究会(仮称)の設置を位置付けた「統合イノベーション戦略2024」の閣議決定
2024年8月2日 第1回AI制度研究会にて、今秋の中間取りまとめ実施の方針が明らかに
2024年8月7日~2024年8月20日 AIGA政策提言WG主導で会員アンケート(「AIをめぐる制度検討に関する意見調査」)実施
2024年9月13日 政策提言WGにて「AI制度研究会への意見提出会員検討会」開催
2024年9月27日 本意見書公表
8月7日~8月20日実施の会員アンケートにおいては、回答者のバリューチェーン(開発・提供・利用)
上の立場、ハードロー導入への賛否、既存法で十分な対処が困難と思われるAIリスク領域に関する認識、規制対象とするAIを特定する場合の測定指標に関する認識、そのほかの課題認識等について意見を募集しました。
また、9月13日の会員検討会においては、Zoom会議に50名近くの会員が参加し、意見書の草案を共有した上で以下のような点についてディスカッションが行われました。
– 新規の法規制が必要となると考えられる領域に関する意見交換
– AIのリスクはユースケースに応じて判断されるべきであるという原則の強調
– イノベーションを阻害しないAIリスク対応のための制度だけでなく、AIのビジネス活用とのバランスも配慮した政策提言を行うAIGAとしてのスタンスの確認
【本意見書の執筆体制について】
政策提言WG
AIに関する政策を、産業におけるAIガバナンス実装の現状やニーズを踏まえた合理的なものとすることを目的とする。そのため、最新の政策動向の調査・発信や会員意見の集約・パッケージ化、行政・政治に存在する様々なチャネルを通じた意見の発信などを実施する。
WGヘッド
佐藤竜介(東京海上ホールディングス株式会社)
WGメンバー
財津健次(楽天グループ株式会社)
佐久間弘明(AIガバナンス協会事務局長)
田中孝昌(株式会社リクルート)
藤井達人(株式会社みずほフィナンシャルグループ)
AIGA事務局
佐久間弘明(事務局長)
堀田みと(事務局次長)
【AIガバナンス協会について】
AIガバナンス協会(AIGA)は、AIのビジネス活用の急拡大とその裏でのリスク認識の広がり、国内外の政策動向の急速な変化等を背景として、企業と社会が安心してAIを活用し、持続可能な成長を遂げるために、多様なプレイヤーがAIガバナンスのあり方を議論できる場を創るべく設立された任意団体です。現在、グローバルテックや金融・保険・HR・製造を横断した業界のリーディングカンパニー70社以上が正会員として活動しています。
AIGAでは、AIのビジネス活用を進める企業を中心とするメンバーが産業横断で議論を行い、企業のあるべきAIガバナンスに関する共通理解の醸成や政策提言等の活動を実施します。
・理事:
大柴行人 (Robust Intelligence 共同創業者)
瀬名波文野 (リクルートホールディングス 取締役 兼 常務執行役員 兼 COO)
生田目雅史 (東京海上ホールディングス 専務執行役員CDO グループデジタル戦略総括)
羽深宏樹 (スマートガバナンス 代表取締役CEO・京都大学特任教授・弁護士)
山本忠司 (三菱UFJフィナンシャル・グループ 執行役常務 リテール・デジタル事業本部長 兼 グループCDTO)
・設立日:2023年10月26日
(設立時のプレスリリース:https://prtimes.jp/main/html/rd/p/000000001.000131696.html)
・サイトURL:https://www.ai-governance.jp/
・問い合わせ先:サイト下部のお問い合わせフォームよりお問い合わせください