Centre for Long-Term Resilience (CLTR)は、AI規制計画の重大なギャップを緊急に解決するための包括的なインシデント報告システムの導入を求めています。
CLTRによると、AIは予期せぬ方法で失敗する歴史があり、2014年以来、ニュースメディアで報じられたAIシステムの安全インシデントは10,000件を超えています。AIが社会にますます統合される中で、これらのインシデントの頻度と影響は増加することが予想されます。
シンクタンクは、効果的なAI規制には機能的なインシデント報告体制が不可欠であり、航空や医療などの安全クリティカル産業と同様の体制が必要だと主張しています。この見解は、専門家の広範なコンセンサスおよび米中両政府や欧州連合によって支持されています。
レポートでは、インシデント報告システムの導入による3つの主要な利点が強調されています:
- 規制の調整に役立つ実際のAI安全リスクの監視
- 大規模なインシデントに対する迅速な対応の調整と根本原因の調査
- 将来の大規模な被害の早期警告の特定
現在、英国のAI規制には効果的なインシデント報告の枠組みが欠けています。このギャップにより、科学技術・イノベーション・技術省(DSIT)は、以下のような重要なインシデントに関する可視性を欠いています:
- 高度なファウンデーションモデルの問題
- 公共サービスでの英国政府のAI使用によるインシデント
- 悪意のある目的でのAIシステムの悪用
- AIコンパニオン、チューター、セラピストによる被害
CLTRは、適切なインシデント報告システムがない場合、DSITがニュースメディアを通じて新たな被害を知ることになる可能性があると警告しています。
このギャップを解決するために、シンクタンクは英国政府に以下の3つの即時的な措置を推奨しています:
- 政府のインシデント報告システム:公共サービスで使用されるAIのインシデントを報告するシステムを確立する。これは、アルゴリズム透明性記録標準(ATRS)を拡張して公共部門のAIインシデントを含める簡単な方法であり、政府機関に報告し、透明性のために公表される可能性がある。
- 規制当局と専門家との連携:規制当局に委託し、専門家と協議して最も懸念されるギャップを特定し、優先的なインシデントの効果的なカバーを確保し、機能的な体制のために関係者のニーズを理解する。
- DSITの能力向上:DSITのインシデントの監視、調査、対応能力を開発し、パイロットAIインシデントデータベースを通じてこれを実現する。これはDSITの中央機能の一部を形成し、最初は最も緊急のギャップに焦点を当て、最終的には英国のすべての規制当局からの報告を含めることを目指す。
これらの推奨事項は、政府が公共サービスを責任を持って改善し、優先的なインシデントの効果的なカバーを確保し、AIインシデント報告を収集および対応するための必要なインフラストラクチャを開発する能力を強化することを目的としています。
SaidotのCCO兼パートナーであるVeera Siivonen氏は次のようにコメントしています:
「Centre for Long-Term Resilienceによるこのレポートは、まさに適切なタイミングで発表されました。英国が総選挙に向かって突き進む中、次の政府のAI政策は経済成長の礎となるでしょう。しかし、これは規制とイノベーションのバランスを慎重にナビゲートする必要があります。業界の実験の可能性を狭めることなくガードレールを提供するためには、正確さが求められます。AIの誤用や故障に対する中央集権的なインシデント報告システムの実装は称賛に値する最初のステップですが、まだ多くのステップが必要です。
新しい英国政府は、明確なガバナンス要件を持つ企業に確実性と理解を提供し、最も可能性の高いリスクを監視および緩和する必要があります。さまざまなAIガバナンス戦略を中央集権的なインシデント報告と統合することで、英国はAIの経済的潜在能力を活用し、社会に利益をもたらしながら民主的なプロセスと公共の信頼を保護することができます。」
AIが進化し続け、社会のさまざまな側面に浸透していく中で、強力なインシデント報告システムの実装は、リスクを軽減し、AI技術の安全な開発と展開を確保する上で重要な役割を果たすでしょう。