AI モデルと AI アプリケーションの検証では、モデルの安全性とセキュリティの脆弱性の評価がアルゴリズムによって自動的に実行され、AI 脅威リサーチチームによって継続的に更新されます。それにより、アプリケーションが新たな脅威の影響をどの程度受けるのかを把握し、AI ランタイムガードレールでそれらを保護することが可能になります。
AI サプライチェーン攻撃を防御
開発者は、Hugging Edge や GitHub などのパブリックリポジトリからモデルやデータをダウンロードしますが、これは意図せずに組織を大きなリスクにさらします。AI 検証は、オープンソースのモデル、データ、ファイルを自動的にスキャンし、環境内で任意のコード実行を可能にする悪意のあるモデルファイルをはじめとする、サプライチェーンの脅威をブロックします。新しいモデルをレジストリに追加すると、シンプルな API コールを使用して評価を開始できます。
AI Defense は、OWASP Top 10 for LLM Applications を含む AI セキュリティ標準への準拠を容易にします。MITRE、NIST、OWASP の標準との対応関係をはじめとする、個々の AI リスクの詳細については、AI セキュリティのタクソノミーをご覧ください。