為提供企業評估 AI 模型安全的參考依據,英國 AI 安全研究所推出開源評估平台「Inspect」,並支援自定義擴充功能。
由於越來越多企業開始導入人工智慧技術,但對於當前人工智慧技術模型是否有足夠安全性,多半還是提供者各各自表述為主,仍缺乏一定參考數據。而英國人工智慧安全研究所 (AI Safety Institute)近期釋出人工智慧模型安全評估平台「Inspect」,搭配其可擴充特性作為日後開發、評估人工智慧模型的參考依據。
「Inspect」本質上為軟體資料庫,並且以資料集、求解器與評分器組成,藉此評估人工智慧模型包含核心知識、推論能力,以及自主管理能力,同時透過結果作為模型能力評估基準。
而「Inspect」採開源形式授權使用,可由使用者免費使用,或是透過其擴充特性增加更多評估功能,藉此對應更多人工智慧模型評估需求。
英國人工智慧安全研究所主席Ian Hogarth表示,期望透過開源方式吸引更多人工智慧社群做出貢獻,並且讓「Inspect」成為更能評估人工智慧模型能力的工具,同時也能藉由開源提高此項工具使用透明度,更可降低評估人工智慧模型能力的相關成本。