OpenAI 上線 AI 模型安全評估中心網頁,透明說明模型如何安全運作,強化使用者信任感。
OpenAI稍早宣布推出名為「安全評估中心」 (safety evaluations hub)的網頁,藉此分享其人工智慧模型產生幻覺機率等資訊,同時也說明其人工智慧模型是否會產生有害內容,或是有無可能產生違法資訊等。
而提供此網頁資源,OpenAI表示是為了提升其服務的透明度,並且對外說明其模型運作時所作的安全防護,同時也會持續更新人工智慧模型相關安全防護措施。
同時,OpenAI表示希望透過此作法讓外部人員更容易理解其在人工智慧模型安全的投入,並且會隨著時間改變等因素進行調整,確保其服務被使用時的安全性,更強調能透過社群互動方式提高公司對外溝通效率。
但也有看法認為,OpenAI這樣的作法可能仍會選擇隱瞞部分問題或隱憂,畢竟網頁公布內容僅為帳面資訊,不一定能反應真實情況。