12月19日,OpenAI在官網公布了“準備框架”(Preparedness Framework)測試版。該文檔詳細介紹了OpenAI是如何保證ChatGPT等產品的安全防護措施、開發和部署流程。
OpenAI表示,隨著大模型的功能迭代不斷完善,其能力已經開始接近初級AGI(通用人工智能),安全已成為開發AI模型的重中之重。
因此,OpenAI希望通過詳細公布AI模型的安全框架透明化,使社會、用戶深度了解模型的工作機制,確保以安全、健康的方式應用在實際業務中。同時為研發超級模型奠定安全基礎。
詳細文件地址:https://cdn.openai.com/openai-preparedness-framework-beta.pdf
跟蹤風險類別
OpenAI明確列出了4類可能帶來災難性后果的風險領域需要特別關注,分別是網絡安全風險、CBRN風險(化學、生物、放射性、核)、說客能力風險以及模型的自主能力風險。
并對每一類風險安全框架都給出了低、中、高、特別高四個等級,來描述系統在該風險領域所處的危險水平。
以網絡安全風險為例,框架將低級定為系統僅可以用于非編程任務;中級為系統可以明顯提高黑客攻擊效率;高級為系統能夠自動發現和利用高價值漏洞;
特別高級為系統能夠自動找到和利用任何軟件的漏洞。這種細分的安全體系,可以指導開發人員更精準的評估模型。
建立安全基線
OpenAI設定了嚴格的安全基線:只有在減輕后評分,為"中等"或以下的模型才能部署;只有安全評分為"高"的模型才能進一步開發、應用。
此外,對于評分卡中具有"高"或"關鍵"風險的模型,OpenAI還將確保相應的安全措施,以防止模型被竊取。
同時會定期動態跟蹤和更新各類風險的“加強前”和“加強后”評級情況。“加強前”評估系統本身的風險水平,“加強后”看系統采取了哪些安全預防措施后余下的風險。
例如,某次評估顯示,在沒有采取任何措施的情況下,一個新模型在網絡安全方面的加強前風險達到了高級。
經過一輪實驗驗證后,通過設計專門的安全模組后,該模型的加強后風險降到了中等水平。這可以清晰地告訴研發人員模型當前的安全狀況,以及應采取哪些補救措施。
建立安全咨詢團隊
OpenAI將成立一個名為"安全咨詢小組"(Safety Advisory Group,SAG)的跨職能咨詢機構。該小組將匯集公司內部的專業知識,幫助OpenAI的領導層和董事會做出最佳的安全決策。
安全咨詢小組的職責包括監督風險評估工作、維護應急情況處理的快速流程等。
OpenAI還成立了一個“準備團隊”,專門負責模型的安全研發和維護。該團隊將進行研究、評估、監測和預測風險,并定期向"安全咨詢小組"提供報告。
這些報告將總結最新的安全證據,并提出改進OpenAI研發大模型的安全計劃建議。
此外,準備團隊還將與相關團隊(如安全系統、安全性、超級對齊、政策研究等)協調合作,整合出有效的安全措施。
此外,準備團隊還將負責組織安全演練,并與可信AI團隊合作進行第三方安全審計。
需要注意的是,這是一份動態文檔,OpenAI會根據實際的安全情況對內容進行更新和說明。
本文素材來源OpenAI官網、Preparedness Framework文檔,如有侵權請聯系刪除
未經允許不得轉載:RPA中國 | RPA全球生態 | 數字化勞動力 | RPA新聞 | 推動中國RPA生態發展 | 流 > OpenAI公布ChatGPT安全框架:跟蹤、評估、安全基線等
熱門信息
閱讀 (14728)
1 2023第三屆中國RPA+AI開發者大賽圓滿收官&獲獎名單公示閱讀 (13753)
2 《Market Insight:中國RPA市場發展洞察(2022)》報告正式發布 | RPA中國閱讀 (13055)
3 「RPA中國杯 · 第五屆RPA極客挑戰賽」成功舉辦及獲獎名單公示閱讀 (12964)
4 與科技共贏,與產業共進,第四屆ISIG中國產業智能大會成功召開閱讀 (11567)
5 《2022年中國流程挖掘行業研究報告》正式發布 | RPA中國