share_log

AI业又一里程碑!OpenAI及甲骨文将接受美政府模型发布前预测试

AI業又一里程碑!OpenAI及甲骨文將接受美政府模型發佈前預測試

財聯社 ·  08/29 23:45

①OpenAI及甲骨文這兩家AI領頭企業宣佈,將與美國人工智能安全研究所合作,在模型發佈前進行安全測試;②美國人工智能安全研究所指出,這是其管理人工智能未來的一大里程碑,未來其將參與所有主要模型發佈前後的安全測試。

財聯社8月30日訊(編輯 馬蘭)美國人工智能行業正在逐步接受政府的指導。週四,OpenAI和甲骨文宣佈將與美國人工智能安全研究所簽署合作協議。

該研究所隸屬於美國商務部國家標準與技術研究所。其在一份新聞稿中表示,該所將在各公司的主要新模型公開發布之前,以及發佈之後獲得這些模型的使用權。

OpenAI及甲骨文則指出,它們已經同意向人工智能安全研究所提供新模型的測試權利,在通過測試後,模型再面向公衆發佈。

OpenAI首席執行官奧爾特曼表示,很高興與人工智能安全研究所達成協議,以對該公司的模型進行預發佈測試。

該公司首席戰略官Jason Kwon也指出,公司相信該研究所發揮着關鍵作用,以確保美國AI界負責任地開發人工智能,希望能與研究所一起爲全球其他國家提供一個可被借鑑的管理框架。

進擊的監管

美國人工智能安全研究所成立於2023年,距離拜登發佈美國史上首個人工智能行政命令不過寥寥數日。其也是白宮對人工智能進行評估、指導以及研究的關鍵機構。

美國人工智能安全研究所所長Elizabeth Kelly表示,與OpenAI和甲骨文的協議只是一個開始,其代表了研究所管理人工智能未來的重要里程碑。

而就在本週三,作爲美國科技前沿的加利福尼亞州議會通過了一項備受質疑的人工智能安全法案,其強制要求公司對成本或計算能力達到一定規模的人工智能模型進行安全測試,並提供其他保障措施。

該法案的通過可能迫使不少科技公司進一步向監管「投誠」,以換取儘可能大的創新自由。

除此之外,OpenAI也一直因爲安全問題而受到批評。據該公司前僱員Daniel Kokotajlo指出,在過去幾個月裏,公司出現了緩慢而穩定的離職潮,關注人工智能長期風險的OpenAI員工有一半已經離職。

其可能證明了OpenAI內部對於新模型安全性能的忽視正在引發內部的普遍不滿。這當然也引發了美國政府部門的關注,而選擇此時與美國人工智能安全研究所合作,或許正是OpenAI打消外界疑慮的最好宣傳之一。

声明:本內容僅用作提供資訊及教育之目的,不構成對任何特定投資或投資策略的推薦或認可。 更多信息
    搶先評論