個人中心
登出
中文繁體
返回
登入後諮詢在線客服
回到頂部

馬斯克的公開信:暫停巨人 AI 實驗

avatar
Carter West 發表了文章 · 2023/03/29 17:40
具有人類競爭情報的 AI 系統可能會對社會和人類構成極大的風險,如廣泛的研究所示,並得到頂級 AI 實驗室的認可。正如廣泛認可的阿西洛瑪人工智能原則中所述, 先進的人工智能可以代表地球上生命歷史的深刻變化,並應以相稱的關懷和資源進行規劃和管理。不幸的是,這種程度的規劃和管理並未發生,即使最近幾個月已經看到 AI 實驗室陷入了失控的競賽中,以開發和部署更強大的數字思維,沒有人(甚至他們的創作者)可以理解,預測或可靠地控制。
現代人工智能系統在一般任務中正在變得具有人類競爭力,我們必須自問: 我們讓機器用宣傳和不真實來淹沒我們的信息渠道? 我們自動化了所有的工作,包括履行的工作? 我們發展非人類的思想,最終可能超過人數,智取,過時並取代我們? 我們冒失去控制我們的文明的風險?這樣的決定不得委託給未當選的技術領導者。 只有一旦我們相信它們的影響將是積極的,他們的風險將是可控的,應該開發強大的 AI 系統。 這種信心必須充分合理,並隨著系統潛在影響的大小而增加。OpenAI 最近關於人工通用智能的聲明指出: 「在某些時候,在開始訓練未來系統之前先進行獨立審查可能很重要,並且對於最先進的努力,同意限制用於創建新模型的計算增長率。」 我們同意。這一點是現在。
因此, 我們呼籲所有人工智能實驗室立即暫停至少 6 個月的 AI 系統培訓比 GPT-4 更強大。此暫停應該是公開且可驗證的,並包括所有關鍵參與者。如果這樣的暫停不能迅速制定,政府應該加入並制定暫停。
AI 實驗室和獨立專家應利用此暫停來共同開發和實施一套共享的安全協議,用於高級 AI 設計和開發,這些協議由獨立的外部專家進行嚴格審核和監督。這些協議應確保堅持它們的系統在沒有合理懷疑的情況下是安全的。這確實 通常意味著 AI 開發暫停,僅僅是從危險的競爭退到具有緊急功能的不可預測的越來越大的不可預測的黑盒模型。
人工智能研究和開發應該重新專注於使當今功能強大,最先進的系統更準確,安全,可解釋,透明,強大,一致,可信賴和忠誠。
同時,AI 開發人員必須與政策制定者合作,以大幅加速強大的 AI 治理系統的開發。這些應該至少包括:致力於 AI 的新型和有能力的監管機構;監督和跟踪功能強大的 AI 系統和大量計算能力;來源和水印系統,以幫助區分實際與合成和跟踪模型洩漏;強大的審計和認證生態系統;AI 造成的責任;技術 AI 安全研究的強大公共資金;以及應對巨大的政治和政治(尤其是對政治和巨大的政治造成的破壞)的機構人工智能會導致。
人類可以通過 AI 享受蓬勃發展的未來。在成功創建強大的人工智能系統之後,我們現在可以享受一個「AI 夏天」,在此我們獲得獎勵,為所有人的明確利益而設計這些系統,並為社會提供適應的機會。社會對其他技術產生了暫停,對社會造成潛在災難性影響。我們可以在這裡這樣做。讓我們享受漫長的 AI 夏天,不要急於毫無準備地進入秋天。
免責聲明:社區由Moomoo Technologies Inc.提供,僅用於教育目的。 更多信息
7
+0
7
原文
舉報
瀏覽 8.5萬
評論
登錄發表評論