个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部

马斯克的公开信:暂停巨型人工智能实验

avatar
Carter West 发表了文章 · 2023/03/29 04:40
大量研究表明,具有人类竞争情报的人工智能系统可能对社会和人类构成严重风险,顶级人工智能实验室也承认了这一点。正如广泛认可的Asilomar人工智能原则所指出的那样, 先进的人工智能可能代表着地球生命史的深刻变化,应在相应的谨慎和资源下进行规划和管理。不幸的是,尽管近几个月来,人工智能实验室陷入了一场失控的竞赛,要求开发和部署更强大的数字头脑,任何人,甚至他们的创造者都无法理解、预测或可靠地控制,但这种级别的规划和管理并没有实现。
现在,当代人工智能系统在一般任务中变得越来越具有人际竞争力,我们必须问问自己: 应该 我们让机器充斥我们的信息渠道宣传和虚假信息? 应该 我们把所有的工作都自动化,包括那些有成就感的工作? 应该 我们培养的非人类思维最终可能会超过人数、智慧、过时并取代我们? 应该 我们冒着失去对我们文明的控制的风险?此类决定不得委托给未经选举产生的科技领袖。 只有当我们确信强大的人工智能系统将产生积极影响且风险可控时,才应开发出强大的人工智能系统。 这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。OpenAI最近关于人工通用智能的声明指出 “在某个时候,在开始训练未来系统之前进行独立审查可能很重要,对于最先进的努力来说,同意限制用于创建新模型的计算增长率可能很重要。” 我们同意。现在就是这个问题。
因此, 我们呼吁所有 AI 实验室立即将比 GPT-4 更强大的人工智能系统的训练暂停至少 6 个月。这一暂停应是公开和可核查的,并包括所有关键行为者。如果这种暂停措施无法迅速实施,政府应该介入并暂停执行暂停令。
人工智能实验室和独立专家应利用这段暂停时间,共同开发和实施一套共享的安全协议,用于高级人工智能设计和开发,这些协议由独立的外部专家严格审核和监督。这些协议应确保遵守这些协议的系统毫无疑问是安全的。确实如此 总的来说,意味着暂停人工智能的开发,只是从危险的竞赛中退一步,转向具有新兴能力的越来越大、不可预测的黑匣子模型。
人工智能研发的重点应重新放在使当今强大、最先进的系统更加准确、安全、可解释、透明、可靠、一致、值得信赖和忠诚上。
同时,人工智能开发人员必须与政策制定者合作,显著加快强大的人工智能治理系统的开发。其中至少应包括:专门负责人工智能的新的、有能力的监管机构;监督和跟踪高能力的人工智能系统和大量计算能力;帮助区分真实和合成并跟踪模型泄漏的来源和水印系统;强大的审计和认证生态系统;对人工智能造成的伤害承担责任;为人工智能技术安全研究提供大量公共资金;以及用于应对人工智能将造成的严重经济和政治混乱(尤其是对民主)的资源充足的机构。
人类可以通过人工智能享受繁荣的未来。在成功创建了强大的人工智能系统之后,我们现在可以享受一个 “人工智能夏天”,在那里我们可以获得回报,设计这些系统以使所有人明显受益,让社会有机会适应。社会已经暂停使用其他可能对社会造成灾难性影响的技术。我们可以在这里做到。让我们享受一个漫长的人工智能夏天,而不是毫无准备地匆忙进入秋天。
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。 更多信息
7
+0
7
原文
举报
浏览 8.5万
评论
登录发表评论