个人中心
登出
中文简体
返回
登录后咨询在线客服
回到顶部

核心安全团队解散后,OpenAI公布了十大安全措施

如何安全地开发人工智能?
1:发布前对实证模型进行红组和测试
在 OpenAI,我们在发布 AI 之前先对模型的内部和外部安全性进行实证评估。如果我们的备灾框架中的风险阈值超过中等水平,则在我们实施安全措施之前,我们不会发布新的模型,这些措施将在缓解后将分数恢复到中等。此外,70多位外部专家以红队的身份共同评估了GPT-4o的风险。

2:校准和安全研究
随着时间的推移,OpenAI 的模型变得越来越安全。这是因为我们构建了更智能的模型,即使在越狱等对抗情况下,也不会错误识别和输出有害内容。我们还在实际校准、安全系统和训练后研究方面投入了大量资金。这些努力提高了我们人工生成的微调数据的质量,将来这些数据将有助于改进我们的模型所遵循的指令。我们还开展和发布基础研究,以显著提高我们系统抵御越狱等攻击的稳健性。

3:滥用监控
OpenAI 通过其 API 和 ChatGPT 部署高性能语言模型,并利用各种工具,包括专门构建的审核模型以及使用专有模型进行安全风险和滥用监控。在此过程中,我们分享了主要发现,包括与微软共同披露国家行为者滥用我们技术的行为,以便适当地保护其他用户免受类似风险的侵害。我们还使用 GPT-4 来制定内容政策并做出内容审核决策,从而为政策完善提供反馈循环,从而减少人工版主接触不良内容的频率。

4:系统的安全方法
从预训练到部署,OpenAI 在生命周期的每个阶段都实施了各种安全措施。除了开发更安全、更一致的模型行为外,我们还投资于预训练数据安全、模型行为的系统级控制、用于持续安全改进的数据飞轮以及强大的监控基础设施。

5。保护儿童
OpenAI 安全活动的一个关键重点是保护儿童。ChatGPT 和 DALL-E 内置了坚固的护栏和安全措施,以减轻对儿童的潜在伤害。2023 年,引入了一种机制来检测、验证和报告在 OpenAI 工具中处理 CSAM(儿童性虐待材料)的尝试。OpenAI 与专业组织和更广泛的技术社区合作,坚持 “通过设计确保安全” 的原则。
6。选举诚信
OpenAI 正在与政府合作,确保人工智能生成内容的透明度,并改善获得准确投票信息的机会。具体而言,它引入了识别使用DALL-E 3创建的图像的工具,并整合了技术规范 “C2PA” 中的元数据以保存数据编辑记录,从而使用户能够验证他们在网上找到的内容来源。ChatGPT 还引导用户访问美国和欧洲的官方选举来源。此外,OpenAI支持美国参议院提出的两党法案 “保护选举免受欺骗性人工智能法案”。

7:投资影响评估和政策分析
OpenAI的影响评估工作产生了深远的影响,包括对测量与人工智能系统相关的化学、生物、放射和核风险的早期研究,研究语言模型如何影响不同的专业和行业,以及对社会如何管理相关风险的开创性研究,例如与外部专家合作评估语言模型对有影响力的活动的影响。

8:安全和访问控制管理
OpenAI 优先考虑客户、知识产权和数据保护。OpenAI 将 AI 模型作为服务部署到世界各地,并通过 API 控制访问权限。OpenAI 的网络安全工作包括对训练环境和高价值算法机密的必要访问控制、内部和外部渗透测试以及漏洞赏金计划。OpenAI 认为,基础设施安全的演变有利于保护先进的人工智能系统,并且正在探索保护技术的新型控制方法,例如 GPU 上的机密计算以及人工智能在网络安全中的应用。我们还通过拨款计划资助研究人员,以加强网络安全。

9。政府伙伴关系
OpenAI 与世界各地的政府合作,为制定有效和适用的人工智能安全政策提供信息,包括分享我们的经验、合作试点政府和其他第三方保障,以及为围绕新标准和法律的讨论提供信息。

10:安全决策和董事会监督
作为其准备框架的一部分,OpenAI 具有用于安全决策的运营结构。跨职能安全咨询小组在部署之前审查模型能力报告并提出建议。最终决定权由公司领导层作出,由董事会监督。

这种方法使 OpenAI 能够构建和部署安全且功能强大的模型。
免责声明:社区由Moomoo Technologies Inc.提供,仅用于教育目的。 更多信息
3
+0
原文
举报
浏览 2.6万
评论
登录发表评论