英特尔在人工智能 (AI) 安全领域取得了长足的进步,最近成为由 MLCommons 组织的人工智能安全 (AIS) 工作组的创始成员。这标志着英特尔在持续致力于负责任地推进人工智能技术方面迈出了重要一步。
什么是MLCommons AI安全工作组?
MLCommons AI 安全工作组肩负着支持社区开发 AI 安全测试的全面使命,并基于这些测试建立研究和行业标准基准。他们的主要目标是指导人工智能系统的负责任开发,从MLPerf等计算性能基准如何帮助设定具体目标从而加速进展中汲取灵感。同样,该工作组制定的安全基准旨在明确定义什么是“更安全”的人工智能系统,这可以大大加快此类系统的开发。
基准测试的另一个主要目的是帮助消费者和企业购买者在为特定用例选择人工智能系统时做出更明智的决策。鉴于人工智能技术的复杂性,这些基准为评估不同系统的安全性和适用性提供了宝贵的资源。
此外,这些基准旨在为技术上合理、基于风险的政策法规提供信息。与此同时,在公众关注的刺激下,世界各国政府越来越关注人工智能系统的安全性。
为了实现这些目标,工作组概述了四个关键的可交付成果。
- 他们策划了一系列安全测试,并致力于开发更好的测试方法。
- 他们通过以非专家易于理解的方式总结测试结果来定义特定 AI 用例的基准。
- 他们正在开发一个社区平台,该平台将作为人工智能安全测试的综合资源,从注册测试到查看基准测试分数。
- 他们正在努力通过多方利益相关者流程定义一套治理原则和政策,以确保以值得信赖的方式做出决策。该小组每周举行一次会议来讨论这些主题,任何有兴趣加入的人都可以通过其组织电子邮件进行注册。
AIS工作组
AIS工作组是由来自工业界和学术界的人工智能专家组成的集体。作为创始成员,英特尔将贡献其丰富的专业知识,为测试创建一个基准测试平台,以衡量与人工智能工具和模型相关的安全和风险因素。随着测试的成熟,这项合作努力旨在制定标准的人工智能安全基准,这是确保人工智能部署和社会安全的关键一步。
AIS 工作组乃至英特尔关注的关键领域之一是大型语言模型 (LLM) 的负责任培训和部署。这些强大的人工智能工具能够生成类似人类的文本,使它们在从内容创建到客户服务的一系列应用程序中都非常宝贵。然而,它们的潜在滥用带来了重大的社会风险,使得为LLM制定安全基准成为工作组的优先事项。
为了帮助评估与快速发展的人工智能技术相关的风险,AIS工作组还在开发一个安全评级系统。该系统将为各种人工智能工具和模型的安全性提供标准化的衡量标准,帮助行业和学术界就其使用和部署做出明智的决策。
“英特尔致力于负责任地推进人工智能,让每个人都能使用它。我们全面处理安全问题,并在硬件和软件方面进行创新,以使生态系统能够构建值得信赖的人工智能。由于大型语言模型的普遍性和普遍性,在整个生态系统中开展工作以解决人工智能开发和部署中的安全问题至关重要。为此,我们很高兴与业界一起定义新的流程、方法和基准,以改善各地的人工智能,“英特尔公司副总裁兼数据中心人工智能解决方案总经理迪帕克·帕蒂尔(Deepak Patil)说。
英特尔对 AIS 工作组的参与符合其对负责任地推进人工智能技术的承诺。该公司计划与该小组分享其人工智能安全发现、最佳实践和负责任的开发流程,例如红队和安全测试。这种知识和专业知识的共享预计将有助于为人工智能工具的安全开发和部署建立一套通用的最佳实践和基准。
AIS工作组的最初重点是为LLM制定安全基准。这项工作将建立在斯坦福大学基础模型研究中心及其语言模型整体评估(HELM)的研究基础上。英特尔还将与 AIS 工作组分享其用于开发人工智能模型和工具的内部审查流程。预计此次合作将为建立一套通用的最佳实践和基准做出重大贡献,以安全开发和部署利用LLM的生成性AI工具。
英特尔参与 MLCommons AI 安全工作组是朝着确保负责任地开发和部署 AI 技术的正确方向迈出的重要一步。该小组的共同努力无疑将有助于为人工智能工具和模型制定强大的安全基准,最终减轻这些强大技术带来的社会风险。
原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun263352.html