4月17日消息,第27届联合国科技大会在瑞士日内瓦召开。世界数字技术院(WDTA)发布了一系列突破性成果,包括《生成式人工智能应用安全测试标准》和《大语言模型安全测试方法》两项国际标准。
据悉,这两项国际标准是由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同编制而成。其中《大语言模型安全测试方法》由蚂蚁集团牵头编制。
此次发布的标准汇集了全球AI安全领域的专家智慧,填补了大语言模型和生成式AI应用方面安全测试领域的空白,为业界提供了统一的测试框架和明确的测试方法,有助于提高AI系统安全性,促进AI技术负责任发展,增强公众信任。
世界数字技术院(WDTA)是在日内瓦注册的国际非政府组织,遵从联合国指导框架,致力于在全球范围内推进数字技术,促进国际合作。
AI STR(安全、可信、负责任)计划是WDTA的核心倡议,旨在确保人工智能系统的安全性、可信性和责任性。蚂蚁集团、华为、科大讯飞、国际数据空间协会(IDSA)、弗劳恩霍夫研究所、中国电子等均为其成员单位。
公开资料显示,蚂蚁集团从2015年起就积极投入可信AI技术研究,目前已建立了大模型综合安全治理体系。蚂蚁集团还自研了业界首个大模型安全一体化解决方案 蚁天鉴 ,用于AIGC安全性和真实性评测、大模型智能化风控、AI鲁棒和可解释性检测等。
此次发布的《大语言模型安全测评方法》,便是基于 蚁天鉴 AI安全检测体系的应用实践,与全球生态伙伴交流编制。此外,蚂蚁集团在公司内成立了科技伦理委员会和专门团队来评估和管理生成式AI的风险,公司所有AI产品均需通过科技伦理评测机制,确保AI安全可信。