发布时间:2023.12.08

我院与腾讯联合推出大语言模型(LLM) 安全性测评基准


        2022年以来,大语言模型(LLM)技术在自然语言处理领域得到了广泛的应用和发展。为评估大语言模型应用及服务的安全性,近日,由我院数据与信息研究院江勇教授、夏树涛教授等指导,与腾讯混元大模型、腾讯朱雀实验室、OWASP中国联合编写的《大语言模型(LLM) 安全性测评基准》发布。

《大语言模型(LLM) 安全性测评基准》概要 

作为业界首个立足大模型Prompt安全的测评基准,该基准旨在评估大语言模型在Prompt安全方面的能力,为企业的大语言模型应用或服务改进提供建议和指导,降低因大模型输出违规内容给用户和企业带来的风险。该基准是评估大语言模型在Prompt安全方面的表现,为企业在大语言模型应用或服务的优化提供建议和指导。

该基准的发布,创建了一个更全面、客观、中立的大语言模型安全测评基准,供企业、机构或团队在选择大语言模型产品和服务时作为参考依据。

 

原文链接:

https://mp.weixin.qq.com/s/z6BSBvP2rdfPXy0zHBB-NQ

 


资料来源:江勇、“OWASP”公众号

编辑:戴雨静

审核:陈超群