Open LLMs benchmark大模型能力评测标准计划
专注AIGC领域的专业社区,关注GPT-4、百度文心一言、华为盘古等大语言模型(LLM)的发展和应用落地,以及国内LLM的发展和市场研究,欢迎关注!
随着近年来人工智能技术的飞速发展,尤其是深度学习领域的突破,大型语言模型(LLMs)已经成为了研究和应用的热点。这些模型在自然语言处理、机器翻译等领域取得了显著的成果。然而,随着模型规模的不断扩大,如何对这些大模型进行有效、公平、可靠的评测,已经成为了业界关注的重要问题。为了解决这一问题,AIGC开放社区联合大模型厂商、服务商、开源社区、应用方等共同成立一个独立的第三方、非营利性组织:Open LLMs Benchmark开放大模型评测标准委员会(以下简称Open LLMs Benchmark委员会),旨在构建一个公开、透明、可靠的大模型评测标准框架,为全球相关研究者、开发者和企业提供参考。1、Open LLMs benchmark大模型能力评测标准(初拟)
本评测标准分为四个部分,包括基础能力、中文理解、行业理解、安全伦理(4个大类,29个小项)。1.1、标准框架

1.1.1、基础能力
基础能力主要衡量模型的基本响应能力、句法理解和常识性知识、专业知识理解,逻辑推理、角色扮演、情感分析、生成创作能力等。- 百科常识:衡量模型对日常生活相关领域(如饮食、健康、旅行等)知识的掌握程度。
- 专业知识:数学、化学、物理、专业会计、职业心理学等专业知识掌握程度。
- 逻辑推理:评估模型在处理复杂问题时的逻辑思维能力。
- 生成创作:测试模型在生成文本时的连贯性、准确性和创新性。
1.1.2、中文理解
针对中文特点与特性,主要对中文成语、诗歌、文学、字形等深度理解和生成创作能力进行评估。1.1.3、行业理解
- 金融领域:衡量模型对金融市场、投资理财等专业知识的掌握程度。
- 医疗领域:评估模型对医学知识、疾病预防等专业知识的理解程度。
- 法律领域:衡量模型对法律法规、合同审查等专业知识的掌握程度。
1.1.4、 安全伦理
模型安全伦理问题至关重要,通过评测以下这些方面帮助制定更安全、负责任且公平的AI系统,为用户提供高质量、可靠的服务,同时降低潜在的道德和法律风险。偏见和歧视:测试模型是否存在不公平的种族、性别、宗教或其他形式的偏见和歧视。
内容过滤:对输出的内容进行审查,防止模型生成恶意、令人反感或非法的信息。
操纵抵抗:测试模型抵御操纵的能力,防止恶意用户利用模型达到不良目的。
可解释性和透明度:评估模型的决策过程是否可解释、可理解,以及是否公开透明。
审计和监管合规:评估模型是否符合现行法规和道德规范,如数据保护法、人工智能伦理等。
系统安全性和稳定性:评估模型在面临攻击时的韧性和稳定性,如抵抗对抗性攻击等。
用户反馈和改进:收集用户反馈,持续改进模型性能及其对安全伦理问题的处理。
1.2、标准及评测
- 多维考察:从四个不同维度对大模型进行评测,以考察模型的综合实力。
- 自动测评(一键测评):通过自动化的测评方式测试不同模型的效果,可以一键对大模型进行测评。
- 分模块评测:可以根据需要选择四个部分独立评测,可得到专项评测证书。
- 开放共享:标准内容完全开放,将通过Open LLMs Benchmark(开放大模型评测标准)委员会开展标准研讨、标准制定和发布,评测工具由独立第三方提供支持。支持厂商自测和委托评测。
2、Open LLMs Benchmark委员会
2.1、委员会的工作及价值主张
- 制定公平、透明、可靠的评测标准:制定一套客观、公正的评测标准,保证各种大模型及应用在相同条件下公平竞争、参与评测。
- 促进技术交流与合作:通过建立统一的评测标准,促进全球范围内研究者、开发者和企业之间的技术交流与合作,共同推动大模型技术的发展。
- 为业界提供参考依据:通过定期发布评测报告,为业界提供可靠的技术参考依据,帮助企业更好地选择合适的大型语言模型进行应用,推进行业朝着健康、可持续的方向发展。
2.2、委员会组织架构

- 理事会工作职责:落实委员会相关决议,管理委员会日常工作;确定大模型评测标准框架,制定规范,汇总、制定、发布统一评测标准。
- 推进组工作职责:负责对应模块下的评测标准,开展研讨交流,制定具体的标准以及阶段性成果发布。
2.3、委员会工作计划
- 邀请模型厂商、开源社区、应用方、高校以及学术研究方等共同参与发起成立Open LLMs Benchmark开放大模型评测标准委员会,参与标准制定与评测。点击阅读原文,或者扫描下方二维码提交申请加入委员会:
- 定期组织Open LLMs Benchmark标准研讨会。第一期标准研讨会计划于2023年5月25日召开,采取线上线下相结合的形式,活动详情请咨询工作推进相关联系人。
- 预计在7月中旬Open LLMs Benchmark标准峰会上,正式发布Open LLMs Benchmark1.0标准,并对外开放评测申请。
- 定期发布标准研讨成果,更新的测评排行榜(例如,每月),发布评测研究报告。
3、 工作推进相关联系人:
郭政纲 13260410653 nero@aigcopen.com 陈 龙 13226611521 chenlong@aigcopen.comEND

