分享好友 资讯首页 频道列表

阿里云PAI大模型评测最佳实践

2024-06-19 19:3651030
 作者:施晨、之用、南茵、求伯、一耘、临在

背景信息

内容简介

在大模型时代,随着模型效果的显著提升,模型评测的重要性日益凸显。科学、高效的模型评测,不仅能帮助开发者有效地衡量和对比不同模型的性能,更能指导他们进行精准地模型选择和优化,加速AI创新和应用落地。因此,建立一套平台化的大模型评测最佳实践愈发重要。

本文为PAI大模型评测最佳实践,旨在指引AI开发人员使用PAI平台进行大模型评测。借助本最佳实践,您可以轻松构建出既能反映模型真实性能,又能满足行业特定需求的评测过程,助力您在人工智能赛道上取得更好的成绩。最佳实践包括如下内容:

•  如何准备和选择评测数据集

•  如何选择适合业务的开源或微调后模型

•  如何创建评测任务并选择合适的评价指标

•  如何在单任务或多任务场景下解读评测结果

平台亮点

PAI大模型评测平台,适合您针对不同的大模型评测场景,进行模型效果对比。例如:

• 不同基础模型对比:Qwen2-7B-Instruct vs. Baichuan2-7B-Chat

• 同一模型不同微调版本对比:Qwen2-7B-Instruct 在私有领域数据下训练不同 epoch 版本效果对比

• 同一模型不同量化版本对比:Qwen2-7B-Instruct-GPTQ-Int4 vs. Qwen2-7B-Instruct-GPTQ-Int8

考虑到不同开发群体的特定需求,我们将以企业开发者算法研究人员两个典型群体为例,探讨如何结合常用的公开数据集(如MMLU、C-eval等)与企业的自定义数据集,实现更全面准确并具有针对性的模型评测,查找适合您业务需求的大模型。最佳实践的亮点如下:

• 端到端完整评测链路,无需代码开发,支持主流开源大模型,与大模型微调后的一键评测;

• 支持用户自定义数据集上传,内置10+通用NLP评测指标,一览式结果展示,无需再开发评测脚本;

• 支持多个领域的常用公开数据集评测,完整还原官方评测方法,雷达图全景展示,省去逐个下载评测集和熟悉评测流程的繁杂;

• 支持多模型多任务同时评测,评测结果图表式对比展示,辅以单条评测结果详情,方便全方位比较分析;

• 评测过程公开透明,结果可复现。评测代码开源在与ModelScope共建的开源代码库eval-scope中,方便细节查看与复现:

https://github.com/modelscope/eval-scope

前提条件

• 已开通PAI并创建了默认工作空间。具体操作,请参见开通PAI并创建默认工作空间

• 如果选择自定义数据集评测,需要创建OSS Bucket存储空间,用来存放数据集文件。具体操作,请参见控制台创建存储空间

使用费用

• PAI大模型评测依托于PAI-快速开始产品。快速开始是PAI产品组件,集成了众多AI开源社区中优质的预训练模型,并且基于开源模型支持零代码实现从训练到部署再到推理的全部过程,给您带来更快、更高效、更便捷的AI应用体验。

• 快速开始本身不收费,但使用快速开始进行模型评测时,可能产生DLC评测任务费用,计费详情请参见DLC计费说明

• 如果选择自定义数据集评测,使用OSS存储,会产生相关费用,计费详情请参见OSS计费概述

场景一:面向企业开发者的自定义数据集评测

企业通常会积累丰富的私有领域数据。如何充分利用好这部分数据,是企业使用大模型进行算法优化的关键。因此,企业开发者在评测开源微调后的大模型时,往往会基于私有领域下积累的自定义数据集,以便于更好地了解大模型在私有领域的效果。

对于自定义数据集评测,我们使用NLP领域标准的文本匹配方式,计算模型输出结果和真实结果的匹配度,值越大,模型越好。使用该评测方式,基于自己场景的独特数据,可以评测所选模型是否适合自己的场景。

以下将重点展示使用过程中的一些关键点,更详细的操作细节,请参见模型评测产品文档

1. 准备自定义评测集

1.1. 自定义评测集格式

       1. 基于自定义数据集进行评测,需要提供JSONL格式的评测集文件

o 文件格式:使用question标识问题列,answer标识答案列。

o 文件示例:llmuses_general_qa_test.jsonl

9.jpg

2. 符合格式要求的评测集,可自行上传至OSS,并创建自定义数据集,详情参见上传OSS文件创建及管理数据集

1.2. 创建自定义评测集

1. 登录PAI控制台

2. 在左侧导航栏选择AI资产管理>数据集,进入数据集页面

3. 单击创建数据集

4. 填写创建数据集相关表单,从OSS中选择您的自定义评测集文件

2. 选择适合业务的模型

2.1.  查找开源模型

1. 在PAI控制台左侧导航栏选择快速开始,进入快速开始页面

2. 单击快速开始提供的模型分类信息,直接进入到模型列表中,根据模型描述信息进行查看。

 

3. 单击进入模型详情页后,对于可评测的模型,会展示评测按钮。

a. 支持模型类型:当前模型评测支持HuggingFace所有AutoModelForCausalLM类型的模型

2.2. 使用微调后的模型

1. 使用快速开始进行模型微调,详细步骤请参见模型部署及训练

2. 微调完成后,在快速开始>任务管理>训练任务中,单击训练好的任务名称,进入任务详情页后,对于可评测的模型,右上角会展示评测按钮。

 

 

3. 创建评测任务

1. 在模型详情页右上角单击评测,创建评测任务

2. 在新建评测任务页面,配置以下关键参数。

111.jpg

3. 任务创建成功后,将自动分配资源,并开始运行。

4. 运行完成后,任务状态显示为已成功

4. 查看评测结果

4.1. 评测任务列表

1. 在快速开始页面,单击搜索框左侧的任务管理

2. 在任务管理页面,选择模型评测标签页。

4.2. 单任务结果

1. 在模型评测列表页,单击评测任务的查看报告选项,即可进入评测任务详情页

2. 评测报告如下图所示,选择自定义数据集评测结果,将在雷达图展示该模型在ROUGE和BLEU系列指标上的得分。此外还会展示评测文件每条数据的评测详情。

 

222.jpg

• rouge-n类指标计算N-gram(连续的N个词)的重叠度,其中rouge-1和rouge-2是最常用的,分别对应unigram和bigram,rouge-l 指标基于最长公共子序列(LCS)。

• bleu (Bilingual evaluation Understudy) 是另一种流行的评估机器翻译质量的指标,它通过测量机器翻译输出与一组参考翻译之间的N-gram重叠度来评分。其中bleu-n指标计算n-gram的匹配度。

 

 

3. 最终评测结果会保存到您指定的OSS路径中

4.3. 多任务对比

1. 当需要对比多个模型的评测结果时,可以将它们聚合在一个页面上展示,以便于比较效果。

2. 具体操作为在模型评测任务列表页,左侧选择想要对比的模型评测任务,右上角单击对比,进入对比页面。

3. 自定义数据集评测对比结果

 

 


场景二:面向算法研究人员的公开数据集评测

算法研究通常建立在公开数据集上。研究人员在选择开源模型,或对模型进行微调后,都会参考其在权威公开数据集上的评测效果。然而,大模型时代的公开数据集种类繁多,研究人员需要花费大量时间调研选择适合自己领域的公开数据集,并熟悉每个数据集的评测流程。为方便算法研究人员,PAI接入了多个领域的公开数据集,并完整还原了各个数据集官方指定的评测metrics,以便获取最准确的评测效果反馈,助力更高效的大模型研究。

在公开数据集评测中,我们通过对开源的评测数据集按领域分类,对大模型进行综合能力评估,例如数学能力、知识能力、推理能力等,值越大,模型越好,这种评测方式也是大模型领域最常见的评测方式。

以下将重点展示使用过程中的一些关键点,更详细的操作细节,请参见模型评测产品文档

1. 支持的公开数据集

目前PAI维护的公开数据集包括MMLU、TriviaQA、HellaSwag、GSM8K、C-eval、CMMLU、TruthfulQA,其他公开数据集陆续接中。

 

555.jpg

 

      2. 选择适合的模型

      2.1.  查找开源模型

1. 在PAI控制台左侧导航栏选择快速开始,进入快速开始页面

单击快速开始提供的模型分类信息,直接进入到模型列表中,根据模型描述信息进行查看。

 


3. 单击进入模型详情页后,对于可评测的模型,会展示评测按钮。

a. 支持模型类型:当前模型评测支持HuggingFace所有AutoModelForCausalLM类型的模型

2.2. 使用微调后的模型

1. 使用快速开始进行模型微调,详细步骤请参见模型部署及训练

2. 微调完成后,在快速开始>任务管理>训练任务中,单击训练好的任务名称,进入任务详情页后,对于可评测的模型,右上角会展示评测按钮。

 

3. 创建评测任务

1. 在模型详情页右上角单击评测,创建评测任务

2. 在新建评测任务页面,配置以下关键参数。本文以MMLU数据集为例。

 

7777.jpg

 

3. 任务创建成功后,将自动分配资源,并开始运行。

4. 运行完成后,任务状态显示为已成功

4. 查看评测结果

4.1. 评测任务列表

1. 在快速开始页面,单击搜索框左侧的任务管理

2. 在任务管理页面,选择模型评测标签页。

4.2. 单任务结果

1. 在模型评测列表页,单击评测任务的查看报告选项,即可进入评测任务详情页

2. 评测报告如下图所示,选择公开数据集评测结果,将在雷达图展示该模型在公开数据集上的得分。

o 左侧图片展示了模型在不同领域的得分情况。每个领域可能会有多个与之相关的数据集,对属于同一领域的数据集,我们会把模型在这些数据集上的评测得分取均值,作为领域得分。

o 右侧图片展示模型在各个公开数据集的得分情况。每个公开数据集的评测范围详见该数据集官方介绍。

 

 

3. 最终评测结果会保存到您指定的OSS路径中

4.3. 多任务对比

1. 当需要对比多个模型的评测结果时,可以将它们在聚合在一个页面上展示,以便于比较效果。

2. 具体操作为在模型评测任务列表页,左侧选择想要对比的模型评测任务,右上角单击对比,进入对比页面。

3. 公开数据集评测对比结果

 

举报 0
收藏 0
打赏 0
评论 0
荣获青岛市科技进步奖!海尔机器人以大模型开启家庭清洁AI时代
在当今快节奏的生活中,清洁机器人已成为许多家庭的理想清洁伙伴。与此同时,市面上的清洁机器人产品持续迭代升级,功能从最初基

0评论2024-06-275000

海尔智家:科技优秀是一种习惯
6月24日,2023年度国家科学技术奖正式揭晓。海尔智家温湿氧磁多维精准控制家用保鲜电器技术创新与产业化项目荣获国家科学技术进

0评论2024-06-265071

半年下线100万台,海尔净水产能、销量双突破
6月25日,海尔净水互联工厂2024年上半年第100万台净水产品下线,这不仅大大超出往年产量,推动产能再上新台阶,更是创造了海尔净水历史产量新高。

0评论2024-06-265102

曙光存储进军集中式存储,重磅发布FlashNexus系列全闪新品
6月25日,曙光存储召开了主题为“先进存力,凝聚数据要素”的新品暨品牌发布会,震撼发布全球首个亿级IOPS集中式全闪存储FlashNexus,重磅升级分布式存储ParaStor,同时推出行业首个通存解决方案,应对“强无止境”数据存储性能和成本需求。

0评论2024-06-265077

海尔生物医疗主导的IEC医用低温存储国际标准正式获批立项
近日,由海尔生物医疗联合CVC威凯申报的IEC国际标准提案《医用低温冷藏和冷冻箱——性能要求和试验方法》成功获批立项。

0评论2024-06-255093

全球唯一可变软风!卡萨帝致境空调亮相2024思享荟
6月21日,向生活「致境」——2024 思享荟暨卡萨帝致境套系上市发布会在重庆举行,卡萨帝致境空调在现场亮相。新品发布环节,央视主持人撒贝宁和户外旅行博主朱炜强参与到“自然风”实验场景中,亲身体验了卡萨帝致境空调带来的全球唯一可变软风。而卡萨帝致境空调不仅通过首创的射流匀风科技让风从“硬”变“软”,还集成了除湿、除醛、净化等多项健康功能,打造了兼具健康和智能的家居空气体验。

0评论2024-06-255090

618热水器爆款出炉:海尔小魔盒BK5登顶TOP1
销量领跑行业的背后,得益于科技实力的凸显,海尔小魔盒 BK5 升级金刚无缝双胆、锆金全瓷科技、小蓝瓶净水洗 2.0等创新科技,形成优质产品的强力支撑。紧抓用户的实际使用痛点,海尔热水器全面引领的科技不断打造出高品质的沐浴体验,也将让用户用得更加安心、舒心、放心。

0评论2024-06-245150

发布平嵌白皮书后,卡萨帝冰箱又将平嵌美学搬进思享荟
 6月12日,卡萨帝冰箱联合7家权威机构举办平嵌电冰箱学术研讨会,并牵头发布了行业首个《平嵌电冰箱白皮书》,从专业技术层面对“平嵌冰箱”这一概念进行了明确规范,也为消费者描绘了理想中的平嵌冰箱形象。6月21日,卡萨帝冰箱将原创平嵌冰箱带到了2024思享荟现场,让理想冰箱融入现实厨房,以浑然天成的视觉享受、舒展自由的空间体验,为用户带来沉浸式的平嵌美学。

0评论2024-06-245146

618榜单多项第一!海尔云溪洗烘套装成用户首选
据天猫618数据显示,海尔云溪系列洗衣机成为“洗护行业(含套装)第一单品”;并且海尔云溪系列洗烘套装也获得了“618热卖榜行业TOP1、洗烘套装热销榜TOP1”等多项热榜第一。同时,据京东618最新数据,海尔洗衣机同样稳居热销第一型号,登录多个榜单。

0评论2024-06-245160

因智慧,更节能!海尔智慧楼宇高效机房降耗50%
 6月20-21日,2024第六届全国高效机房系统建设与运维论坛在江苏南京召开。会上,海尔智慧楼宇不仅带来了超高效机房解决方案,还针对其中智能控制技术的实践应用做出分享,并荣获“行业特别贡献奖”。据悉,自首届论坛联合主办之后,海尔智慧楼宇已连续6年受邀参与,在高效机房系统建设与运维领域发挥示范作用。

0评论2024-06-245166