北大联合360发布蒸馏新模型!5%参数量逼近Deepseek-R1满血性能!
543
2025-02-25 10:41:32(已编辑)
10
1
5
用微信扫描二维码

北大联合360发布蒸馏新模型!

5%参数量逼近Deepseek-R1满血性能!

 

2025年2月24日——由360与北京大学联合研发的中等量级推理模型Tiny-R1-32B-Preview正式亮相,仅以5%参数,逼近Deepseek-R1-671B满血性能!

 

团队人员:

360 团队: Lin Sun, Guangxiang Zhao, Xiaoqi Jian, Weihong Lin, Yongfu Zhu, Change Jia, Linglin Zhang, Jinzhu Wu, Sai-er Hu, Xiangzheng Zhang

北大团队: Yuhan Wu, Zihan Jiang, Wenrui Liu, Junting Zhou, Bin Cui, Tong Yang

 

  • 模型参数

 

模型

参数量

数学 (AIME 2024)

代码 (LiveCodeBench)

科学 (GPQA-Diamond)

Deepseek-R1-Distill-Qwen-32B

32B

72.6

57.2

62.1

Deepseek-R1-Distill-Llama-70B

70B

70

57.5

65.2

Deepseek-R1

671B

79.8

65.9

71.5

Tiny-R1-32B-Preview

32B

78.1

78.1

65

 

  • 核心突破:小模型,大能量

 

  •  数学领域:以78.1分(AIME 2024评测)逼近原版R1模型(79.8分),远超Deepseek-R1-Distill-Llama-70B(70.0分);
  •  综合性能:在编程(LiveCodeBench 61.6分)、科学(GPQA-Diamond 65.0分)领域全面领先最佳开源70B模型Deepseek-R1-Distill-Llama-70B;
  • 效率跃迁:仅需5%参数量,性能达原版R1的95%以上,推理成本大幅降低。

 

  • 技术革新:领域专精+模型融合

 

研究团队使用「分治-融合」策略:

  •  基于DeepSeek-R1生成海量领域数据,分别训练数学、编程、科学三大垂直模型;  
  • 通过Arcee团队Mergekit工具智能融合,突破单一模型性能上限,实现多任务均衡优化。  

 

  • 开源承诺:推动技术普惠

 

  • 模型仓库:https://huggingface.co/qihoo360/TinyR1-32B-Preview
  • 即将公开完整技术报告训练代码部分数据集;  
  •  践行开源精神,助力AI社区共筑高效推理新生态。

 

研发团队表示Tiny-R1-32B-Preview是蒸馏技术的里程碑,未来将持续探索更轻量、更强大的通用模型,推动AI技术普惠化进程。

 

 

实验室简介

 

北京大学数据与智能实验室(Data And Intelligence Research Lab at Peking Univeristy,PKU-DAIR实验室)由北京大学计算机学院崔斌教授领导,长期从事数据库系统、大数据管理与分析、人工智能等领域的前沿研究,在理论和技术创新以及系统研发上取得多项成果,已在国际顶级学术会议和期刊发表学术论文200余篇,发布多个开源项目。课题组同学曾数十次获得包括CCF优博、ACM中国优博、北大优博、微软学者、苹果奖学金、谷歌奖学金等荣誉。PKU-DAIR实验室持续与工业界展开卓有成效的合作,与腾讯、阿里巴巴、苹果、微软、百度、快手、中兴通讯等多家知名企业开展项目合作和前沿探索,解决实际问题,进行科研成果的转化落地。


陈国华   2025-02-25 14:55:41
您好!Tiny-R1-32B-Preview在代码集的指标78.1是否标错了?
SCHOLAT.com 学者网
免责声明 | 关于我们 | 用户反馈
联系我们: