中国第一,世界第二!阿里云通义大模型Qwen2-72B登顶国产AI大模型第一

来源: aicg搜索 日期:2025-02-08 11:17:14
aicg搜索首页AI教程资讯 → 中国第一,世界第二!阿里云通义大模型Qwen2-72B登顶国产AI大模型第一

AI奇点网7月10日报道丨7月9日,国内权威的AI大模型中文测评基准机构SuperCLUE对外发布的6月中文大模型月度测评报告显示,阿里的通义千问开源大模型Qwen2-72B-Instruct以卓越的表现雄踞国内大模型能力的第一位,同时也是全球范围内最强的开源大模型。

纵观6月大模型赛道的变化,最显著的特征便是国产模型迅速拉近了与国际领先者的身位。绝大部分的国产闭源模型均超过了GPT-3.5,而阿里通义的最强开源模型距离GPT-4o大约还有5%的差距。

AI奇点网从报告了解到,综合海内外33款主流大模型的综合测评结果,阿里Qwen2-72B取得总分77分的高分,与Claude-3.5-Sonnet并列第二,仅次于GPT-4o。

Qwen2-72B的成绩也领先百度文心一言4.0、科大讯飞星火V4.0、Meta的Llama-3-70B等知名大模型有小半个身位。

具体来看,在理科、文科和Hard(困难模式)三个维度的具体测评中,Qwen2-72B展现了全面而均衡的能力。

尤其是数学计算、逻辑推理和代码测评等理科任务方面展现了强劲实力,Qwen2-72B与GPT-4o的分差仅为5分;在文科任务和Hard(困难模式)的任务上,Qwen2-72B与GPT-4o几乎不相上下。

本期报告最值得一提的是,其中一项端侧小尺寸模型的测评显示,阿里通义Qwen2-7B(70亿参数)的综合性能超越了上一代自研320亿参数的Qwen1.5-32B版本,以及130亿参数的Llama-3-8B-Instruct,勇夺“迷你模型”第一。

这意味着,即便是不同重量级的较量下,大模型依然可以在体积上进行大幅的“瘦身”优化,以实现同等乃至胜出的「以小博大」表现,极大提升了端侧模型落地的可行性,为手机平板笔记本等设备的AI本地加载带来无限可能。

报告全文阅读:https://www.cluebenchmarks.com/superclue_24h1

读完这篇文章后,您心情如何?

  • 0 喜欢喜欢
  • 0 顶
  • 0 无聊无聊
  • 0 围观围观
  • 0 囧
  • 0 难过难过
相关资讯
推荐阅读
网友评论

热门评论

最新评论

发表评论

昵称:
表情: 高兴 可 汗 我不要 害羞 好 下下下 送花 屎 亲亲
字数: 0/500 (您的评论需要经过审核才能显示)
相关推送
1通义千问查看 2知料觅得查看 3即梦AI查看 4Stable Diffusion查看 5AskCodi查看 6Lamini查看 7即时 AI查看 8山海大模型 — 云知声查看
AI使用攻略
更多+

CG艺术长廊 | AI技术前沿 | 创新应用案例 | 行业深度解析 | 搜索技巧指南 | 社区互动论坛 | AI教程资讯 | 网站地图

Copyright 2009-2016 //www.aisoh.cc/ 版权所有