作者|香草
编辑|李水清
Zhidx月1日报道,今日,阿里云在京召开依桐千问发布会,并开放720亿参数模型Qwen-72B,同时开放18亿参数模型Qwen-1.8B和大音频模型Qwen-Audio。
阿里云CTO周静表示,Qwen-72B实现了开源模型在10项权威基准测试中的最佳性能,性能超越开源基准测试Llama 2-70B和大部分商用闭源模型,为未来企业和科研的高性能应用提供了有力支撑。
此外,Qwen-72B配备了系统提示能力,用户可以通过自然语言设置角色、语言风格、任务和行为模式,只需一个提示即可定制AI助手。
▲周发布Qwen-72B模型。
截至目前,依桐钱文已经开放了四大语言模型,涵盖18亿、70亿、140亿、720亿参数规模,加上视觉理解和听觉理解两大多模态模型。周静表示,阿里云在业内率先实现“全尺寸、全模式”开源。
▲周解读钱文开源模型矩阵
Qwen-72B开源地址:
modelscope.cn/models/qwen/Qwen-72B-Chat
一、同规模超性能的Llama 2,搭载系统指令一键定制AI助手
据介绍,Qwen-72B基于3T令牌的高质量数据进行训练,延续了依桐千题预训练模型的优异表现,在10项权威基准评测中取得开源模型的最好成绩,在部分评测中超过闭源的GPT-3.5和GPT-4。
▲Qwen-72B在10大权威评测中超越了美洲驼2-70B。
据周静介绍,Qwen-72B填补了国内空白,以高性能、高可控性、高性价比的优势,提供了不亚于商用闭源机型的选择。基于Qwen-72B,大中型企业可以开发商业应用,高校和科研院所可以开展AI for Science等研究工作。
具体来说,在英语任务上,Qwen-72B在MMLU基准测试上得分最高。在中文任务上,Qwen-72B在C-Eval、CMMLU和GaokaoBench等基准测试中名列前茅,得分高于GPT-4。在数学推理方面,Qwen-72B在GSM8K和MATH的评测中明显领先于其他开源机型。在代码理解方面,Qwen-72B在HumanEval和MBPP评测中的性能有了很大的提升。
Qwen-72B可以处理高达32k的长文本输入,并在长文本理解测试集LEval上取得了比ChatGPT-3.5-16k更好的结果。
▲依桐钱文720亿的开源模型,有一些超越闭源的GPT-3.5和GPT-4的成就。
与此同时,R&D团队对Qwen-72B的指令遵从和工具使用等技能进行了优化,使其能够更好地被下游应用集成。
Qwen-72B装备有系统指挥能力。用户可以通过自然语言设置角色、语言风格、任务和行为模式,只需要一个提示就可以定制AI助手,要求大模型扮演某个角色或者执行某个特定的回复任务。
《智事考》Qwen-72B能演鲁迅,既能惟妙惟肖地模仿鲁迅的口吻,又能站在鲁迅的角度表达自己对现代技术的看法。放债科技学院
▲Qwen-72B的系统命令能力,只需要一个提示就可以创建AI助手。
二、18亿参数模型“见底”,阿里云全面布局开源模型生态
如果说720亿参数Qwen-72B是在“摸高”,试图触碰大型开源机型尺寸和性能的天花板,那么18亿参数Qwen-1.8B则是在“触底”,探索国内大型开源机型尺寸的下限。
据周静介绍,Qwen-1.8B推理只需要3G显存,推理所需最小显存不到1.5G,可以部署在消费终端。与之前发布的Qwen-7B相比,Qwen1.8B的微调速度提升3倍以上,最小微调成本不到6GB。
▲周发布Qwen-1.8B
从18亿、70亿、140亿到720亿的参数规模,依桐钱文成为业内首个“全方位开源”的大型模型。
周静表示,开源生态对于推动中国大模型的技术进步和应用非常重要。依桐钱文将持续投入开源,希望成为“AI时代最开放的大模型”,与开发者共同推进大模型的生态建设。
目前,阿里云用户可以在魔骑社区直接体验Qwen系列模型的效果,或者通过阿里云纪灵平台调用模型API,或者基于阿里云安百里平台定制大型模型应用。阿里云AI平台PAI深度适配依桐钱文全系列模型,提供轻量级微调、全参数微调、分布式训练、离线推理验证、在线服务部署等服务。法律科技创业 国外
第三,第一次将开源的音频理解模型升级到2.1
此外,阿里云首创开源音频理解模型Qwen-Audio。
据周静介绍,Qwen-Audio可以感知和理解人声、自然声、动物声、音乐声等各种语音信号,支持基于单个或多个音频的理解、推理和创作。
用户可以输入一段音频,要求模型给出对音频的理解,甚至可以基于音频进行文学创作、逻辑推理、故事续写等等。科技带来的浮躁
▲周发布音频模型Qwen-Audio。
除了开源音频模型,依桐·钱文还宣布了视觉模型Qwen-VL的重大更新。
Qwen-VL的通用OCR、视觉推理、中文文本理解等基础能力有了很大的提升,还可以处理各种分辨率、规格的图像,甚至可以“看图做题”。
▲周宣布升级Qwen能力。
通义千问的闭源模式也在不断进化。一个月前发布的依桐钱文2.0版本的闭源模型,最近已经升级到2.1版本。上下文窗口长度扩展至32k,代码理解和生成、数学推理、中英文百科知识、幻觉诱发抗性能力分别提升30%、10%、近5%、14%。用户可以在依桐钱文APP免费体验最新版本的闭源模型。
▲周发布2.1版本的钱文。
结论:开源生态为更多开发者提供AI R&D平台。
发布会上,周一直强调阿里云坚持打造开源生态的决心。从此次发布中,不难看出依桐钱文的开源模型矩阵已经逐步完成,走向“全尺寸、全模式”。
周提到,钱文模式累计下载量已超过150万,催生了150多个新模式和应用。发布会上,阿里云还宣布举办首届依桐钱文AI挑战赛,免费为参赛者提供价值50万元的依桐开源模型家族和云计算能力。
正如Meta首席科学家杨丽坤所说,开源模式有助于创造大量的社会和经济机会,让更多的人和企业使用最先进的技术,减少社会差距,提高竞争力。未来,我们期待看到更多优秀的开源模型,以及更多开发者在此基础上开发的模型和应用。
未经允许不得转载:科技让生活更美好 » 阿里云大模型再开源!通义千问720亿、18亿参数模型填补行业空缺,音频理解大模型也来了