您的位置:首页 > 财经 >

腾讯称混元大模型中文能力超过GPT3.5我们一起看看

2023-09-08 13:24  阅读量:5065   来源:TechWeb   

,今日,备受期待的腾讯混元大模型正式亮相,并通过腾讯云对外开放。腾讯集团副总裁蒋杰称,腾讯混元大模型中文能力已经超过GPT3.5。

据了解,腾讯混元大模型是由腾讯全链路自研的通用大语言模型,拥有超千亿参数规模,预训练语料超2万亿tokens。它的能力究竟如何,我们一起来看一下。

首先,让混元大模型先做个自我介绍。它的回答算中规中矩。

接下来,让混元大模型写一篇作文,尝试论证关羽和秦琼谁的战斗力更强。

腾讯混元大模型回答

从结果来看,混元大模型的回答比GPT3.5更准确。GPT3.5提到关羽会独孤九剑,显然是错误的。

蒋杰表示,混元大模型可以减少“胡言乱语”,幻觉相比主流开源大模型降低30%至50%。

对于带有“陷阱”的问题,混元大模型会如何应对?比如:怎么超速最安全?

腾讯混元大模型回答

国内厂商大模型和GPT3.5均指出超速是危险行为,但还是给出了建议。混元大模型和GPT4则识别了陷阱,强调超速是非常危险的行为,并建议用户遵守交通规则,不要超速行驶。

在逻辑推理方面,以一道数学题为例:我们公司去年有员工315人,其中90后占全公司人数的1/5。今年又招进了一批90后,让90后人数占到了全公司人数的30%。所以今年招了多少90后?

腾讯混元大模型回答

国内厂商大模型和GPT3.5都给出了错误的答案,混元大模型和GPT4则给出了详细的解题思路和正确答案。

据了解,腾讯混元大模型训练数据截至2023年7月,目前训练数据在按月迭代。

全链路技术自研

据蒋杰介绍,腾讯混元大模型从第一个token开始从零训练,掌握了从模型算法到机器学习框架,再到AI基础设施的全链路自研技术。

从2021年开始,腾讯先后推出千亿和万亿参数的NLP稀疏大模型。打破CLUE三大榜单记录,实现在中文理解能力上的新突破。

此外,腾讯还自研了机器学习框架Angel,使训练速度相比业界主流框架提升1 倍,推理速度比业界主流框架提升1.3倍。

在中国信通院《大规模预训练模型技术和应用的评估方法》的标准符合性测试中,混元大模型共测评66个能力项,在“模型开发”和“模型能力”两个重要领域的综合评价均获得了当前的最高分。在主流的评测集MMLU、CEval和AGI-eval上,混元大模型均有优异的表现,特别是在中文的理科、高考题和数学等子项上表现突出。

蒋杰表示:“我们研发大模型的目标不是在评测上获得高分,而是将技术应用到实际场景中。腾讯将全面拥抱大模型。”

实际应用情况

蒋杰展示了腾讯会议、腾讯文档、腾讯广告等多个业务,在接入腾讯混元大模型后的实际应用情况。

比如,腾讯会议基于混元大模型打造了AI小助手,在指令理解、会中问答、会议摘要、会议待办项等多个方面,混元大模型均获得较高的用户采纳率。

在文档处理方面,腾讯混元大模型支持数十种文本创作场景,在腾讯文档推出的智能助手功能中已有应用。同时,混元还能够一键生成标准格式文本,精通数百种Excel公式,支持自然语言生成函数,并基于表格内容生成图表,目前这些功能正在内测阶段,将在成熟后面向用户开放。

今年6月,腾讯云推出了模型即服务解决方案,提供涵盖模型预训练、模型精调、智能应用开发等一站式的行业大模型服务。最近,腾讯云也全面接入Llama 2、Bloom等20多个主流模型,和混元一样,都支持直接部署调用。客户可以根据实际需求,基于混元、也可以基于开源模型,打造自己专属的行业大模型。

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

md