发新帖

这一次,腾讯要让人人都能「用好」大模型 行业新闻

威尔德编辑 6月前 9624

这一次,腾讯要让人人都能「用好」大模型

引语:非共识时代

今天的大模型 To B 赛道,仍然是一个非共识的时代——大模型如何落地,给企业产生实际价值,即使一年过去,也没有一个标准答案。

而厂商想用大模型开拓 B 端市场,则大多从自己的基因和能力出发,各出奇招,至今已经有了几条比较成熟的打法:

有些厂商,意在用更大、更强的基础大模型做突破,以更好的泛化能力应对需求多样的 To B 市场;

有些厂商,则通过数据清洗、精调等手段,把大模型精调成具体行业的形状,再用“大模型商店”让客户可以自由挑选,甚至自己做自己的定制化;

有些厂商,意识到了 AI 原生应用的重要性,便依托自己的大模型能力,接连推出不少应用,快速登陆抢占市场。

各个厂商八仙过海,路径各有千秋,赛道竞逐至今,几个流派仍然还未能分出胜负,非共识向着共识的收束仍在继续着。

当人们讨论到大模型 To B,常常各持己见,有人说技术、有人说应用、有人说生态,难以争出个高下;

而在这个纷争的非共识时代,作为一家拥有着丰富经验的 To B 大厂,腾讯却想要走一条自己的 AI 之路。

一、大模型工具链,卷到什么程度了?

大模型赛道的火热,最能让人感受到的是 AI 原生应用和 Agent 产品的爆炸式增长,繁荣如同烟花升空,好不热闹。 

 作为看客,自然可以额手称庆,感慨于国内大模型产业发展之迅速;而如果拨开鲜花和掌声,着眼于实际的 To B 生意,就能发现,AI 大模型在 B 端市场的渗透率,则远不如一年前预期中的高。

在实际推进落地的工作中,腾讯自然也看到了这一点。

去年6月19日,腾讯云向外界推出了“行业大模型”,一时间让大家看到了大模型在行业落地的希望。雷峰网过去的报道《行业大模型落地肉搏:谁先扎进行业,谁就先入“咸阳” 》就讲到:“腾讯行业大模型给出的方案,是在平台上开放多个模型,企业在选用了更加适合的模型后,可以针对自己的具体需求,进行定制化的训练。”

这条道路,也被不少追随者所认同——纷纷开放大模型商店,“货架”上摆满了不少琳琅满目的模型以及原生应用。而实际的效果,正如今天看到的一样,还并不能非常完全地解决企业的问题。

而回到腾讯云,在去年619——甚至是在制定 AI 大模型战略的第一天,他们应该就清楚,行业大模型想落地,必须往前再走走。

一方面,腾讯知道,一个模型就算再大,也无法满足大 To B 行业中众口难调的多样、复杂需求,同时也要考虑到 Scaling Law 对于成本的消耗,于是去年6月19日,腾讯推出了自己的行业大模型,把大模型的数据、调优等能力交给用户,让用户定制适合自己的大模型;

这样的想法终归很好,但却远不是大模型 To B 的完成形态——不少IT能力稍弱的用户很难做数据清洗、筛选,更别提模型的精调和评估,行业大模型再好,也不是能覆盖大部分 B 端客户的“解药”。

去年发布行业大模型时,腾讯早就有挽起裤腿,深入 To B 战场的决心。而到了今天,腾讯则必须向深处更进一步,距离用户更近,提供更加一站式、傻瓜式的服务,做可以“开箱即用”的大模型产品。

在这一点上,腾讯则展现出了谨慎而克制的一面——从金融、医疗、教育等行业大模型为起点,腾讯不做大水漫灌,也不做激进探索,而是一步一个脚印,做单点的行业突破,聚焦用户需求细节,站稳脚跟,小步快跑。

“腾讯始终以‘产业使用’,作为发展大模型的核心战略。”在今天召开的腾讯云生成式AI产业应用峰会上,腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生说道。

而到了实际的产品发布,一站式AI智能体创作与分发平台“元器”、一条由三大引擎组成的大模型工具链,也被正式推出向公众展示。

实际上,如果用心留意,工具链几乎是每一个大模型平台的标配——毕竟,没有好的工具链支持,AI 原生应用就没法在平台上落地发芽。而各大平台要争夺用户,工具链产品必须得卷,让开发者用得舒服,才能转化为平台上的活跃用户,进而给平台带来活力。

而腾讯云大模型工具链的“卷”,则上升到了一个新的高度。

别人“卷”大模型,卷的是模型效率优化,卷精调的易用性,卷低代码——甚至零代码的用户体验。

而腾讯云,除了这些“必修课”,还“选修”了不少别的“小课”。

以知识引擎为例,用户输入一系列文档,就可以生成一个基于文档知识的 AI 助手。

举个例子,一个保险行业的客户,只需将自己保险产品的说明书录入知识引擎,再加上一些简单的功能描述,按几个按钮,几分钟过去,就能获得一个专属于自己的 AI “保险代理人”,而完全不必关注所谓数据清洗、模型精调等等“高大上”的操作。

而做好知识引擎,腾讯云的杀招不在大语言模型能力上,而是检索增强(RAG)和辅助文档解析和理解的 OCR 大模型。

整合 RAG 进入大语言模型,对于大模型来说,并不是一个独特的技术路线:通过对输入文档的检索,减少大模型性能的浪费,并减少幻觉——而这两点,都是 B 端客户在使用大模型时,最看重的指标。

在接受采访时,腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声就提到,在将大模型推向 B 端时,遇到过两个很大的难题:

一个是大模型厂商和客户在行业 Knowhow 上的信息差、经验差,让大模型很难真正“落到地上”;

一个是客户对于 AI 的预期很高,都希望 AI 可以一键解决自己的大部分问题,而这与实际还有不少差距。

两个问题统合起来,就把矛盾集中到了一个点:“如何让 AI 可以快速理解企业 Knowhow,并用更低的成本、更简单的操作来带来价值。”

人们对 AI 的想象,是把自己的资料输入给人工智能,人工智能就能理解文档,从而基于文档的内容作答。而实际上,想要 AI 像人一样理解文档的内容,却并不像想象中一样简单。

AI 要理解、输出知识,首先需要精准地将信息进行切分一个个的信息块,其次还得可以准确地检索到用户问题指向的内容。腾讯集结团队,自研了 Tencent RAG (TRAG)架构,为了让客户能够省心、放心,腾讯在 TRAG 做了不少新的尝试:

在知识切分的角度,TRAG 用了相当暴力的方式,先让 AI 理解文档的结构,理清各级标题,再对每个文本做语义级的拆分,在每个切片长度可控的前提下,让 AI 对信息的理解不缺字漏字、断章取义;

而在检索的角度,TRAG 的工业级检索已经支持 4K 左右的规模,并继承了多种检索策略,在各种检索的榜单上,也经常盘踞头名的位置。

也正是这种对细节问题的坚持,让腾讯知识引擎得以在大模型推理、生成能力不掉队的前提下,可以在回复质量上完成突破——相比之前的 AI 客服,腾讯方面的专家介绍道,知识引擎在客服领域的用户满意程度,上升到了之前的两倍。

除了知识引擎,腾讯云本次推出的图像、视频创作两大引擎,也同样各有千秋,服务了不少重点客户并且获得许多好评,本质上,也离不开对用户需求细节的关注。

依托腾讯混元大模型的多模态能力,腾讯云的图像、视频创作引擎,给使用者提供了图像风格化、AI写真、运动笔刷、图片跳舞几大功能,让一般用户可以用 AI 改变过去拍照、拍摄视频的方式;

而生产力工具线稿生图、视频转译、视频画布拓展等能力,则让专业使用者大幅提高了创作与生产效率,能切实地给行业带来一波巨大的产能红利。

就如上面提到的,相比同赛道的竞逐者,腾讯云大模型 To B 关注的领域和行业更加聚焦,以金融、医疗、教育等重点行业为锚点,不断地升级技术、深入理解需求、完善产品,把打下的山头站住、站稳,把每一步都走得踏实。

在金融行业,腾讯与圆心惠保合作,让 AI 成为保险代理人的高效智囊。圆心惠保过去以传统 NLP 作答的机器人,回答准确率仅在57%,几乎对错“五五开”;而得到腾讯知识引擎的支持后,这个数字则提高至了85%,平均下来,给保险经纪人提效了50%。

而教育行业同样对大模型需求非常旺盛。河南省数字教育发展有限公司就在知识引擎的帮助下,仅仅两三个月的前端开发,就成功地把 AI 放进了教案生成、活动策划、虚拟辅导员等教育活动全流程当中,让人工智能在教辅场景的采纳率接近90%,而习题解析和百科问答的准确率则接近了95%。

有技术实力,也有下探行业 Knowhow 和实际需求的耐心,腾讯的“稳”,就是决心要用户危险,做开箱即用的“傻瓜式”产品,让企业用好大模型的“最后一公里”能走的顺畅、稳健。

二、“傻瓜”产品,背后一定是硬实力

傻瓜式产品,是最符合世界对 AI 想象的场景——细枝末节的事情由人工智能操心,人类只需要提供创业和构思,生产力就自然被解放了出来。

而要把 AI 做得“傻瓜”,也绝不像人们想得这么简单——背后没点硬实力、强支持,开箱即用的产品还真不这么好做。

在平台支持的角度上,腾讯云 TI 平台在背后提供的超强能力,让做成“傻瓜”产品成为了可能。

今天的峰会上,腾讯也披露了 TI 平台的全新升级:

新增了三大类数据处理流程,简化了100多种任务类型的数据配比;通过优化Prompt和提供Notebook代码,降低了数据处理的复杂性;同时,支持任务排队,提高平台处理能力和稳定性。

数据处理链和精调工具链的全面升级,让 TI 平台有了做好这个灶台的底气——让知识引擎等等 PaaS 产品,进一步降低 B 端用户使用大模型的门槛;

而在与知识引擎的联调中,TI 平台也同样担任了大模型优化飞轮的一部分——支持客观和主观两种评测方式,TI 平台可以结合业务难例和知识库,进行端到端的效果评测,并且持续关注模型精调后的效果,让用户可以及时了解、优化大模型的业务效果。

TI 平台给大模型的数据清洗、精调、评估带来了全面、轻量化的升级;

而到了 MaaS 层,行业大模型也被内置进了知识引擎,让知识引擎可以针对具体的垂直领域,完成有针对性的性能优化。

比如,腾讯的金融行业大模型,在金融舆情分析、投资顾问等场景下,有针对性地进一步强化了专业术语理解、数值计算、文案生成及合规性等方面的性能,让降低了 AI 产品的定制化成本,试图打破 AI To B 的行业“魔咒”。

 

有了 TI 平台和行业大模型的加持,腾讯自己的混元大模型,同样也是 To B 战场上,一个重要的利器。

经历了再一轮全面升级,又在腾讯内部600个业务场景中开始落地,混元大模型今天已经分化成了 hunyuan-pro、hunyuan-standard、hunyuan-lite等多种尺寸的版本,并已经在腾讯云上,向企业和开发者全量开放。

“能文能武”的腾讯混元,在这一轮升级后,总体性能较之上代,又飞速提升了50%,部分中文能力已经可以追平GPT-4,距离世界领先的 AI 水准更进一步,而 Standard 版本开始支持 256K 上下文的理解,在长文档的理解和处理上也提效不少;

在多模态能力上,混元也开始支持图片、视频、甚至 3D 内容的生成,生成的视频长度可以达到16秒,效果也不输不少竞品。

除此之外,持续升级的还有腾讯的向量数据库,和大模型数据向量化工具——在一系列技术加持下,腾讯和 B 端客户的距离,正通过一套完整的工具链生态,变得越来越近。

结语:一年过去,腾讯变了吗?

“我们肯定是没变过的——腾讯自始至终的导向,都是要距离客户更近。今天,我们提出了知识引擎等三大引擎以及一系列产业应用,和一年前一样,都是为了用户用 AI 的门槛进一步降低。”在接受采访时,吴运声如此说道。

“我们还是要将行业大模型不断地迭代,目的只有一个,就是做‘距离产业更近的 AI’。相比行业大模型,知识引擎距离用户更近,未来可能还会有可以让我们更进一步的成果。”

To B 与 To C 行业不同,不能“一招鲜吃遍天”,而是要随时面对持续产生的新问题,做新的变化,跨过新的挑战;

在这一点上,腾讯大模型 To B 如果不“变”,或者说,不持续地进化,那么终将被 B 端市场无情的大浪淹没。

而长远来看,这一年,不管技术如何变迁,产品如何演进,腾讯的初心没变,路线更没变——通过不断升级行业大模型能力和工具链、产品生态,完成小步快跑,逐个击穿行业,完成渗透和突破。

而从基础大模型到行业大模型,再到AI 智能体应用的演变,实际是腾讯正坚持自己大模型 To B 战略路线的印证。

去年一年,行业已经目睹了盛行在 AI 大模型赛道的“加速主义”,对“错过”的恐惧支配了不少狂飙突进的厂商,让整个赛道炙手可热。

而面对新的激流,吴运声似乎表现得相当淡定。在被问及“今年最大的 KPI 是什么”时,他的回答也一如腾讯云的战略气质——冷静,而克制:

“我们今年最大的 KPI,既不单纯是技术,也不是市场或者商业化,而是我们是否能真正让客户用得满意。反过来说,只要客户满意,我们的技术自然可以得到滋养,市场覆盖率和营收也自然就上来了。

雷峰网

雷峰网(公众号:雷峰网)

雷峰网原创文章,未经授权禁止转载。

注:本文转载自雷锋网,如需转载请至雷锋网官网申请授权,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权行为,请联系我们,我们会及时删除。

成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加- 版权声明 1、本主题所有言论和图片纯属会员个人意见,与成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加立场无关。
2、本站所有主题由该帖子作者发表,该帖子作者威尔德编辑成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加享有帖子相关版权。
3、成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加管理员和版主有权不事先通知发贴者而删除本文。
4、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者威尔德编辑成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加的同意。

这家伙太懒了,什么也没留下。
最新回复 (0)
只看楼主
全部楼主
    • 成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加
      2
        立即登录 立即注册 QQ登录
返回
免责声明:本站部分资源来源于网络,如有侵权请发邮件(673011635@qq.com)告知我们,我们将会在24小时内处理。