6月21日上午,在一场北大光华管理学院的活动上,腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生表示,人工智能(以下简称“AI”)对世界的改变,一定是通过与产业融合实现的,大模型只是起点,未来应用落地的产业变革才是更大的图景。
汤道生在演讲中回顾了AI发展的历史,表示算法创新、算力增强、开源共创三大因素的叠加,构成了AI的“增长飞轮”。
(相关资料图)
他认为,现在的企业应该积极拥抱人工智能技术。过去传统的研发、生产、销售、服务等环节中,有很多依赖人来判断、协调与沟通的地方,都可以叠加AI的生产力来提质、降本与增效。而通用大模型缺乏专业知识和行业数据积累,导致模型的行业针对性与精准度不够,数据“噪音”过大,企业客户更需要有针对性的行业大模型产品。
在汤道生看来,企业使用的大模型必须可控、可追溯、可修正,而且必须反复与充分测试才能上线。如何在合理成本下选择合适安全的模型,是企业客户所需要思考与决策的。
以下为汤道生演讲摘要(有所删减):
随着大语言模型的发展,我们正在进入一个被AI重塑的时代,从生产销售、组织人才,到产业革新、社会发展,都会发生剧烈的变化。
许多企业管理者也在思考,如何把大模型技术应用到自己的企业场景中,比如在客服与营销环节,为业务经营带来更多降本增效?如何在使用大模型时,保护企业数据的产权与隐私?如何降低大模型的使用成本?这些都是企业管理者需要考虑的现实问题。
最近,OpenAI给ChatGPT API增加了函数调用能力,这意味着大模型也能使用工具了。自己不具备的能力,可以靠各种第三方服务尝试解决,大大增加了通用大模型解决问题的能力。
大语言模型代表人工智能的发展已经达到了一个新的高峰。用大量数据预训练的模型也推动机器视觉、语音识别、机器人等AI能力发生新的突破。
大语言模型不仅懂多种人类语言,还掌握多种程序语言,还可以帮助程序员写代码。我们打造了腾讯云新一代AI代码助手,实现AI对代码的理解,辅助程序员编写、排错与测试,为软件研发的全流程助力,提高开发效率与代码质量。
大语言模型不仅能与人沟通,更重要的是通过模型的精调,可以按需求产生一系列的执行步骤,比如联网调用不同插件的能力,加上多模态让AI同时能看懂图、听懂话、会规划、能行动,这样就可以做出更强大的应用,让AI更像真正意义上的智能助手,完成更高级的任务。
比如线上广告投放员,每天需要刷新大量广告素材,确保广告投放的ROI。如果结合广告效果数据与文生图能力,可以不断地根据数据分析,生成投放策略,调整投放渠道,并且针对性的生成投放素材,自动化程度与效率都会更高。
企业应该如何拥抱AI?
事实上,不管哪个行业都应该积极拥抱AI,过去的研发、生产、销售、服务等环节中,都有很多依赖人来判断、协调与沟通的地方,今天我们应该看下哪些环节可以叠加AI的生产力来提质、降本与增效。
既然大模型这么重要,在座的企业家与管理者,可能也会问我们如何把它用在企业上,抓住技术变革的红利?
我可以给企业管理者一些建议:
第一,聚焦企业自身业务,挑选具体场景,让AI成为服务的增量;
第二,确保训练数据质量,梳理出测试用例,建立上线评估流程;
第三,确保服务合规,同时关注数据的产权与隐私;
第四,使用云厂商工具,搭建一体化的模型服务,这样效率比较高,节约训练、运维的成本和时间。
在具体实施中,模型、数据和算力是大家需要格外关注的三个点。
首先是模型。虽然大家对通用大语言模型的聊天机器人期待很高,但它不是唯一的大模型服务方式,也不一定是满足行业场景需求的最优解。
目前,通用大模型一般都是基于广泛的公开文献与网络信息来训练的,上面的信息可能有错误、有谣言、有偏见,许多专业知识与行业数据积累不足,导致模型的行业针对性与精准度不够,数据“噪音”过大。
但是在很多产业场景中,用户对企业提供的专业服务要求高、容错性低,企业一旦提供了错误信息,可能引起巨大的法律责任或公关危机。因此,企业使用的大模型必须可控、可追溯、可修正,而且必须反复与充分测试才能上线。
我们认为,客户更需要有行业针对性的行业大模型,再加上企业自己的数据做训练或精调,才能打造出实用性高的智能服务。企业所需要的是,在实际场景中真正解决了某个问题,而不是在100个场景中解决了70%-80%的问题。
另外,训练数据越多,模型越大,训练与推理的成本也越高。实际上,大部分的企业场景可能也不需要通用AI来满足需要。因此,如何在合理成本下选择合适的模型,是企业客户所需要思考与决策的。
其次,数据是大模型的原材料。针对具体场景,相关数据的覆盖与质量都至关重要,标注数据的管理也是模型迭代中的重要工作。
模型最终要在真实场景落地,要达到理想的服务效果,往往需要把企业自身的数据也用起来。在模型研发过程中,既要关注敏感数据的保护与安全合规,也需要管理好大量的数据与标签,不断测试与迭代模型。
再次,算力是模型持续运转的基础。高性能、高弹性和高稳定的算力,需要借助专业的云服务。
在大模型的训练和使用过程中,需要大量异构算力的支持,对网络速度与稳定性要求也很高,加上GPU服务器比一般服务器稳定性更低一些,服务器的运维、问题的排查更频繁,整体运维的难度与工作量会高很多。
在训练集群中,一旦网络有波动,训练的速度就会受到很大的影响;只要一台服务器过热宕机,整个集群都可能要停下来,然后训练任务要重启。这些问题会使得训练时间大大增加,投入在大模型的成本也会飙升。
腾讯能做些什么?
基于这些企业现实问题和需求的思考,就在前两天,腾讯也正式公布了腾讯云MaaS服务全景图。
基于腾讯云TI平台打造的行业大模型精选商店,将覆盖金融、文旅、政务、医疗、传媒、教育等10大行业,提供超过50个解决方案。在这些能力模型基础上,客户只需要加入自己独有的场景数据,就可以快速生成自己的“专属模型”。
我们也推出基于腾讯云TI平台的行业大模型精调解决方案,帮助模型开发者与算法工程师一站式解决模型调用、数据与标注管理、模型精调、评估测试与部署等任务,减轻创建大模型的压力。我们也可以通过TI平台实现模型的私有化部署、权限管控和数据加密等方式,让企业用户在使用模型时更放心。
在算力服务上。腾讯云所提供的稳定计算、高速网络与专业运维,可以为算法工程师大大减轻设备运维的压力,让他们把精力放在模型的构建与算法的优化上。
腾讯云也打造了面向模型训练的新一代HCC(High-Performance Computing Cluster)高性能计算集群。其搭载最新次代GPU,结合多层加速的高性能存储系统,加上高带宽、低延迟的网络传输,整体性能比过去提升了3倍,获得了很多客户的高度认可,几家大模型独角兽,都与腾讯展开了算力合作。
在计算集群的“硬实力”之外,腾讯最近也推出了更适合AI运算的“软能力”——向量数据库,它能更高效地处理图像、音频和文本等非结构化数据,支持单索引10亿级规模,比单机插件式检索规模提升10倍,数据接入AI的效率也比传统方案提升10倍。
毫无疑问,AI对世界的改变,一定也是通过与产业的融合实现的。机器决策、自主生成、自然交互等一系列变革,推动产业实现更高效率、更低成本、更好体验和更大创新。未来的企业,也将向智能原生进化。