腾讯在大模型的研发和应用上取得了显著的进展。近日,腾讯公开分享了其行业大模型的最新动态。在一次采访中,腾讯云副总裁吴运声表示,大模型与产业结合还处在早期阶段,但随着算力发展速度的提高,行业对大模型的理解也在不断深化。
腾讯首次对外公开了行业大模型的研发进展,他们发布了基于腾讯云TI平台打造的行业大模型精选商店,提供了MaaS(Model-as-a-Service)一站式服务。这个服务能够帮助客户构建专属的大模型和智能应用,为他们的业务提供强大的支持。腾讯已经与22家客户启动了行业大模型共建合作,并且与17家生态伙伴一起推动了“腾讯云行业大模型生态计划”,共同推进大模型在产业领域的创新和应用。他们利用腾讯HCC高性能计算集群和大模型能力,为传媒、文旅、政务、金融等多个行业提供了超过50个大模型行业解决方案。
吴运声指出,大模型不一定要有巨大的参数规模。他认为,大模型的核心在于根据客户需求制定相关的模型参数,而不是一味追求“规模大”或是“参数高”。他相信,随着技术和算力的发展,大模型的参数规模也会在不断上涨,但腾讯更关注的是如何用更有效的方法和更低的成本去解决问题。
大模型在中国已经变得非常流行。据报道,目前中国已经发布了79个10亿参数以上的大模型,主要集中在北京和广东。这明显说明了大模型在中国的研发和应用已经取得了突出的进展。
腾讯的大模型已经在多款产品中得到了应用,包括腾讯企点、腾讯会议、腾讯云AI代码助手等。例如,腾讯会议宣布将推出覆盖会议全流程场景的AI小助手,只需通过简单的会议指令,就可以完成信息提取、内容分析、会管会控等多种复杂任务。腾讯云也将推出新一代AI代码助手,利用AI来重塑开发体验和团队能力。
此外,腾讯还在硬件方面进行了投入,以支持大模型的训练和应用。今年4月,腾讯云发布了新一代HCC(High-Performance Computing Cluster)高性能计算集群。这个集群使用了腾讯云自研的星星海服务器,搭载了英伟达的H800 GPU。服务器之间采用了3.2T的互联带宽,为大模型训练、自动驾驶、科学计算等提供了高性能、高带宽和低延迟的集群算力。据公开资料显示,H800是英伟达最先进的芯片之一,其算力超过了旗舰芯片A100的三倍,这也是国内首次发布搭载H800的大模型产品。
总结来说,腾讯在大模型的开发和应用上正在不断取得进展。他们不仅在硬件和算力上进行了大规模投入,而且还积极推动大模型在各种行业中的应用。尽管大模型仍处在早期阶段,但腾讯已经看到了其在业务和科技创新中的巨大潜力,并希望通过更有效的方法和更低的成本来解决问题,从而推动大模型的发展。
更多内容请关注我的公众号“探索者日记”