火山引擎总裁谭待:AI Agent元年竞逐,模型能力与云原生基建是关键

21世纪经济报道 21财经APP  
雷晨   2025-04-18 20:18:03

21世纪经济报道记者雷晨北京报道

如果说2024年被视作AI应用爆发元年,那么2025年则被视为AI Agent(智能体)的爆发元年。随着大模型技术从感知、生成向任务执行跃迁,AI正从“工具”升级为“助手”,甚至“代理人”。

在这一背景下,火山引擎总裁谭待4月17日下午在杭州接受媒体群访时,回答了AI技术演进趋势、商业化路径及行业竞争等问题。

在AI Agent元年的竞逐中,火山引擎重点关注模型能力,包括深度思考和多模态支持。而在这场马拉松中,胜负远未到分晓时刻。

谭待:模型竞争本质是能力竞争

“如果现在的AI发展是一场马拉松,我们可能才跑了500米。”谭待用这一比喻回应关于大模型竞争的提问。

在他看来,业界正处于你追我赶的状态,大家在竞争中相互推动,无论是技术还是行业应用都能快速发展,这本身是一件非常好的事情。这种竞争的关键在于能否把模型做好,与开源闭源关系不大。

过去一年,豆包大模型的日均token调用量从4万亿飙升至12.7万亿,增长超106倍。

这一数据的背后是模型能力的多次跃迁:从基础对话到深度思考,从文本处理到多模态推理。

谭待举例称,豆包深度思考模型在数学推理(AIME 2024)、编程竞赛(Codeforces)等专业测试中已接近全球第一梯队水平,而多模态深度思考能力更使其能精准完成“看图点餐”“项目管理流程图解析”等相对复杂的任务。

“每一次模型突破都会解锁新场景。”谭待表示,“例如深度思考功能上线后,企业客户开始用大模型处理财报分析、研究报告等长链条任务;视觉推理能力则让智能座舱、工业巡检等应用成为可能。”

谈及开源闭源之争,谭待直言:“火山引擎适配DeepSeek的速度和效果是行业最优的。”他透露,第三方使用DeepSeek的云服务中,火山引擎的占比最高。“这反而证明了我们的技术实力——当所有云厂商站在同一起跑线上,客户选择的是服务稳定性与性价比。”

谭待强调,火山引擎的定位是“AI时代最好的云”,其核心任务是通过AI云原生架构支持多元模型生态。“企业可以自由选择豆包或开源模型,但云厂商必须确保底层设施足够高效、灵活。”

AI云原生:智能时代的“新基建”

随着AI应用从聊天机器人向Agent(智能体)演进,传统云计算架构面临挑战:如何支撑百倍增长的token调用量?如何降低推理成本?如何让Agent安全操作现实世界?

谭待给出的答案是“AI云原生”——一套涵盖算力调度、开发工具、安全组件的全新基础设施。

“通过PD分离、KV缓存、异构硬件适配等技术,我们让GPU的推理效率提升5倍以上。”谭待介绍,火山引擎的ServingKit推理套件可将KV缓存命中率提高10倍,并支持弹性计算资源分配。例如,在延迟不敏感的场景中,旧型号GPU仍可高效运行,从而拉长硬件生命周期。

这一优化直接降低了企业成本。杭州银行基于火山引擎AI云原生搭建的“百业云”,为中小商家提供7*24小时智能客服,服务成本仅为传统方案的1/3。

Agent被视为AI的下一站,但其开发复杂度远超单点应用。谭待指出,真正的Agent需具备三项能力:深度思考、多模态交互和操作数字/物理世界的工具链。为此,火山引擎推出OS Agent解决方案,整合了三大核心组件:豆包UI-Tars模型、Sandbox沙箱环境、veFaaS无服务架构。

“技术发展总是短期被高估,长期被低估。”谭待预测,未来2-3年,模型能力若在视觉推理、Agent协作等领域取得突破,token调用量或再现百倍增长。但实现这一目标的前提是AI云原生的成熟——它不仅是算力池,更是智能时代的“水电煤”。

对于行业热议的“AI下半场”说法,谭待并不认同:“现在连上半场都没打完。只有当AI能像人一样思考、感知、行动时,才算真正改变世界。”

全站地图