工联网消息(IItime) 4月25日,Create2025百度AI开发者大会在武汉举办。会上,百度创始人李彦宏表示,将帮助开发者全面拥抱MCP。同时,百度正式点亮了国内首个全自研的三万卡集群,可同时承载多个千亿参数大模型的全量训练,支持1000个用户同时做百亿参数的大模型精调。
同时,李彦宏在会上发布了最新的文心大模型4.5 Turbo和深度思考模型X1 Turbo。文心大模型4.5 Turbo和文心大模型X1 Turbo,价格优势显著。文心大模型4.5Turbo,每百万token的输入价格仅为0.8元,输出价格3.2元,相比文心4.5,价格下降80%,仅为DeepSeek-V3的40%;文心大模型X1 Turbo,输入价格为每百万token1元,输出价格4元,相比文心X1,性能提升的同时价格再降50%,仅为DeepSeek-R1的25%。
李彦宏认为,当前开发者做AI应用的一大阻碍,就是大模型成本高、用不起。成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。
“多模态将成为未来基础模型的标配,纯文本模型的市场会越变越小,多模态模型的市场会越来越大”。基于这样的判断,文心大模型4.5 Turbo和X1 Turbo都进一步增强了多模态能力。在多个基准测试集中,文心4.5 Turbo多模态能力与GPT 4.1持平、优于GPT 4o。
文心大模型X1 Turbo是基于4.5 Turbo的深度思考模型,性能提升的同时,具备更先进的思维链,问答、创作、逻辑推理、工具调用和多模态能力进一步增强,整体效果领先DeepSeek R1、V3最新版。
“有了这样超级能干的基础模型,我们就可以打造出超级有用、超级有趣的AI应用来。所有这些发布,都是为了让开发者们可以不用担心模型能力、不用担心模型成本、更不用担心开发工具和平台,可以踏踏实实地做应用,做出最好的应用。”李彦宏说道。
对于一年多来大模型领域所呈现的“百模大战”的态势,李彦宏表示,只要找对场景,选对基础模型,“有时候还要学一点调模型的方法,在此基础上做出来的应用是不会过时的。”他强调,“没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。”