从春节到现在,有两个热点热度一直延续。
一是电影《哪吒2》票房一路走高,叫好又叫座,最近全球票房已破百亿;二是AI大模型,从餐桌到办公室,从老人到孩童,或多或少都能聊几句大模型。
这两天,百度又给AI大模型添了一把柴——又是免费,又是开源,将AI大模型的火越烧越旺。
开年大戏
蛇年开工第二周,百度密集宣布了多项AI大模型的大动作:
2月13日,百度宣布文心一言将于4月1日0时起,全面免费,所有PC端和APP端用户均可体验文心系列最新模型。同时,文心一言上线深度搜索功能,该功能也将于4月1日起免费开放使用。
2月14日,百度官方微信公众号宣布:“我们将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源。”
再加上市场传言的百度将于今年下半年发布文心5.0,百度几乎包圆了蛇年第二周的所有AI大事件。
有三个关键词。一是免费,有人会纳闷,文心一言不是一直都可以免费使用吗?其实,目前所有用户可免费使用主要是文心大模型3.5,可以满足日常所需,但会思考、自主规划、效果更全面的文心大模型4.0、4.0Turbo等版本仍需要收费。
此次百度官宣免费,是指1个多月以后,4.0、4.0Turbo等最新版本都将免费给用户使用。这意味着,更多用户可以使用到功能更强的文心一言产品,更深刻干感受大模型的力量。
二是开源,是与闭源对应。之前百度文心大模型是其自主开发、代码不公开,他人无法共享、修改。这也是谷歌、OpenAI等大厂,一直坚持的路线,其优势是大厂投入多、技术可控、性能通常更好。
从6月30起,百度将开源文心4.5等模型。所谓开源,即所有人都可看到其大模型代码,知道其算法逻辑,知其然知其所以然。选择在此刻开源,是百度对自身实力的自信。大模型度过了初步发展阶段,进入AI应用爆发阶段,开源有助于技术更快传播,提高采用率,为好奇的人们做AI应用创新带来更多机会。
过去几年,百度文心一言虽然是闭源,但一直致力于大模型开放平台和生态建设,飞桨平台等,帮助不少企业0门槛研发适宜自身情况的大模型产品。而且,百度已经集结了国内规模最为庞大的AI大模型开发者。
而且,与OpenAI相比,更能看出百度开源的决心。百度宣布开源的同期,海外媒体传出OpenAI内部正在讨论开源模式,不过,相比百度开源最新系列模型产品,OpenAI考虑开源的还是旧版本的模型。
此次开源,毫无疑问将极大繁荣行业生态,已经聚集起来的开发者将参与文心一言产品的开发、完善,也能进一步推动文心一言的持续成长。
三是上新。官宣文心一言4.5未来几个月推出以外,市场还传出百度将于下半年推出文心一言5.0,这意味着今年又将是百度文心大模型的“高产年”。年初就宣布持续、高频的迭代计划,意味着百度对技术有充分信心和把握。
四层架构
从AI布道者到AI先生,李彦宏及创立的百度,过去十多年,是中国公司中相信AI、All in AI的几乎唯一代表。
从飞浆开放平台到编写AI教材,再到组织开发者竞赛。百度对于国内AI创新及生态建设的努力是持续的。此次开源和免费也是其情怀的延续。
对于百度文心大模型的开源、免费,市场持积极态度。13日官宣免费当天,百度股价一度上涨12%,当日收盘大涨10%。
市场积极看好其免费和开源策略的原因在于,此举不仅能给百度带来更多用户,抢占更大市场份额,带来业绩层面的增长,更能反映百度技术实力和面向未来的持续竞争力。换句话说,市场不仅看重百度情况,更看重其技术实力。
用李彦宏的话来说,之所以能免费,在于百度在大模型领域的成本足够低。“当我们谈论大型语言模型时,12个月内推理成本基本上可以降低90%以上成本。”
而支撑百度大模型低成本的则是其独特的四层AI技术全栈架构,具备了从芯片到应用的端到端的能力,这也是目前国内独一份。
这里的全栈架构包含芯片、框架、模型、应用四层。懂懂拆开给大家讲解。
芯片层是AI大模型的底层硬件。大模型离不开强大算力,而芯片就如同人的大脑,脑力越强,算力越充沛。百度自研了昆仑芯等AI芯片,专门服务高效处理AI模型的训练和推理任务。
同时,百度还有强大计算资源。前不久,刚点亮昆仑芯三代万卡集群。万卡集群可将千亿参数模型的训练周期大幅降低,并支持多任务并发能力,通过动态资源切分,单集群可同时训练多个轻量化模型,减少算力浪费,从而实现训练成本指数级下降。
框架层主要是飞桨这样的开发工具。百度将其开源给全行业的开发者使用,简化了AI模型开发流程,使得开发者可以用它来构建、训练和部署AI模型。
模型层主要是文心一言大模型产品,能够处理复杂任务(自然语言处理、图像识别等)。同时,百度还提供多个预训练模型,开发者可以直接使用或基于这些模型进行二次开发。
应用层是指百度把AI大模型应用到使用使用端,目前百度搜索、百度文库、百度地图等产品,均实现了大模型改造,大量用户日常使用,证明了AI大模型的落地能力,也推动其不断学习、完善。
自研芯片和充沛计算资源,使得百度持续降低大模型训练成本,而四层结合的技术架构,又使其推理成本不断下降。在24年初的财报电话会上,李彦宏曾经透露,自发布以来,百度不断降低文心大模型的推理成本,已降低至一年前的1%,意味着一年降低了99%的成本。
自研的四层技术架构,带动百度AI大模型成本不断降低,也是其开源、免费的底气所在。
红利释放
过去几年,大模型的关注点主要是从通用大模型向行业垂类大模型的迁徙。未来几年,基于AI大模型的应用爆发将是行业竞争的焦点。
不论前者还是后者,底层逻辑都是大模型产业的创新和成本。
李彦宏认为,回顾过去几百年的历史,大多数创新都与降低成本有关。如果成本降低一定比例,生产力也随之提高同样比例,这就是创新的本质。在今天,创新速度比以往都快得多。
前面已经分析过,百度大模型降本的逻辑。更低的成本,也促使百度发布性能更强大的大模型产品。
据外媒报道,百度计划在今年下半年发布下一代 AI 模型“文心 5.0”,其重点将在多模态能力上提升。
何为多模态?即可以处理文本、视频、图像和音频等不同形态的数据,并进行转换,比如将文本生成视频,将文本生成图像,并进行反向操作等。业界猜测,这将是百度对标OpenAI计划今年发布的GPT-5的一款产品。
从2025年开始,低成本、免费、开源有望成为越来越多大模型厂商的选择。尤其,百度、OpenAI等拥有庞大用户体量的头部厂商跟进,将进一步加速行业创新和成本降低。
而开源和免费将逐步释放红利。首先是带动用户规模更上一层楼。根据百度的数据,截至去年11月,百度文心一言用户规模达到4.3亿,调用量为日均15亿次,是国内最高的。随着4月1日更新版本的全面免费,文心一言的调用量将迎来新一轮爆发。
其次是行业生态完善及领导地位的巩固。如前所述,百度一直在推动AI大模型的开放。目前,百度智能云的千帆大模型平台,已经汇集近百个国内外大模型,以及语音、视觉等传统小模型。春节期间走红的DeepSeek R1和V3模型也接入千帆平台,且最低仅为DeepSeek官方定价的30%。
千帆平台已累计帮企业客户精调了3万个大模型,开发出超77万个企业级应用。
开源之后,将有更多开发者和企业客户应用文心大模型,无疑将为百度构建大模型生态提速。
在开源、免费这一大模型新趋势面前,百度再次走在了行业前列。要想在新趋势中持续领跑,百度将依赖对底层能力的持续建设。李彦宏表示:“当技术发展如此之快,你必须持续投入,以确保处于技术创新的最前沿。我们仍需对芯片、数据中心和云基础设施进行持续投入,来训练更好、更智能的下一代模型。”