本文作者:访客

豆包消灭联网搜索

访客 2025-04-07 17:26:53 81395
豆包消灭联网搜索摘要: 坚持不在豆包中接入DeepSeek的字节,在自研深度思考功能上又有了新动作。继3月18日豆包APP全量上线深度思考功能...

坚持不在豆包中接入DeepSeek的字节,在自研深度思考功能上又有了新动作。

豆包消灭联网搜索

继3月18日豆包APP全量上线深度思考功能后,时隔十天之后,近期豆包又对深度思考功能做了番更新,主要亮点在于将联网搜索能力直接融进了思考过程中,可以实现“边想边搜”。直白点理解,就相当于豆包把联网搜索键与深度思考键合二为一了。

此前,在DeepSeek R1爆火后,深度思考和联网搜索两大功能,一度成为AI助手类产品的设计新标准。

DeepSeek R1在年初爆火之后,联网搜索由此成为一个新的按键,标配在一众AI助手产品中。

最新(可能也是主流大模型公司中最后一家)选择跟进的是Anthropic,其在近日宣布聊天机器人Claude即将启用网络搜索功能,打破了自身一直维持的“自给自足”设计理念,开始提供更多实时检索信息,来回应用户的需求呼唤。

2022年底ChatGPT刚刚发布时,并不能进行联网搜索,大模型所提供的信息截止到2021年7月份,也暂不具备从其经验中学习的能力。

当2023年3月份百度文心一言发布后,其对外宣传的产品亮点之一,便是引入了检索增强(RAG)技术,在给模型补上获取实时信息的短板之外,还可以起到帮助削弱模型幻觉的作用。

DeepSeek在R1推理模型上新设计的联网搜索按键,则在此前检索增强技术的基础上,使得模型获取网页的数量和丰富度,进一步提高。

目前,根据DeepSeek给出的回答,其模型知识库仅更新到2024年7月,所以在没有勾选联网搜索的情况下,面对“今天北京天气”的询问,R1会告诉用户自己无法提供实时天气数据,并建议用户开启联网搜索功能。

之所以进入到推理模型后,大模型厂商才开始将联网搜索拆分出来,单独设计了一个新的按键,其首要原因便在于控制算力消耗成本。

R1爆火之后,英伟达创始人黄仁勋就对外多次强调,推理模型正在消耗更多的计算能力,“(推理模型)可以消耗100倍以上的计算资源,而未来的推理模型将消耗更多的计算资源。”

同时,考虑到当下大模型厂商C端的商业变现手段更多通过订阅制,将深度思考和联网搜索分开设计,也是出于一种商业化的考量,“分开设计有利于形成产品梯度,刺激用户购买付费版本。”

这一点在OpenAI、Anthropic和Grok上都有着直观体现。尽管2月份后OpenAI向ChatGPT免费用户也开放了推理功能,但却从思考深度和思考次数上给出了限制。

此外,从用户体验侧考量,将深度思考和联网搜索功能分开,则可以平衡用户对生成答案更快和更好之间的需求。

豆包一反行业常态,将联网搜索和深度思考合二为一的背后,也有着自己的诸多考量。

在获取新用户上,国内外AI厂商都越来越看重“好奇流量”,“只要一个产品看起来有一些不一样的神奇功能,或者哪怕没有落地,还只是炫酷的演示Demo,就会吸引用户快速尝试。”

这次,豆包消灭联网搜索的产品优化之举,在过去一周左右时间后,也暂未迎来行业破圈效应。

但在国内一众AI助手产品中,豆包又有着更迫切的规模增长需求。

DeepSeek爆火之前,豆包是中国月活用户数最多的AI助手应用。在被DeepSeek赶超后,据晚点LatePost爆料,2月份的All Hands全员会上,字节CEO梁汝波列出了2025年的重点目标,其中之一便是要求团队加强规模效应,继续做大豆包用户群。

QuestMobile向《财经》提供的数据显示,截至3月4日,DeepSeek、豆包日活跃用户分别是4885万、2947万。而梁汝波今年对豆包的DAU也提出了新目标,晚点LatePost报道中,今年豆包的 DAU 目标是超过 5000 万。

支撑豆包追求更大规模用户,以及顶着算力消耗压力将联网搜索融入深度思考功能中的底气之一,都离不开字节在GPU上的充裕储备。

受益于推荐算法时期积累的芯片使用量,2023 年时,有媒体报道字节GPU储备已超过10 万块;在外媒最新报道中,2025年字节AI算力采购预算将高达900 亿元以上。

在豆包做出尝试的功能融合方面,已经有大模型厂商选择了跟进。

近期,百度通过“自研+开源模型”的组合,新上线了“自动模式”。该模式下,大模型能够自动识别用户需求,从而自主选择合适模型来生成答案,在产品界面上,不仅不再展示联网搜索键,连深度思考键也一并隐藏了起来。

3月25日,DeepSeek官宣V3版本更新。新版本V3-0324虽然不是推理模型,但却有了一丝丝的R1味道。官方技术报告中透露,V3-0324和之前的V3使用的base模型相通,但改进了后训练方法,并借鉴了R1推理模型训练过程中的强化学习技术。

几乎同一时期,腾讯新上线的混元T1正式版推理模型,则在保证内容精细和准确度的前提下,通过首次将混合Mamba架构无损应用于超大型推理模型,将快慢思考结合了起来,从而达到缩短用户等待生成结果时间的效果。

不止国内,国外大模型公司也都在往模型融合统一的道路上迈进。

Anthropic更是抢先OpenAI一步,在2月底发布了“全球首个混合模型”Claude 3.7 Sonnet,在单一架构上整合了实时应答(Fast Thinking)和深度思考(Slow Thinking)。用户不需要在不同的模型间进行切换,而是靠模型自行判断当前问题是否需要深度思考。

未来,随着模型回归一统,在刘凯看来,模型载体之上的一系列功能按键,也有望回归更加简洁的设计,最终使得AI产品体验无限趋近于人。

之所以当前阶段一众AI助手产品加入了五花八门的功能标签,背后则是大模型产品用户渗透率还比较低的现实困境。

除了用户使用频率不高之外,大模型技术尚未进入成熟稳定期,也是促使其产品功能标签众多的原因之一。

国内外的一众大模型厂商,目前其实都是基于一个非确定性系统极高的模型来设计产品,这导致的一种情况是,大多数AI厂商以“模型思维来主导产品设计,而非应用思维。”

就连奥特曼都在近期接受采访时坦承,当时内部只是在以一个研究实验室的标准来运行,根本没有想过会成为一家消费科技公司。

但随着模型普及教育的不断深入,越来越多大模型厂商开始重视起核心用户体验,“这就是产品一步步更像人的演化过程。”

阅读
分享