发新帖

李彦宏内部讲话曝光:谈大模型三大认知误区,未来模型之间的差距会变大 行业新闻

威尔德编辑 2月前 8628

“外界对大模型有相当多的误解,”近日据媒体报道,李彦宏的一则内部讲话曝光。在最近一次和员工交流中,李彦宏谈及三个大模型认知误区,涵盖了大模型竞争、开源模型效率、智能体趋势等热点话题。

李彦宏认为未来大模型之间的差距可能会越来越大。他进一步解释,大模型的天花板很高,现在距离理想情况还相差非常远,所以模型要不断快速迭代、更新和升级;需要能几年、十几年如一日地投入,不断满足用户需求,降本增效。

榜单不代表大模型实力,模型之间的差距是多维的

对于行业“大模型之间的能力已经没有壁垒”的说法,李彦宏给出了不同观点。“每次新模型发布,都要和GPT-4o做比较,说我的得分已经跟它差不多了,甚至某些单项上得分已经超过它了,但这并不表明和最先进的模型就没有差距了。”

他解释说,很多模型为了证明自己,会在发布之后去打榜,会去猜测试题目、答题技巧,从榜单上看 ,或许模型的能力已经很接近了,“但到实际应用中,实力还是有明显差距的。”

李彦宏指出,模型之间的差距是多维度的。行业往往更关注理解、生成、逻辑、记忆等能力的差距,但却忽视了成本、推理速度等维度,有些模型虽能达到同样效果,但成本高、推理速度慢,还是不如先进模型。

内部讲话中,李彦宏认为,真正要去衡量大模型能力,应该是在具体应用场景中,看是否能满足用户需求、产生价值增益,这才是最值得被在乎的。

开源模型效率不高,解决不了算力问题

延续此前观点,内部讲话中,李彦宏进一步阐释了外界对开源大模型的认知误区。

“在大模型时代之前,大家习惯了开源意味着免费、意味着成本低。” 他解释说,比如开源的Linux,因为已经有了电脑,所以使用Linux是免费的。但这些在大模型时代不成立,大模型推理是很贵的,开源模型也不会送算力,还得自己买设备,无法实现算力的高效利用。

“效率上开源模型是不行的。” 他表示,“ 闭源模型准确讲应该叫商业模型,是无数用户分摊研发成本、分摊推理用的机器资源和GPU,GPU的使用效率是最高的,百度文心大模型3.5、4.0的GPU使用率都达到了90%多。”

李彦宏分析,在教学科研等领域,开源模型是有价值的;但在商业领域,当追求的是效率、效果和最低成本时,开源模型是没有优势的。

智能体是大模型最重要的发展方向,但还不是业界共识

李彦宏还谈及了大模型应用的发展阶段,他认为首先出现的是Copilot,对人进行辅助;接下来是Agent智能体,有一定的自主性,能自主使用工具、反思、自我进化;这种自动化程度再发展,就会变成AI Worker,能独立完成各方面的工作。

当前,智能体已经受到越来越多的大模型公司及客户的关注,李彦宏认为,虽然“有很多人看好智能体这个发展方向,但是到今天为止,智能体还不是共识,像百度这样把智能体作为大模型最重要的战略、最重要的发展方向的公司并不多。”

为什么要强调智能体?李彦宏也给出了答案,“智能体的门槛确实很低”, 很多人不知道怎么把大模型变成应用,而智能体是一个非常直接、高效、简单的方式,在模型之上构建智能体相当方便。目前,每周都有上万个新的智能体在百度文心智能体平台上被创造出来,智能体的日均分发次数已快速增长至800万次。

雷峰网(公众号:雷峰网)

雷峰网版权文章,未经授权禁止转载。

注:本文转载自雷锋网,如需转载请至雷锋网官网申请授权,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如有侵权行为,请联系我们,我们会及时删除。

成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加- 版权声明 1、本主题所有言论和图片纯属会员个人意见,与成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加立场无关。
2、本站所有主题由该帖子作者发表,该帖子作者威尔德编辑成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加享有帖子相关版权。
3、成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加管理员和版主有权不事先通知发贴者而删除本文。
4、其他单位或个人使用、转载或引用本文时必须同时征得该帖子作者威尔德编辑成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加的同意。

这家伙太懒了,什么也没留下。
最新回复 (0)
只看楼主
全部楼主
    • 成都威尔德公司承接各种互联网业务-帮助中小企业转型互联网加
      2
        立即登录 立即注册 QQ登录
返回
免责声明:本站部分资源来源于网络,如有侵权请发邮件(673011635@qq.com)告知我们,我们将会在24小时内处理。