万事达香港:对话月之暗面杨植麟:对Scaling Law乐观,预训练还有提升空间 · 科技-万事达卡

MasterCard

在月之暗面北京总部会议室,今年刚刚31岁的杨植麟正在摆弄他的笔记本。在下个会议开始之前,这位繁忙的创始人要抽出一个小时,为公司完成一些输出,并回应一些疑问。

他全程神色轻松,能在时不时的玩笑中笑出来。这一个小时没有回应任何行业和产品以外的问题,但好像又充分展现了态度。

在公司卷入风波一周后,这是一场突然且罕见的产品发布会,传递的信号言简意赅:公司的重心仍然在模型研发和产品推进上。

11月16日,在Kimi Chat全量开放一周年之际,Kimi发布新一代数学推理模型k0-math,数学能力对标OpenAI o1系列。 

在中考、高考、考研以及包含入门竞赛题的MATH等4个数学基准测试中,k0-math初代模型成绩超过o1-mini和o1-preview模型。在两个难度更大的数学题库OMNI-MATH和AIME基准测试中,k0-math初代模型的表现分别达到了o1-mini最高成绩的90%和83%。 

万事达香港:对话月之暗面杨植麟:对Scaling Law乐观,预训练还有提升空间 · 科技-万事达卡

此外,Kimi探索版在搜索体验上也加入了强化学习,在意图增强、信源分析和链式思考三大推理能力上有所提升。 

月之暗面方面表示,k0-math模型和Kimi探索版,未来几周将会分批上线Kimi网页版和Kimi智能助手APP。

杨植麟作为此次产品发布的主讲人,同时探讨了行业近段时间一系列关键议题。 

杨植麟将AI技术过去几年的发展归功于“Scaling”,但认为这不是简单将模型做大就可以,核心是找到有效的方法去“Scale Up”,比如说更好的数据或算法。 

同时,他提及背后的范式已经发生一些转变,例如要从“Next-Token Prediction(预测下一个token)”转向更关注基于强化学习的“Scale Up”。

这是让大模型打破静态数据集带来的局限性,进而具备思考能力去探索更艰难任务的重要环节。 

对杨植麟而言,数学场景被认为是AI锻炼思考能力最适合的场景。他引用了伽利略的一段话,“这个宇宙如果你把它看成一本很大的书,宇宙它其实是用数学来写的,数学是表达这个宇宙的语言”。并且,在数学场景中,AI不用跟外界交互就可以自成一体。

除了明确表示向强化学习进击之外,杨植麟对预训练模型作出了自己的评价和判断。他对Scaling Law仍然乐观,认为预训练模型还有半代到一代的提升空间,这个空间大概率会由头部大模型在明年释放出来。

杨植麟还透露Kimi Chat的月活用户规模达到3600万,他难得地强调,提升留存就是Kimi当前最核心的目标。

“基本上它跟你的技术成熟度或者技术水平也是一个正相关的过程,所以对我们当前来说是最重要的。”他说。

以下为杨植麟受访实录,略作编辑:

这个空间会在明年释放出来,领先的模型会把预训练做到一个比较极致的阶段。

但是我们判断接下来的重点会在强化学习上,范式上会产生一些变化。它还是Scaling,只是通过不同的方式去Scale。

Scaling law会不会有一个天花板或者上限?我相对来说比较乐观一点。核心在于原来用静态数据集是比较简单粗暴的使用方式,现在用强化学习的方式,很多情况下是有人在参与这个过程。但是人没有办法标注那么多数据,不可能把每道题具体的思路都标出来,所以你其实是用AI本身加上人的杠杆。比如说你标100条数据,就能产生非常大的作用,因为剩下的它都是在自己思考。

它从做法上来说确定性是比较高的,因为很多时候(模型)是一个调出来的过程。我现在觉得大概率可以通过这种方式做出来,它上限是很高的。

我是这样看的,AI接下来最重要的是思考和交互这两个能力。思考的重要性远大于交互,不是说交互不重要,交互是一个必要条件,但思考会决定上限。

你就看这个任务的标注难度有多大,你到底需要一个博士去标,还是每个人都可以标,哪个任务更难找到这样的人,那个东西就是AI的上限。

一个是基于美国市场的判断,二是基于我们自己的观察,主要是这两点。还有就是确实得做减法,不是疯狂的做加法。

基本上它跟你的技术成熟度或者技术水平也是一个正相关的过程,所以对我们当前来说是最重要的。

假设我们衡量距离AGI目标的距离,现在还是初级阶段,当然每年都有一些比较大的进步,如果今年用去年的产品,你会发现可能根本没法忍受。

假设你一直pre-train,你的预算今年1B、明年10B或者100B,它不一定可持续。当然你做post-train也要Scaling,只是说Scaling的起点很低。你可能Scale很长一段时间,在一段时间内你的算力就不会是瓶颈,这个时候你的创新能力是更重要的,在这种情况下我觉得对我们反而是一个优势。 

因为你如果去分析的话,它是必然产生的,你没有那么多数据训练,你肯定是要生成数据,生成数据肯定是强化学习,本质是一样的。

只不过在早期预训练的很多红利没有被完全发挥出来,所以可能很关注怎么通过Next—Token prediction能压缩出来更多的智能。但是我们很早去铺垫,比如说在强化学习上我们能做什么,不管是在人才上还是在技术的储备上。 

数学我觉得是两个方面的价值,第一个方面它今天在教育产品上其实有非常大的价值。在我们整体的流量里也起到很重要的作用。第二个,我觉得它是技术上的迭代和验证。我们可以把这个技术去放在更多的场景里,比如我们刚刚说的探索版。

行业发展进入了一个新的阶段,它从一开始有很多公司在做,变成了现在少一点的公司在做,接下来大家做的东西会逐渐不一样,我觉得这是必然的规律。

我们主动选择做了业务的减法,这个还是很重要的,你应该聚焦一些重要的事情,然后做好。在这几个大模型创业公司里,我们始终保持人数最少,始终保持卡和人的比例是最高的,这个非常关键。

如果你想把团队保持在一定的规模,最好的方式是业务上做一些减法。我们一开始确实也尝试过几个产品一块做,这在一定的时期内有可能是有效的,到后来发现还是要聚焦,把一个产品做好、做到极致是最重要的。

砍业务本质上也是在控制人数,不希望人数长得特别猛。如果现在三个业务一起做,我就活生生把自己变成大厂,就没有任何的优势。