对国内大模型有何影响?姜大昕杨植麟和朱军这样看
界面新闻记者|伍洋宇
界面新闻编辑|宋佳楠
当GPT-5屡次跳票引发质疑声后,OpenAI用o1及时托住了行业对大模型以及AGI(通用人工智能)的信心。
相较于更单维度注重参数堆积、不断推进ScalingLaw的GPT系列大模型,o1改变了技术策略,加入了强化学习,以思维链等方式大幅提升了模型的推理能力,并且一定程度上缓解了该领域对于“数据墙”的焦虑。
面对OpenAI的这一动作,外界普遍好奇的是,它是否会影响中国大模型领域的技术发展走向?
9月19日,在2024云栖大会上,阶跃星辰创始人兼CEO姜大昕、月之暗面Kimi创始人杨植麟,以及生数科技首席科学家朱军,以“通往AGI的大模型发展之路”为主题进行了一场圆桌对话。
姜大昕表示,AI发展正在经历关键的技术范式迭代。OpenAI的大模型o1探索出了通过强化学习让AI具备人类慢思考(可主动反思、纠错的复杂思考)能力的方式,接下来提升强化学习模型的泛化能力和加速推进多模态理解生成一体化是AI技术进一步突破的关键。
在他看来,o1是大模型首次同时具备人类大脑System1(即快思考,直接给出答案)和System2(即慢思考)的能力,这是大模型开始具备归纳世界能力的关键一步。
除此以外,对于业界热议的AGI进程变缓的观点,姜大昕判断过去18个月以来,AGI的发展并没有减速,反而是在加速。“我们把AGI的实现路径划分为模拟世界、探索世界和归纳世界三个可并行的发展阶段,过去一年这三点都出现了突破性的技术进展,发展速度可以说是AI一日,人间一年。”
按照他的观点,除了o1在归纳世界上的进展,GPT-4o标志着多模融合的进步,是更好地对物理世界建模、彻底实现模拟世界的基础。而在探索世界上,特斯拉发布的完全自动驾驶系统FSDV12,为具身智能设备如何与大模型结合,从数字世界走向探索物理世界指明了技术方向。
杨植麟则从纵向的智商提升和横向的模态拓展给出了自己的看法,同样认为AI整体处于加速发展的状态。他指出,o1的主要意义在于提升了AI的上限。在这一点上,ScalingLaw是过去唯一有效的准则,但在数据挖掘遭遇瓶颈时,以ScalingLaw为代表的原有范式已经遇到问题,而强化学习和大语言模型的结合,很大程度上解决了下一步ScalingUp的问题,“至少证明了它初步可行”。
杨植麟认为,这也会对产业格局以及创业公司产生影响。其中一个关键点是,此后训练算力和推理算力的比例会发生变化,这个变化的本质可能给创业公司带来新机会。一方面,如果存在算力门槛,创业公司可以进行算法的基础创新,以取得基础模型上的突破;另一方面,算力相对小的公司可以通过后训练的方式在部分领域达成某种效果,这里将会产生更多产品和技术机会。
o1带给大模型的新思考是,当强化学习加入大模型成为新的技术范式,如何从细分领域逐步实现它的泛化能力?
朱军认为,o1的技术实现路径并没有披露这一点,但从科研的角度可以看到,这当中过程监督的数据变得十分重要。它和直接从结果监督的数据不一样,是要对思考过程的每一步进行标注,这种数据由于需要专业人士投入因而具备一定获取难度和高价值。
另外,具体的技术实现上也存在一定困难。在此之前,走强化学习路线的DeepMind就有类似的泛化问题,例如从AlphaGo到AlphaFold再到AlphaGeometry,都是针对特定场景进行设计。
朱军强调,这背后的本质逻辑是,在强化学习中,面对更泛化和更开放的场景,RewardModel(奖励模型,用于评估智能体的行为表现,并指导其学习过程)变得难以定义,这也是o1背后的技术新范式在泛化过程中要解决的核心问题之一。
不过,通过结合已经比较强大的基座,这套新范式相比上一代AlphaGo迁移到其他领域里会更快,在更好的开放领域模拟器等技术加持下,他相信新范式的泛化进程会比之前更容易取得效果和提升。
只是这条新范式泛化之路的不确定性,及其对应的可探索空间和可能性,究竟对创业公司而言是好事还是坏事?
杨植麟直言,这是一个很好的机会,它等同于一个新的技术维度和技术变量。这个过程之中,除了如何泛化,还有很多基础的技术问题尚待解决,例如训练和推理两个层面要同时Scalingup,对国内大模型有何影响?姜大昕杨植麟和朱军这样看这当中还有诸多细节没有探索清楚,包括过程监督、幻觉对模型效果的影响等等。这背后存在的技术创新将形成一些突破机会。
姜大昕同样认为新范式的技术创新将带来新机会,但算力将是一个挑战,因为当创业公司追求一个通用性能够泛化的推理模型时,算力的需求一定是巨大的。
“如果我们所要追求的目标就是AGI的话,你付出再多也还是要坚持下去。”姜大昕说。