在Law框架下,OpenAI的推理模型展现出了显著的进步与飞跃式的进展。最近,关于Scaling Law是否遇到发展瓶颈的讨论在业界引起了广泛的热议。然而,OpenAI的高级研究副总裁Mark Chen明确表示,他们并未感受到Scaling Law的瓶颈,且已通过o系列和GPT系列两个模型实现了持续的性能提升。
在最近的炉边谈话中,Mark Chen指出,从经济角度看,OpenAI已成为**价值的科技公司之一,因为他们为真实用户提供了数十亿美元的价值。过去几年间,AI的能力已从解决小学数学题跃进到解决最难的博士生题目。因此,我们正处于一个崭新的阶段:AI模型已经能够解决人类有史以来最复杂的考试问题。
当这些模型攻克了博士级别的问题后,它们的下一步便是为世界提供实用性和价值。在基准测试已经趋于饱和的情况下,真正的关键在于这些模型是否能为用户创造价值。虽然今日的AI已经通过了各种基准测试,但它们尚未完全展现出AGI应有的全部能力。
令人兴奋的是,在过去的一年里,OpenAI内部取得了重大突破——O1模型的诞生不仅增强了能力,而且从安全角度进行了改进。想象一下,如果我们试图用旧的GPT系统去挑战一个模型的越狱式问题,它可能会立即回应,从而可能更容易被误导。但是,当我们使用推理器时,它会进行反思,使得它在面对许多安全问题时更加稳健。
当我们谈论推理时,这是一个广泛的概念,不仅适用于数学或编程,也适用于谈判或游戏。在编程中使用的推理方法也可能适用于其他领域。关于安全性,基准测试同样面临挑战。安全性类似于对抗性攻击框架,攻击非常强烈,因此在这方面还有很长的路要走。
在AGI的发展阶段,OpenAI的研究人员认为,他们正从第一阶段过渡到第二阶段,朝着更智能系统的方向发展。虽然许多智能体系统仍需要人类监督,但它们正变得越来越自主。模型能够自行工作,我们对AI系统的信任也在逐渐增加。
合成数据的力量不容小觑。合成数据是由模型生成而非人类直接产生的数据。在数据稀缺或质量较低的情况下,合成数据的力量尤为显著。例如,在训练DALL-E这样的模型时,就利用了合成数据。
对于关于Scaling Law是否遭遇瓶颈的争议,Mark Chen表示虽然预训练方面确实存在挑战,但OpenAI已经找到了两种推动发展的活跃范式。他们在探索模型的Scaling范式时,发现它们确实在迅速发展,且在推理模型的Scaling上也没有遇到障碍。他们一直在面临各种技术挑战,但现在这些挑战已经非常具体并且可行。
O1模型的推出引起了广泛关注。与GPT-4相比,O1模型带来了全新的深度体验,仿佛是一个真正的互动伙伴,而不仅仅是对我们的想法进行评论。它的推理直觉仿佛是一个真实的实体,给人强烈的参与感。这种体验是通过长期的工作和创新尝试实现的。研究者们通过探索AI的某些不足并寻找解决方案,最终找到了连接系统一和系统二之间的鸿沟的快速思考方法。O1模型的推出不仅在内部引起轰动,还得到了外部合作伙伴的高度评价。其推理能力已经泛化到医学和法律等领域,甚至在一些未经过特别关注的领域也取得了迅速进展。
除了研究和安全外,OpenAI也注重探索性项目的组合和管理。他们选择一些有信心的探索性项目,给予研究者很大的自由度,并专注于有目标的探索。现在是基于AI创立初创公司的好时机,因为基础模型玩家主要关注通用性,但在特定领域定制模型还有大量空间和可能性。并且现在已经出现了一个丰富的初创企业生态系统,这些企业在OpenAI的基础上构建了各种类型的应用。表现最好的初创企业是在不断变化的技术栈上进行构建,并能跟上最新技术发展的企业。当真正拥有AGI时,将会释放出巨大的潜力。想象一下一个人在一周内就能创建一个带来巨大价值的大型初创公司或一个能在几天内产生巨大影响的想法已经超越了商业领域这种氛围就像当年科学家们探讨物理学一样他们能回到那种氛围一个人能做出重大发现在医学物理学或计算机科学领域这都归功于AI的发展总的来说OpenAI的推理模型正在以前所未有的速度发展这不仅令人兴奋也让我们对未来充满期待全新的篇章正在开启在我们的眼前逐渐展开为我们带来了无限的想象空间与可能性未来值得期待!