DeepSeek出圈背后的逻辑 开源与高效性的胜利
AI若要真正赋能全人类,让每个人都能用得上、用得起大模型和通用人工智能,高效性是关键。智能革命需要像信息革命一样,不断提高能力密度,降低计算成本,使大模型更加普惠。
清华大学长聘副教授刘知远在一场由中国计算机学会青年计算机科技论坛策划的直播活动中表示,DeepSeek R1的开源标志着人工智能领域再次迎来了类似2023年初ChatGPT的时刻,展示了强大的深度思考能力。这场直播的主题为“夜话DeepSeek: 技术原理与未来方向”,参与讨论的还有复旦大学教授邱锡鹏和清华大学教授翟季冬等。
刘知远认为,DeepSeek V3展示了如何以十分之一甚至更少的成本达到GPT-4和GPT-4o水平的能力。DeepSeek R1的成功在于它通过纯粹的强化学习技术复现了OpenAI o1的深度推理能力,并且开源并发布了详细的技术介绍。这不仅证明了OpenAI不开源、不公开技术细节且定价过高的策略存在缺陷,还为行业做出了重要贡献。
DeepSeek R1的训练流程有两个亮点:一是基于规则的方法实现了大规模强化学习,二是将强化学习技术泛化到多个领域,使其在实际应用中表现出色。这种泛化能力通过两个阶段实现:首先生成带有深度推理能力的数据,然后通过强化学习进一步训练,最终得到具有强大泛化能力的强推理模型。
本文系作者 @
片场丝带儿
原创发布在 妈咪助手 ,未经许可,禁止转载。
有帮助?