DeepSeek的出现不仅为AI的开发提供了更多的技术途径选择,而且还为行业应用的多元化奠定了基础,使人工智能可以退出“比例第一”,摆脱过去的单个路径的局限性,从而扩大了移动到更广阔的空间的可能性。可以从杰文斯悖论的角度研究这种变化的意义。
Jevins悖论通常用于描述以下现象,即在技术进步提高资源利用效率之后,资源消耗不仅不会减少,而且会进一步增加。它的核心逻辑在于需求的价格弹性。在高度弹性的情况下,例如AI培训和科学计算,计算能力需求的指数增长似乎符合这种逻辑。但是,DeepSeek的发展表明,计算能力市场的增长不是不受约束的扩展,而是受多种因素的影响。市场差异化,数据采集限制,技术瓶颈和边际收益的减少使计算能力市场难以完全复制工业时代的煤炭消费模型。特别是在AI应用程序从“超大规模训练”到“有效推理”的过程中,仅依靠计算功率扩展就无法满足实际需求。
因此,诸如DeepSeek之类的创新途径的出现使与多模式,多阵容和多终端的相互作用成为可能,并促进了计算能力从“云推理”到“终端智能”的进一步扩展。计算能力的未来增长可能不再是一个简单的“计算能力堆”,而是依靠基础模型与高层应用程序之间的协作创新,以更有效,更聪明的方式实现AI技术的飞跃。
计算功率增长的内部逻辑:模型边界中的逐步突破和应用程序场景的连续演变
在人工智能发展的浪潮中,基础模型的边界正在逐渐出现。尽管近年来,大型模型的规模一直在扩大,无论是文本生成,图像理解还是跨模式功能的扩展,基础模型的发展始终具有物理和理论界限。这些边界不仅是由于计算能力和数据的局限性,而且还涉及许多方面的挑战,例如认知能力,概括和安全性。换句话说,计算能力的提高无疑为基础模型的演变提供了可能性,但这并不意味着该模型的边界可以无限扩展,而是受许多因素的限制。
计算能力的增长不是简单的线性积累,而是界限的分步突破,并在现实生活中促进其应用。每个阶段的计算能力的提高将伴随着基础模型的功能的飞跃,这也意味着模型在上一个阶段的边界将被破坏,从而诞生了更广泛的应用程序场景。例如,在AI时代初期,计算能力的局限性使神经网络很难训练深层的功能,直到开发了GPU和TPU等专用芯片,这使得深度学习模型在计算机视觉,自然语言处理和其他领域中表现出了前所未有的功能。在GPT-4及更高版本中,改进计算能力不仅可以提高语言理解和发电能力,而且还逐渐扩展了AI的推理能力,多模式功能和交互功能。大规模的计算电源投资使长期文本生成,逻辑推理和多轮对话成为可能。但是,计算能力需求的持续增长不能仅仅依赖于基本模型参数量表的无序扩展,而需要根据应用程序场景来开发。换句话说,计算能力的增长不能仅仅依赖“较大的模型”,而需要明确的应用程序支持,尤其是在扩展应用程序方案和交互方法的创新中。
一方面,对应用程序场景的演变的柔和需求在于均匀情景的采矿。这些方案不仅具有较高的计算能力需求,而且可以大规模重复使用现有的模型功能,从而提高计算能力投资的回报。例如,AI在企业级应用中的普及使AI的一般功能从客户服务自动化到市场分析,从而促进了更广泛的计算能力需求的增长。另一方面,应用程序场景的艰苦帮助在于互动功能的升级。在早期阶段,AI应用主要集中于文本交互,屏幕显示,然后是语音助手的出现,现在已经演变为更沉浸式的互动方法,例如智能可穿戴设备(例如智能眼镜)。这些新的相互作用方法将大大增加计算能力需求,因为它们涉及更复杂的技术要求,例如实时计算,低延迟推断和多模式融合。
Jevins悖论的前提假设:计算电源需求的价格弹性
Jevins悖论的核心是,技术进步带来的资源利用效率的提高不会减少资源消耗,而是会导致总资源消耗的增加。这种现象的逻辑基础在于价格需求的高弹性 - 也就是说,当获得一定资源的成本减少时,市场需求的增加足以抵消技术进步带来的储蓄效果。例如,在19世纪的英国,蒸汽机技术的创新大大提高了煤炭的燃烧效率。但是,这并没有减少煤的使用。取而代之的是,由于工业规模的扩大,它促进了煤炭需求的急剧增加。类似的现象在许多领域(例如能源,运输和制造)中很常见,并且在经济学中已广泛讨论了悖论。
当将该理论应用于计算能力领域时,形成了类似的假设 - 随着芯片制造过程的改善,云计算的普及以及对平行计算体系结构的优化,计算能力的成本正在继续下降。从理论上讲,这种趋势将刺激大规模的计算功耗,从而形成一个“更便宜,更扩展”的循环。例如,近年来,GPU和专用AI加速器的计算能力(例如TPU,Trainium等)一直在不断提高,并且单位计算能力的成本大大降低了。在加速时,市场对AI培训,大规模仿真计算,高性能计算等的需求仍在增长。从表面上看,这种现象似乎证实了Jevins悖论的存在。
但是,这种悖论是否有效的关键是计算能力需求是否具有足够的价格弹性。换句话说,如果单元计算功率的价格下降,需求必须以足够快的速度增长,以抵消单位效率提高带来的储蓄效果。但是现实并不是那么简单。计算能力需求的增长不仅是由价格驱动的,而且还受到多种因素,例如数据可用性,算法复杂性和行业适应性。例如,与上一代GPT-3相比,GPT-4的培训成本有所下降,但并未导致大型企业和研究机构对类似模型的全面复制。核心原因是AI培训的隐藏成本不仅是计算功率成本,还包括多个链接,例如数据收集,算法优化,工程调整和模型部署。这些链接的成本仍然构成对企业对AI技术的使用的严格限制。因此,仅依靠计算功率成本的下降不足以将所有行业推向“计算功耗爆炸”的阶段。
计算电源市场的真正困境:需求弹性的不对称性
从实际的市场业绩来看,计算能力需求的价格弹性显示出明显的不对称性,并且不同市场实体的反应有很大的差异。一方面,领先的技术公司由于其紧迫的业务需求而继续扩大其计算能力投资。例如,OpenAI和其他公司正在促进AI模型参数量表的快速增长。这些科技巨头在人工智能竞争中毫不费力地构建大规模数据中心和专有计算集群,以支持更强大的模型培训和推理任务。近年来,大规模预培训模型的规模已极快地扩展,从GPT-2(15亿参数)到GPT-3(1750亿参数)到GPT-4 4万亿个参数。这种趋势促使全球对AI计算能力的需求激增。但是,并非所有市场实体都表明了这一现象。
首先,如果没有约束,就无法扩大模型参数的数量。同时,DeepSeek的开发还表明,参数数量的增加并不是提高模型性能的唯一方法。通过引入创新的体系结构和培训方法,DeepSeek实现了有效的计算和出色的性能。其次,对于普通企业和个人开发人员而言,计算能力需求的增长受到许多限制。
尽管云计算服务的价格继续下降,但许多企业的AI应用比例并未显着上涨。主要原因是,除了计算电源成本外,AI应用程序还受到以下实际因素的限制。首先,数据治理的范式困境。对AI模型的培训取决于大量的高质量数据,并且在许多行业中,数据获取的成本和合规风险非常严重。例如,医疗保健,金融等领域的严格数据合规性要求使许多公司难以将公共计算资源用于AI培训。第二个是技术飞跃的生态障碍。并非所有企业都具有深度学习的专业能力。许多中小型企业难以建立有效的AI开发过程。即使计算能力成本降低,它们也无法有效利用这些资源。第三个是创新周期效率的转折点。在AI模型的参数量表达到一定阈值之后,计算功率投资的边际回报减少。例如,与GPT-3相比,GPT-4的计算功率需求增加了近100倍,但是在许多应用程序方案中,用户体验的改善尚未达到相同的增长比例。这意味着在超大规模的计算情况下,价格弹性可能已经接近临界点。因此,在未来的计算能力革命中,技术创新的重点可能不再是简单地扩展计算能力,而是提高计算能力利用效率。需求弹性还将从“野蛮扩张”转变为“理性融合”的新阶段,计算能力市场的发展逻辑可能会发生深刻的变化。
(Cheng Shi是国际卫队国际国际卫生部的首席经济学家,Xu jie是国际卫队国际的经济学家)