人工智能并非变得更聪明,而是变得更耗能和成本更高

Gemini AI生成的图像
麻省理工学院的研究人员量化了809个大型语言模型所需的计算能力,揭示了这些模型对资源的巨大需求,这可能会对数据中心造成压力。该研究突显了与人工智能模型训练相关的成本日益上升的趋势,强调了需要更加节能的计算解决方案,以支持人工智能应用的持续增长。
人工智能对计算能力的日益需求推动成本上升
麻省理工学院的最新分析突显了大型语言模型(LLMs)开发中的一个令人担忧的趋势:训练这些系统所需的计算能力显著增加,导致运营成本上升。研究表明,809个最大语言模型所需的计算能力大幅上升,这引发了对人工智能进步可持续性的担忧。
在过去两年中,训练LLMs的平均计算需求增加了超过10倍,这主要是由于模型的复杂性和它们运行的规模。2020年,训练单个LLM大约需要150万GPU小时;到2023年,这一数字已上升至约1500万GPU小时。
此外,麻省理工学院的研究人员指出,与这些模型相关的能源消耗以惊人的速度上升,如果不实施可持续的做法,可能会显著增加碳排放。这一点令人担忧,因为人工智能行业正在努力在创新和环境责任之间取得平衡。
这些发现凸显了为人工智能系统提供动力的财务负担,这可能会重塑商业模式,并影响不同领域对人工智能技术的可接触性。
相关主题:
人工智能计算资源成本攀升OpenAI前沿模型