1月30日消息,美国当地时间周三美股收盘后,微软发布了截至2024年12月31日的2025财年第二财季财报。财报显示,微软第二财季营收为696.3亿美元,同比增长12%;净利润为241亿美元,同比增长10%;每股摊薄收益为3.23美元,同比增长10%。
财报发布后,微软首席执行官萨提亚·纳德拉(Satya Nadella)、执行副总裁兼首席财务官艾米·胡德(Amy Hood)等公司高管出席了随后举行的财报电话会议,解读财报要点,并回答分析师提问。
以下为微软2025财年第二财季财报会精华版:
在开场演讲中,纳德拉透露微软云在第二财季继续强劲增长,营收首次突破400亿美元,同比增长了21%。同时,微软的AI业务年化收入超过130亿美元,较去年同期增长了175%。
在推理计算方面,微软表示,每一代硬件通常能够实现2倍以上的性价比提升,而每一代模型通过软件优化能够带来10倍以上的提升。随着AI技术的效率提升与普及,微软预计需求将呈现指数级增长。
在技术架构方面,Azure作为AI的基础设施层,微软不断扩展其数据中心的容量,以满足短期和长期的需求。过去三年中,微软的数据中心容量已翻倍,并且在去年,新增容量创下了历史新高。
微软的技术架构包括数据中心、网络、机架和芯片,这些系统正在协同工作,以推动效率提升,支持目前和未来的云计算及AI工作负载。微软依旧在利用摩尔定律持续更新计算资源,支持AMD、英特尔、英伟达的最新技术,同时也推出了自研的Maia、Cobalt、Boost和HSM芯片。
在数据层面,Microsoft Fabric取得了显著进展,目前已有超过19,000个付费客户,使其成为微软历史上增长最快的分析产品。Power BI也与Fabric深度集成,月活跃用户已超过3,000万,同比增长了40%。
Azure AI Foundry提供先进的工具,帮助客户构建智能体、多智能体应用和AI运维,并可以访问成千上万的模型API。上线两个月后,Azure AI Foundry已吸引超过20万月活跃用户,并且凭借对OpenAI领先模型及开源模型和小型语言模型(SLM)的支持,微软在此领域占据有利地位。
在AI平台与工具方面,微软与OpenAI的战略合作关系继续深化,OpenAI已向Azure做出了新的采购承诺。通过双方的合作,客户可以通过Azure访问世界领先的OpenAI的模型,并且OpenAI将在不久后推出更多新产品。
此外,DeepSeek的R1模型也通过Foundry的模型目录和GitHub发布,支持自动化红队测试、内容安全集成和安全扫描。
GitHub现已拥有1.5亿开发者,过去两年增长了50%。
最后,微软于美国时间周三为全球所有Copilot用户免费推出了由o1驱动的Think Deeper工具,进一步提升了Copilot用户的体验。
以下为分析师问答环节:
问:在第二财季,Azure的业绩位于预期区间的下限,其中可能存在哪些执行方面的问题?管理层如何解决这些问题?
胡德:问题主要集中在非AI的ACR(容器注册表)服务组件上,尤其是在规模化推广阶段,挑战在于平衡客户的AI工作负载和传统工作之间的关系。为解决这些问题,微软在2024年夏季调整了销售策略,帮助客户平衡这两者之间的关系。这些调整预计需要更多时间才能产生效果,因此下半年可能会继续面临挑战。
对于第三财季,预计Azure业务增长在31%至32%之间。尽管面临产能受限的问题(包括基础设施和设备组件),但通过过去三年的投资,预计到年底产能将接近平衡。整体而言,微软对AI业务保持信心,并关注非AI业务的规模化推广进展。
纳德拉:AI业务的实际增长率超出了预期,尤其是在解决供应问题后,多个工作负载的扩展表现会更好。例如,ChatGPT和微软智能助手Copilot等服务带来了更多收入,企业服务中的AI工作负载(如与SAP相关的迁移工作)也呈现不错的增长势头。问题主要出现在规模化推广的细节调整上。在平台转型期间,公司需调整激励措施和市场策略,确保抓住新机遇而不是依赖于旧有成果。重点是要有效利用新的设计优势,推动业务创新和增长。
问:哪些因素推动了微软AI业务收入远超预期?
胡德:有几个关键因素:首先,Azure表现强劲,特别是在AI服务方面。其次,Copilot的表现同样出色。Copilot在客户席位数量上表现良好,包括新席位和扩展席位,同时用户的使用量也较为可观。虽然使用量不会直接影响收入,但随着用户价值的提升,间接推动了收入的增长。最后,Copilot的定价水平也相当不错,反映了该产品的市场价值。
问:你们如何看待DeepSeek?它是否标志着AI已接近或即将实现以更低成本进行规模化应用的节点?
纳德拉:从某种意义上讲,AI的发展与常规计算周期类似,都涉及到优化和提高效率的问题。在摩尔定律、缩放定律的推动下,AI的性能正在逐步提升,而成本则在下降。尤其是在推理领域,软件优化带来了每个周期10倍的性能提升。我认为,DeepSeek的确有一些创新成果,部分成果也出现在OpenAI的o1模型中。这些成果都已商品化,并且会得到广泛应用,而在这样的软件发展周期中,最大的受益者就是客户。
从客户服务器模式到云计算转变的过程,其实是更多的人购买了服务器,只不过这些服务器换成了“云”。随着token价格下降,推理计算的成本也随之降低,这意味着人们可以使用到更多的计算资源,也会有更多的应用程序开发出来。到了2025年年初,个人电脑上也能运行曾经需要庞大基础设施支持的模型。这意味着AI应用会变得更加无处不在,而微软作为超大规模云服务提供商和PC平台提供商,正处于这一变革的前沿。
问:微软参与星际之门项目及其与OpenAI关系调整的战略决策,对未来几年资本支出有何影响?
纳德拉:微软与OpenAI的合作关系非常成功,Azure业务得到了强力支持,目前确认的只是合作的初步成果,未来还会有更多好处。微软正在构建灵活且兼容的计算资源体系,以确保训练和推理之间达到恰当的平衡,并实现地理分布式布局。同时,微软致力于通过软件优化,并利用Deepseek所取得的成果,降低GPT模型的推理成本。在推理优化方面,降低成本是推动AI业务增长的关键,且不应过度采购资源,因为摩尔定律每年会提升性能,而优化可带来10倍的提升。
问:微软Copilot系列后续发展如何,将如何整合产品并推广以满足客户多样化需求?
纳德拉:微软最近发布了两项重要更新。首先,微软推出了微软365 Copilot Chat企业AI助手服务,并广泛部署到所有已安装产品中,用户可以通过 IT 部门开启这一功能,大家可以立即开始使用具备企业控制功能的网页聊天服务。此外,该功能内置了Copilot Studio,这意味着我们可以开始构建智能体。结合完整的 Copilot,这是一个不错的组合,它将加速席位使用量的增长和智能体的构建。
其次,在消费者一端,微软发布了Copilot的Think Deeper功能,由OpenAI o1模型提供技术支持,并且在全球范围内可用。由此可见,推理优化和成本降低使得一些原本高端的功能得以更广泛应用,这一趋势也在GitHub Copilot和Security Copilot等产品中得到体现。
问:在Azure上运行的推理任务中,专有模型与开源模型各自所占的比例有多大?这对微软有何影响?
纳德拉:在任何应用中,通常都会使用多种不同的模型。例如,Copilot或GitHub Copilot背后就有许多不同的模型,包括构建、微调和蒸馏的模型,其中一些可能会被蒸馏成开源模型。因此,未来将会是多种模型的结合。拥有前沿模型非常重要,因为开发者总是希望用最好的模型来构建应用,并在此基础上进行优化。随着时间的推移,初始的成本结构(COGS)也会改变,因为开发者会持续优化延迟和成本,并在不同模型下进行调整。
为了管理这些复杂性,新的应用服务器需要具备强大的能力。微软正在大量投资于Foundry,以确保应用开发者能够跟上不断涌现的模型趋势,使应用能够持续受益于创新,同时避免过高的开发或运维成本(如AIOps成本)。微软也在大力投资于应用服务器,确保任何工作负载都能从不同的模型中受益,无论是开源、闭源还是不同权重级别的模型。同时,从运维角度来看,这会让你的工作更快、更轻松。
问:Copilot在哪些领域表现强劲?常见使用场景是什么,为何有巨大的未来盈利潜力?
纳德拉:我认为最初的席位分配是针对那些更相信即时生产力的部门,比如销售团队、财务或供应链部门,这些地方有很多像 SharePoint 这样的数据,用户希望能够结合网络数据使用,并产生有益的结果。但随后发生的情况,非常像我们在上一代生产力工具中看到的那样,人们开始跨部门、跨职能协作。例如,在我自己的日常习惯中,我会使用聊天功能,通过工作标签获取结果,然后立刻通过页面分享给同事。我称之为“用 AI 思考,与人协作”。这种模式要求你在整个企业中更广泛地推广它。
这也是我们目前所看到的,虽然它可能从部门层面开始,但快速的协作效应会推动它在整个组织中推广。你可以按团队或其他方式进行部署。我们甚至通过将Copilot Chat与其他功能结合使用,进一步简化了这一过程,为企业客户提供了更大的灵活性,让这一工具在企业中更加普及。
1月30日消息,美国当地时间周三美股收盘后,微软发布了截至2024年12月31日的2025财年第二财季财报。财报显示,微软第二财季营收为696.3亿美元,同比增长12%;净利润为241亿美元,同比增长10%;每股摊薄收益为3.23美元,同比增长10%。
财报发布后,微软首席执行官萨提亚·纳德拉(Satya Nadella)、执行副总裁兼首席财务官艾米·胡德(Amy Hood)等公司高管出席了随后举行的财报电话会议,解读财报要点,并回答分析师提问。
以下为微软2025财年第二财季财报会精华版:
在开场演讲中,纳德拉透露微软云在第二财季继续强劲增长,营收首次突破400亿美元,同比增长了21%。同时,微软的AI业务年化收入超过130亿美元,较去年同期增长了175%。
在推理计算方面,微软表示,每一代硬件通常能够实现2倍以上的性价比提升,而每一代模型通过软件优化能够带来10倍以上的提升。随着AI技术的效率提升与普及,微软预计需求将呈现指数级增长。
在技术架构方面,Azure作为AI的基础设施层,微软不断扩展其数据中心的容量,以满足短期和长期的需求。过去三年中,微软的数据中心容量已翻倍,并且在去年,新增容量创下了历史新高。
微软的技术架构包括数据中心、网络、机架和芯片,这些系统正在协同工作,以推动效率提升,支持目前和未来的云计算及AI工作负载。微软依旧在利用摩尔定律持续更新计算资源,支持AMD、英特尔、英伟达的最新技术,同时也推出了自研的Maia、Cobalt、Boost和HSM芯片。
在数据层面,Microsoft Fabric取得了显著进展,目前已有超过19,000个付费客户,使其成为微软历史上增长最快的分析产品。Power BI也与Fabric深度集成,月活跃用户已超过3,000万,同比增长了40%。
Azure AI Foundry提供先进的工具,帮助客户构建智能体、多智能体应用和AI运维,并可以访问成千上万的模型API。上线两个月后,Azure AI Foundry已吸引超过20万月活跃用户,并且凭借对OpenAI领先模型及开源模型和小型语言模型(SLM)的支持,微软在此领域占据有利地位。
在AI平台与工具方面,微软与OpenAI的战略合作关系继续深化,OpenAI已向Azure做出了新的采购承诺。通过双方的合作,客户可以通过Azure访问世界领先的OpenAI的模型,并且OpenAI将在不久后推出更多新产品。
此外,DeepSeek的R1模型也通过Foundry的模型目录和GitHub发布,支持自动化红队测试、内容安全集成和安全扫描。
GitHub现已拥有1.5亿开发者,过去两年增长了50%。
最后,微软于美国时间周三为全球所有Copilot用户免费推出了由o1驱动的Think Deeper工具,进一步提升了Copilot用户的体验。
以下为分析师问答环节:
问:在第二财季,Azure的业绩位于预期区间的下限,其中可能存在哪些执行方面的问题?管理层如何解决这些问题?
胡德:问题主要集中在非AI的ACR(容器注册表)服务组件上,尤其是在规模化推广阶段,挑战在于平衡客户的AI工作负载和传统工作之间的关系。为解决这些问题,微软在2024年夏季调整了销售策略,帮助客户平衡这两者之间的关系。这些调整预计需要更多时间才能产生效果,因此下半年可能会继续面临挑战。
对于第三财季,预计Azure业务增长在31%至32%之间。尽管面临产能受限的问题(包括基础设施和设备组件),但通过过去三年的投资,预计到年底产能将接近平衡。整体而言,微软对AI业务保持信心,并关注非AI业务的规模化推广进展。
纳德拉:AI业务的实际增长率超出了预期,尤其是在解决供应问题后,多个工作负载的扩展表现会更好。例如,ChatGPT和微软智能助手Copilot等服务带来了更多收入,企业服务中的AI工作负载(如与SAP相关的迁移工作)也呈现不错的增长势头。问题主要出现在规模化推广的细节调整上。在平台转型期间,公司需调整激励措施和市场策略,确保抓住新机遇而不是依赖于旧有成果。重点是要有效利用新的设计优势,推动业务创新和增长。
问:哪些因素推动了微软AI业务收入远超预期?
胡德:有几个关键因素:首先,Azure表现强劲,特别是在AI服务方面。其次,Copilot的表现同样出色。Copilot在客户席位数量上表现良好,包括新席位和扩展席位,同时用户的使用量也较为可观。虽然使用量不会直接影响收入,但随着用户价值的提升,间接推动了收入的增长。最后,Copilot的定价水平也相当不错,反映了该产品的市场价值。
问:你们如何看待DeepSeek?它是否标志着AI已接近或即将实现以更低成本进行规模化应用的节点?
纳德拉:从某种意义上讲,AI的发展与常规计算周期类似,都涉及到优化和提高效率的问题。在摩尔定律、缩放定律的推动下,AI的性能正在逐步提升,而成本则在下降。尤其是在推理领域,软件优化带来了每个周期10倍的性能提升。我认为,DeepSeek的确有一些创新成果,部分成果也出现在OpenAI的o1模型中。这些成果都已商品化,并且会得到广泛应用,而在这样的软件发展周期中,最大的受益者就是客户。
从客户服务器模式到云计算转变的过程,其实是更多的人购买了服务器,只不过这些服务器换成了“云”。随着token价格下降,推理计算的成本也随之降低,这意味着人们可以使用到更多的计算资源,也会有更多的应用程序开发出来。到了2025年年初,个人电脑上也能运行曾经需要庞大基础设施支持的模型。这意味着AI应用会变得更加无处不在,而微软作为超大规模云服务提供商和PC平台提供商,正处于这一变革的前沿。
问:微软参与星际之门项目及其与OpenAI关系调整的战略决策,对未来几年资本支出有何影响?
纳德拉:微软与OpenAI的合作关系非常成功,Azure业务得到了强力支持,目前确认的只是合作的初步成果,未来还会有更多好处。微软正在构建灵活且兼容的计算资源体系,以确保训练和推理之间达到恰当的平衡,并实现地理分布式布局。同时,微软致力于通过软件优化,并利用Deepseek所取得的成果,降低GPT模型的推理成本。在推理优化方面,降低成本是推动AI业务增长的关键,且不应过度采购资源,因为摩尔定律每年会提升性能,而优化可带来10倍的提升。
问:微软Copilot系列后续发展如何,将如何整合产品并推广以满足客户多样化需求?
纳德拉:微软最近发布了两项重要更新。首先,微软推出了微软365 Copilot Chat企业AI助手服务,并广泛部署到所有已安装产品中,用户可以通过 IT 部门开启这一功能,大家可以立即开始使用具备企业控制功能的网页聊天服务。此外,该功能内置了Copilot Studio,这意味着我们可以开始构建智能体。结合完整的 Copilot,这是一个不错的组合,它将加速席位使用量的增长和智能体的构建。
其次,在消费者一端,微软发布了Copilot的Think Deeper功能,由OpenAI o1模型提供技术支持,并且在全球范围内可用。由此可见,推理优化和成本降低使得一些原本高端的功能得以更广泛应用,这一趋势也在GitHub Copilot和Security Copilot等产品中得到体现。
问:在Azure上运行的推理任务中,专有模型与开源模型各自所占的比例有多大?这对微软有何影响?
纳德拉:在任何应用中,通常都会使用多种不同的模型。例如,Copilot或GitHub Copilot背后就有许多不同的模型,包括构建、微调和蒸馏的模型,其中一些可能会被蒸馏成开源模型。因此,未来将会是多种模型的结合。拥有前沿模型非常重要,因为开发者总是希望用最好的模型来构建应用,并在此基础上进行优化。随着时间的推移,初始的成本结构(COGS)也会改变,因为开发者会持续优化延迟和成本,并在不同模型下进行调整。
为了管理这些复杂性,新的应用服务器需要具备强大的能力。微软正在大量投资于Foundry,以确保应用开发者能够跟上不断涌现的模型趋势,使应用能够持续受益于创新,同时避免过高的开发或运维成本(如AIOps成本)。微软也在大力投资于应用服务器,确保任何工作负载都能从不同的模型中受益,无论是开源、闭源还是不同权重级别的模型。同时,从运维角度来看,这会让你的工作更快、更轻松。
问:Copilot在哪些领域表现强劲?常见使用场景是什么,为何有巨大的未来盈利潜力?
纳德拉:我认为最初的席位分配是针对那些更相信即时生产力的部门,比如销售团队、财务或供应链部门,这些地方有很多像 SharePoint 这样的数据,用户希望能够结合网络数据使用,并产生有益的结果。但随后发生的情况,非常像我们在上一代生产力工具中看到的那样,人们开始跨部门、跨职能协作。例如,在我自己的日常习惯中,我会使用聊天功能,通过工作标签获取结果,然后立刻通过页面分享给同事。我称之为“用 AI 思考,与人协作”。这种模式要求你在整个企业中更广泛地推广它。
这也是我们目前所看到的,虽然它可能从部门层面开始,但快速的协作效应会推动它在整个组织中推广。你可以按团队或其他方式进行部署。我们甚至通过将Copilot Chat与其他功能结合使用,进一步简化了这一过程,为企业客户提供了更大的灵活性,让这一工具在企业中更加普及。