行业动态
2026-04-17
来源:Reuters
2 小时前
AI成云业务增长新引擎,亚马逊CEO断言:所有负载终将转向人工智能
亚马逊云科技(AWS)最新一季的财报,给整个科技行业注入了一剂强烈的兴奋剂。当市场还在为生成式AI的“泡沫”争论不休时,AWS用实实在在的营收数字,宣告了AI已经从一个炫酷的概念,变成了驱动其核心业务增长的强劲引擎。财报电话会议上,亚马逊CEO安迪·贾西(Andy Jassy)那句“所有负载终将转向AI”的断言,更是掷地有声,仿佛为未来十年的云计算格局定下了基调。

回顾过去几个季度,云计算的增长曾一度放缓,市场担忧其“黄金时代”是否已近尾声。然而,AWS本季度的表现彻底打消了这种疑虑。其营收不仅超出市场预期,更关键的是,增长动力清晰地指向了人工智能,特别是生成式AI相关服务。这并非偶然,而是亚马逊在过去一年多里,从底层芯片到上层应用服务,进行系统性AI布局的必然结果。
这种系统性布局的核心,在于亚马逊意识到,AI的普及不能只靠少数几家拥有顶尖模型的“明星公司”,更需要一个庞大、易用且成本可控的基础设施生态。因此,我们看到AWS构建了一个三层“AI技术栈”。
最底层是自研的AI芯片。亚马逊的**Inferentia**和**Trainium**芯片,目标直指AI推理和训练的高昂成本痛点。对于广大企业来说,使用英伟达的顶级GPU固然性能强大,但成本也令人咋舌。AWS提供的自研芯片选项,就像为不同预算和需求的客户提供了“经济舱”和“商务舱”的选择,让更多企业能够以可承受的成本启动AI项目。
中间层是模型即服务。这就是备受关注的**Amazon Bedrock**。你可以把它想象成一个“模型超市”。企业开发者不再需要从零开始训练一个百亿、千亿参数的大模型,那需要巨大的数据、算力和专业团队。通过Bedrock,他们可以直接调用来自**Anthropic**、**Meta**、**Mistral AI**乃至**亚马逊自家Titan系列**的多种领先大模型,就像在云上调用一个API接口那么简单。这极大地降低了生成式AI的应用门槛,让开发者可以专注于结合自己的业务数据,构建独特的应用体验。
最上层则是具体的AI应用服务。例如,面向企业知识库的**Amazon Q**,它能够理解企业的内部代码、文档和数据,充当一个智能的“企业助手”。这类开箱即用的服务,直接瞄准了企业最迫切的提效需求,将AI能力打包成标准化的产品。

安迪·贾西所说的“所有负载终将转向AI”,其深意正在于此。这并不意味着所有计算都会变成AI计算,而是意味着AI能力将像今天的数据库、存储和网络一样,成为未来所有应用程序的“标配”组件。无论是电商的推荐系统、流媒体的内容审核、工厂的质检流程,还是办公室的文档总结,其背后都将深度集成AI模型。而承载这些“智能负载”的最佳平台,自然是能够提供从底层算力、中层模型到上层应用一体化服务的云。
这种转变对普通开发者意味着什么?首先,**技能门槛在转移**。过去,精通某门编程语言、某个框架是核心竞争力。未来,如何有效地筛选、调用、微调和评估大模型,如何将AI能力与现有业务逻辑无缝结合,将成为更关键的技能。开发者正在从“代码编写者”向“AI能力集成者”和“提示词工程师”演变。
其次,**开发范式在改变**。传统的软件开发是确定性的,输入确定,输出确定。而基于大模型的开发带有一定概率性,需要处理模型的“幻觉”问题,设计更健壮的错误处理和人机协同流程。这要求开发者具备新的思维模式。
最后,**创新速度在加快**。借助像Bedrock这样的平台,一个小的创业团队可能在几周内就能做出一个具备智能对话能力的产品原型,这在过去需要投入数年研发。AI云服务的成熟,正在极大地释放个体和小团队的创新潜力。
当然,挑战也同样明显。数据隐私与安全、模型偏见与合规性、长期运营成本的控制,这些都是企业将核心业务负载转向AI时必须跨越的鸿沟。AWS等云厂商的竞争,未来也将从单纯比拼算力规模和模型数量,转向比拼谁能提供更安全、更合规、更易于治理的AI全链路服务。
回看历史,云计算的第一波浪潮是将企业的IT基础设施“搬”上云;第二波浪潮是将大数据和分析能力“搬”上云。现在,我们正站在第三波浪潮的起点:将**人工智能的核心生产能力“搬”上云**。亚马逊AWS本季度的财报,正是这股浪潮第一个有力的浪头。
安迪·贾西的断言或许有些绝对,但方向无疑是正确的。AI不再只是云巨头财报电话会议上的“未来故事”,它已经成为驱动营收增长的“现在进行时”。对于所有开发者和企业而言,问题不再是“要不要用AI”,而是“如何更快、更稳、更聪明地用上AI”。而云,尤其是像AWS这样提供了完整AI技术栈的云,正在成为通往这个智能未来的默认入口。这场由AI驱动的云增长新周期,才刚刚拉开序幕。
加载中...