全球最大云厂商,将「最牛马」的工作交给了AI Agent

500

这或许不是一场充满噱头的发布会,但对于渴望用 AI 提效的实体产业而言,可能是通往未来的真正门票。

作者|郑玄

全球最大的云厂商,正在重构其在 Agent 时代的云计算核心。

美国东部时间 2025 年 12 月 2 日上午(北京时间 12 月 3 日凌晨),在拉斯维加斯举行的 re:Invent 大会上,亚马逊云科技宣布了一系列围绕 AI Agent 的重大更新:一方面是面向客户的 Agent 应用和平台工具,如 Amazon Connect、Kiro 等;另一方面是面向未来的底层基础设施,包括新一代 Trn4 AI 芯片以及 Trn3 超级服务器等。

今年以来,AI Agent 的爆发正在深刻影响企业工作流和生产力模式。亚马逊云科技的这些新产品和发布,似乎在回答两个关键的行业问题:如何确保 Agent 安全合规地「用好」,以及如何让 Agent 以经济可行的方式「跑起来」。正如亚马逊云科技 CEO Matt Garman 在主题演讲中所强调的,最终目标是实现「将 Agent 投入工作」(Put Agent into Work)。

500

如何让 Agent 可用丨来自:2025 re:Invent

有意思的是,在长达 2 个小时的主题演讲中,Matt Garman 用了 1 小时 50 分钟的时间介绍 AI 基础设施和全新的 Agent 产品,而只用了 10 分钟的时间提及传统云产品升级(如实例、存储、数据库等)。11:1 的时间分配对比,也印证了 AI Agent 及其背后的基础设施,已成为当下云厂商们最重要的战略核心。

01

Agent 应用与治理:

从模型到可控的「数字员工」

AI Agent 的价值不再是传统的「聊天」,而在于「行动」。今年 re:Invent 期间,AWS 发布了一系列围绕 Agent 构建的产品和应用。

一方面,在企业服务领域,AWS 将 Agent 融入到各类传统的平台和工具之中,对后者实现技术升级从而提高生产效率。今年,针对企业数字化经营中最耗时、最复杂的三个领域:代码运维、应用现代化和客户服务,AWS 推出了一系列 Agent 产品。

500

三个不同场景的 Agent 丨来自:2025 re:Invent

首先是在代码和运维领域,AWS 发布了多个 Agent 产品。其中 Kiro Autonomous Agent 值得关注。以前的 AI 编程工具虽然能写代码,但往往把开发者变成了忙于搬运上下文和协调工具的「助理」。而 Autonomous Agent 解决的就是这个问题,它可以被视为团队中一位 24 小时待命、过目不忘的「影子开发者」。

开发者只需专注于核心难题,把修 Bug、跨库变更等繁琐任务直接丢给它。它不仅能在后台自主规划并执行,还能像真人一样记住跨会话的上下文,通过连接 Jira 和 Slack 深度学习团队的业务逻辑与协作规范。随着每一次代码审查,它会越来越懂你们的产品和标准,真正成为团队共享的「超级大脑」,让开发者只做决策,不再打杂。

还有 DevOps Agent。从国内的「双 11」到海外的「黑五」,大型数字营销活动背后,技术运营人员熬夜加班已经成为常态。当下的模式是系统监测预警,技术人员需要随时待命处理每一个问题。而 AWS DevOps Agent 像是一个永不眠的运维员工,可以 24 小时调查事故和识别运营问题,从而大幅减少需要提报告给运营人员的警报数量,让后者可以更轻松更高效地处理那些真正有价值的问题,而非一直被一些没什么意义的警报轰炸。

500

「炸掉」技术债务丨来自:2025 re:Invent

同时,Agent 还在重塑企业的核心资产——传统应用。今天很多企业面临沉重的「技术债务」,很多传统应用的工作负载都运行在大型机、VMware 等传统服务器上,云迁移虽是趋势,但也是巨大的负担。而 Amazon Transform Agent 就像一位专业的「全能代码重构工程师」,能够对任何代码、API、语言、甚至企业自有的编程语言或框架进行定制化转换。这种能力将传统应用现代化的速度提升至 5 倍,减少 80% 的时间和成本。

在客服领域,Amazon Connect 的新 Agent 也帮助这个产品实现了能力飞跃。此次 Amazon Connect 一口气发布了四项更新,包括用更先进的语言模型提供更加自然、类人的对话体验;同时让 AI 掌握工具从而完成整理材料、执行常规流程等工作,让其与真人员工更好地协作;以及基于历史行为和点击流等构建客户画像,让 AI 可以提供更加个性化的推荐。

另外,随着企业部署越来越多 AI Agent 参与客户交互,理解其决策过程对保障服务质量与合规至关重要。Amazon Connect 还新增 AI Agent 可观测性功能,为企业提供高度透明度——清晰呈现 AI 的理解内容、使用的工具以及决策过程。这种可见性帮助企业优化性能、确保合规,并增强对 AI 交互体验的信心。

除了在已有的服务场景中引入 Agent 能力,另一方面,AWS 也对构建 Agent 的平台工具进行了升级。其中最核心的是加强了 Agent 的治理与评估,让客户可以为 Agent 行为设置「红线」。

500

让 Agent 可评估和被约束丨来自:2025 re:Invent

随着 Agent 获得执行企业操作的权限,可控性和可信赖性成为其规模化落地的首要前提。AWS 本次发布的重点在于:对 Agent 的约束,必须从传统的「内容安全」转向更高级的「行为治理」

AWS 推出的 Policy in AgentCore 功能,正是针对 Agent 行为治理的新工具。它允许用户使用自然语言来设定 Agent 的行为边界。这与传统安全护栏(Guardrails)仅过滤语言内容不同,Policy 可以简单地创建和管理 Agent 运行策略,并在 Agent 工作流中进行实时检查,确保 Agent 的操作始终在预设的权限范围内。

此外,为了确保 Agent 在实际工作中的表现,AWS 还推出了 AgentCore Evaluations。这项服务允许基于真实世界的行为对 Agent 的工作质量进行持续检查和评估,为企业规模化部署 Agent 提供了可靠的性能衡量标准。

通过这一系列治理工具,AWS 试图告诉企业:AI Agent 是可以信任的。只要设置了明确的「红线」,平台就能保证 Agent 的行为始终在安全边界之内。

02

基础设施升级:构建 AI 应用生态

的算力和模型「基石」

如果说 Agent 是台前的「数字员工」,那么支撑它们日夜运转的基础设施就是幕后的「超级工厂」。

今年 AWS 在基础设施层面的动作,似乎在向行业传达一个信号:要让 Agent 真正普及,不仅要让它变得聪明,更要让企业「用得起」且「不论用什么模型都能跑得好」。

首先是算力层面。Agent 时代对算力的消耗模式发生了根本改变。过去,企业关注的是「训练」一个大模型需要多少张卡;而在 Agent 时代,成千上万个 Agent 需要 24 小时在线,进行持续的推理、规划和工具调用。推理成本如果居高不下,Agent 就无法大规模落地。

500

Trn3 UltraServer 丨来自:2025 re:invent

Matt Garman 在会上宣布,AWS 正式推出了由第四代 AI 芯片驱动的 Amazon EC2 Trn3 UltraServer。作为 AWS 首款采用 3nm 工艺制造的 AI 芯片,Trainium3 实际上是在构建一种比通用 GPU 更具性价比的算力替代方案。每颗芯片提供 2.52 PFLOPs 的 FP8 计算能力,配合 144 GB 内存(比上一代提升 1.5 倍),它完美契合了 Agent 应用中长上下文架构和多模态推理的需求。

Trn3 UltraServer 服务器最多可以集成 144 颗 Trn3 芯片,并可以通过 EC2 UltraClusters 扩展至数十万颗。而对于企业最关心的成本问题,Trn3 在 Bedrock 上的表现是:相比 Trn2,性能提升 3 倍,每 MW 能耗的输出 Tokens 数提升超过 5 倍。对于目前 AI 算力昂贵的挑战,Trn3 的推出可以起到明显的降低作用。

而在模型层面,AWS 再次证明了自己是「最开放的 AI 平台」。通过 Amazon Bedrock,AWS 打出了一套「自研强模型 + 全球全明星模型托管」的组合拳。

自研模型方面,AWS 正式发布了下一代 Amazon Nova 2 模型家族。其中包括了针对 Agent 语音交互优化的 Nova 2 Sonic——这是一款新一代的 speech-to-speech 模型,它不仅具备行业领先的对话质量和更低延迟,还能实现实时、人类般的语音对话。

此外,AWS 还推出了 Amazon Nova Forge,首次引入了「开放式训练模型」理念。它解决了企业「既想深度定制又怕灾难性遗忘」的痛点。与今天大多专有模型依赖后训练的精调或者接入专用数据库不同,Forge 允许开发者访问 Nova 训练检查点,并在训练的每一个阶段将自有数据与 Amazon 精选的数据集深度融合,从而训练出既理解业务又保留大模型智能水平的专属模型。

500

Bedrock 的模型合作伙伴丨来自:2025 re:invent

另外值得关注的是,今年 AWS 展现出对中国本土 AI 模型前所未有的拥抱。在 Bedrock 新增的 18 个完全托管模型名单中,三家中国公司的四个模型名列其中:

月之暗面的 Kimi K2 思考模型:具备深度推理能力,能在使用工具的同时进行思考。

MiniMax AI 的 MiniMax M2 模型:适合 Coding 和自动化场景,擅长多文件编辑和长工具调用链,被视为开发者 Agent 的强力大脑。

阿里巴巴的 Qwen 模型:其中的 Qwen3-VL 能将屏幕截图直接转换为可运行的代码,并自动执行界面点击操作,是自动化 UI 操作的神器。

过去,全球云厂商往往更倾向于绑定少数几家欧美头部模型厂商。而 AWS 此次将 Kimi、MiniMax、Qwen 等中国顶尖模型纳入核心库,不仅是因为这些模型在性能上已经具备了全球竞争力,更显示了 AWS「互联互通」的生态格局。

对于企业而言,这意味着选择权的极大丰富。无论是需要 Mistral Large 3 这样的长文档处理专家,还是需要中国本土的优秀模型,AWS Bedrock 正在变成一个打破地域和技术栈隔阂的「万能转换插座」,让算力和模型真正成为像水电一样的资源。

03

当喧嚣退去,AWS 正在为

 AI Agent 制定「基本法」

乍看之下,今年的 re:Invent 似乎显得有些「波澜不惊」。这里没有令人瞠目结舌的参数大跃进,也没有颠覆认知的「黑科技」突袭。

Trn3 的性能提升固然强悍,但基本也在预期之内;更有性价比的 Nova 2 和首次推出的语音模型,虽然让人眼前一亮,但在如今 SOTA 模型遍地跑、参数竞赛白热化的行业背景下,似乎也算不上「核弹级」的重磅发布。即便是最受关注的 AI 编程工具 Kiro 和 Agent 开发平台 AgentCore,也多是基于既有产品的更新——这些关于安全性、可观测性或辅助功能的修修补补,难免让人产生「没什么大动作」的错觉。

然而,这种「平淡」或许正是 AWS 最厉害的地方。当我们将视线从单个产品移开,投向整个产业,会发现 AWS 其实在定义下一代基础设施的路上,迈出了极为关键的一步。

AWS 做对的第一件事,是率先打破了 Agent 的「空谈」阶段。在大多数平台还在比拼 Agent 框架的灵活性、推理速度时,AWS 敏锐地意识到:企业需要的不是一个能聊天的机器人,而是一个能干活的员工。于是我们看到,Transform Agent 被用来解决棘手的技术债务,DevOps Agent 被用来处理繁琐的运维报警。

AWS 不再只是提供一个简单的 LLM 接口,而是将行业 Know-how(如 19 年的运维经验、代码迁移经验)封装进 Agent,将其打造成了真正能解决具体业务痛点的「成品工具」。这种「将能力封装为产品」的思路,标志着 Agent 从技术玩具正式迈向了商业实战。

更深层的变革在于 Agent 治理。Agent 的运行范式与过去的 Chat 类应用和传统的云计算业务有着本质区别。传统的云关注「资源」,Chat 应用关注「内容」,而 Agent 关注的是「行动」。将一个拥有自主决策权的 Agent 放入企业的核心业务流,其风险不亚于招聘一名不受控的员工。难点不在于如何让 Agent 跑起来,而在于如何让它不乱跑

500

Policy in AgentCore 丨来自:2025 re:invent

AWS 在本次大会上展示的 Policy 功能,实际上是在尝试重新定义一套 Agent 时代的治理范式。这种用自然语言设定边界的方式,不再是死板的代码约束,而更像是给数字员工颁布一套「法律」。它让管理者可以用人类的逻辑(如「退款金额不得超过 1000 元」)来约束 AI 的行为。这种治理模式的建立,比单一模型的性能提升更具战略意义——因为只有解决了「可控性」和「合规性」这两个拦路虎,企业才敢真正让 Agent 接入核心业务。

最终,当我们重新审视这次 re:Invent,会发现它的意义不在于某个单品的参数碾压,而在于生态位的抢先占领。当大多数玩家还沉浸在解决架构优化和算力堆叠的「基建期」时,AWS 已经通过一系列真实的落地案例和完善的治理技术栈,开始为行业「打样」——它展示了一个 Agent 在真实企业环境中,应该如何被构建、如何被管理、以及如何产生价值。

这或许不是一场充满噱头的发布会,但对于渴望用 AI 提效的实体产业而言,AWS 正在构建的那套让 Agent「可用、可控、可信」的基础设施,可能是通往未来的真正门票。

*头图来源:2025 re:Invent

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

站务

最近更新的专栏

全部专栏