AWS re:Invent2025第三天,AWS发布九项智能体新功能,旨在让开发者快速部署Agent。核心包括:Strands Agents SDK新增TypeScript支持,前端工程师可直接构建Agent;支持ARM与x86边缘设备,车载芯片上运行实时路径规划Agent延迟低于100ms;以及Amazon Bedrock相关更新。
AWS推出Amazon Bedrock Custom Model Import功能,支持用户部署20亿和120亿参数的GPT-OSS开源模型。该功能允许企业将现有应用迁移至AWS平台,同时保持API兼容性。用户只需上传模型文件至Amazon S3,通过控制台启动导入,AWS将自动处理GPU配置和推理服务器搭建,简化部署流程。
亚马逊推出AI代理平台AgentCore并集成至Amazon Bedrock,进军智能体基础设施领域。该平台帮助企业快速构建、部署AI代理,支持OpenAI、Gemini等主流模型,开发者无需从零搭建系统,可借助亚马逊环境简化集成流程。
Anthropic公司宣布其Claude Sonnet4LLM模型上下文词元容量从20万扩展至100万,支持单请求传输超7.5万行代码,显著提升使用灵活性。该功能已在Anthropic API和Amazon Bedrock开放测试,Google Cloud Vertex AI即将上线。
Anthropic
$21
输入tokens/百万
$105
输出tokens/百万
200
上下文长度
一个基于Amazon Bedrock的Nova Canvas模型的MCP服务器,支持多种图像生成与编辑功能。
该项目展示了一个基于AWS Lambda的无服务器MCP(模型上下文协议)工具实现,包含Python服务端和TypeScript客户端,支持流式HTTP通信。服务端简化了MCP工具开发流程,内置会话状态管理,并演示了与Amazon Bedrock的集成。
基于SSE的MCP服务器,提供图像和视频生成工具
基于Amazon Bedrock Nova Canvas模型的AI图像生成MCP服务
基于Amazon Bedrock的PowerPoint翻译工具,支持命令行和FastMCP服务集成,保留原始格式进行高质量翻译。
一个基于Amazon Bedrock Nova Canvas模型的MCP服务器,提供高质量的AI图像生成服务,支持文本描述生成图像、负面提示优化、尺寸配置和种子控制等功能。
AWS数据库服务的MCP服务器设置指南,支持多种数据库类型与Amazon Bedrock模型集成
基于Streamlit和Amazon Bedrock的时间转换助手