View a markdown version of this page

内容领域 2: 实施和集成 - AWS Certified Generative AI Developer - Professional

内容领域 2: 实施和集成

任务 2.1: 实施代理式 AI 解决方案和工具集成。

  • 技能 2.1.1: 开发智能化的自治系统,具备相应的内存和状态管理功能(例如,将 Strands Agents 与 AWS Agent Squad 结合用于多代理系统,使用 MCP 进行代理与工具的交互)。

  • 技能 2.1.2: 创建高级问题解决系统,赋予基础模型按照结构化推理步骤来分析和解决复杂问题的能力(例如,使用 Step Functions 实施 ReAct 模式和思维链推理方法)。

  • 技能 2.1.3: 开发具有保障措施的 AI 工作流,确保实现受控的基础模型行为(例如,使用 Step Functions 实施筛选停用词条件,使用 Lambda 函数实施超时机制,使用 IAM 策略强制实施资源边界,使用断路器来防范故障)。

  • 技能 2.1.4: 创建先进的模型协调系统,用于优化多种功能的性能(例如,使用专用基础模型执行复杂任务,使用自定义聚合逻辑进行模型组合,模型选择框架)。

  • 技能 2.1.5: 开发协作式 AI 系统,利用人员的专业知识增强基础模型能力(例如,使用 Step Functions 协调审核和审批流程,使用 API Gateway 实施反馈收集机制,人工增强模式)。

  • 技能 2.1.6: 实施智能工具集成来扩展基础模型功能,确保可靠的工具运行(例如,使用 Strands API 实施自定义行为,标准化函数定义,使用 Lambda 函数实施错误处理和参数验证方法)。

  • 技能 2.1.7: 开发模型扩展框架来增强基础模型能力(例如,使用 Lambda 函数实施无状态 MCP 服务器,提供轻量级工具访问;使用 Amazon ECS 实施 MCP 服务器,提供复杂的工具,使用 MCP 客户端库来确保一致的访问模式)。

任务 2.2: 实施模型部署策略。

  • 技能 2.2.1: 根据具体的应用程序需求和性能要求部署基础模型(例如,使用 Lambda 函数进行按需调用,Amazon Bedrock 预置吞吐量配置,使用 SageMaker AI 终端节点实施混合解决方案)。

  • 技能 2.2.2: 部署不同于传统 ML 部署的基础模型解决方案,解决大型语言模型 (LLM) 的独特挑战(例如,遵循专门的模型加载策略,实施基于容器的部署模式,针对内存要求、GPU 利用率和词元处理能力进行优化)。

  • 技能 2.2.3: 开发优化的基础模型部署方法,平衡生成式人工智能工作负载的性能和资源需求(例如,选择合适的模型,针对特定任务使用较小的预训练模型,使用基于 API 的模型级联来执行常规查询)。

任务 2.3: 设计和实施企业集成架构。

  • 技能 2.3.1: 创建企业连接解决方案,将基础模型功能无缝融入到现有的企业环境中(例如,对旧式系统使用基于 API 的集成,使用事件驱动型架构实施松耦合,数据同步模式)。

  • 技能 2.3.2: 开发集成式 AI 功能,使用生成式人工智能功能增强现有应用程序(例如,使用 API Gateway 实施微服务集成,将 Lambda 函数用作 Webhook 处理程序,使用 Amazon EventBridge 实施事件驱动型集成)。

  • 技能 2.3.3: 创建安全访问框架,确保实施了适当的安全控制措施(例如,在基础模型服务和企业系统之间使用身份联合验证,为模型和数据访问使用基于角色的访问控制,对基础模型采用最低权限 API 访问)。

  • 技能 2.3.4: 开发跨环境的 AI 解决方案,确保在各司法管辖区中的数据合规性,同时实现基础模型访问控制(例如,使用 AWS Outposts 进行本地数据集成,使用 AWS Wavelength 进行边缘部署,云服务与本地资源之间的安全路由)。

  • 技能 2.3.5: 实施 CI/CD 管道和生成式人工智能网关架构,在企业环境中实施安全且合规的使用模式(例如,使用 AWS CodePipeline、AWS CodeBuild;为持续部署使用自动化测试框架;使用安全扫描和回滚支持来测试生成式人工智能组件;集中式抽象层、可观测性和控制机制)。

任务 2.4: 实施基础模型 API 集成。

  • 技能 2.4.1: 创建灵活的模型交互系统(例如,使用 Amazon Bedrock API 管理来自各种计算环境的同步请求,使用特定于语言的 AWS SDK 和 Amazon SQS 进行异步处理,使用 API Gateway 为自定义 API 客户端提供请求验证)。

  • 技能 2.4.2: 开发实时 AI 交互系统,提供来自基础模型的即时反馈(例如,使用 Amazon Bedrock 流式传输 API 进行递增式回复交付,使用 WebSocket 或服务器发送的事件实时生成文本,使用 API Gateway 实施分块传输编码)。

  • 技能 2.4.3: 创建具有韧性的基础模型系统来确保可靠运行(例如,使用 AWS SDK 进行指数回退,使用 API Gateway 管理速率限制,利用回退机制实现优雅降级,使用 AWS X-Ray 提供跨服务边界的可观测性)。

  • 技能 2.4.4: 开发智能模型路由系统用以优化模型选择(例如,使用应用程序代码实施静态路由配置;使用 Step Functions 基于内容动态路由到专用基础模型;基于指标的智能模型路由;使用 API Gateway 通过请求转换实现路由逻辑)。

任务 2.5: 实施应用程序集成模式和开发工具。

  • 技能 2.5.1: 创建基础模型 API 接口,满足生成式人工智能工作负载的特定要求(例如,使用 API Gateway 处理流式回复,词元限制管理,处理模型超时的重试策略)。

  • 技能 2.5.2: 开发易于访问的 AI 接口来加快基础模型的采用和集成(例如,使用 AWS Amplify 开发声明式 UI 组件,适用于 API 优先开发方法的 OpenAPI 规范,使用 Amazon Bedrock 提示工作流管理器开发无代码工作流构建器)。

  • 技能 2.5.3: 创建业务系统增强功能(例如,使用 Lambda 函数实施客户关系管理 [CRM] 增强功能,使用 Step Functions 编排文档处理系统,使用 Amazon Q 企业版数据来源提供内部知识工具,使用 Amazon Bedrock 数据自动化来管理自动数据处理工作流)。

  • 技能 2.5.4: 提高开发人员工作效率,加快生成式人工智能应用程序开发工作流的速度(例如,使用 Amazon Q Developer 生成和重构代码,API 辅助代码建议,AI 组件测试,性能优化)。

  • 技能 2.5.5: 开发高级生成式人工智能应用程序来实施先进的 AI 功能(例如,使用 Strands Agents 和 AWS Agent Squad 实施 AWS 云原生的编排,使用 Step Functions 编排代理设计模式,使用 Amazon Bedrock 管理提示链模式)。

  • 技能 2.5.6: 提高基础模型应用程序的故障排除效率(例如,使用 CloudWatch Logs Insights 分析提示和回复,使用 X-Ray 跟踪 FM API 调用,使用 Amazon Q Developer 实施特定于生成式人工智能的错误模式识别)。