概览
概览
在游戏智能 NPC 构建场景下,需要创建不同类型的 NPC 与玩家拟人互动,推动游戏进程。玩家在与基于固定规则的 NPC 对话、互动时会受到限制,固定的流程会使玩家感到厌倦。亚马逊云科技面对该场景构建游戏中的 AI 对话智能体解决方案指南,借助生成式 AI 技术帮助改进玩家游戏体验。玩家可以在游戏中与 NPC 进行基于游戏攻略和常识拟人互动,NPC 可以理解人类语言和情感来推动游戏进度,NPC 可以结合知识库为提供玩家智能客服问答。该指南基于 Amazon Bedrock、Amazon SageMaker、Amazon OpenSearch 等服务构建。
在游戏智能 NPC 构建场景下,需要创建不同类型的 NPC 与玩家拟人互动,推动游戏进程。玩家在与基于固定规则的 NPC 对话、互动时会受到限制,固定的流程会使玩家感到厌倦。亚马逊云科技面对该场景构建游戏中的 AI 对话智能体解决方案指南,借助生成式 AI 技术帮助改进玩家游戏体验。玩家可以在游戏中与 NPC 进行基于游戏攻略和常识拟人互动,NPC 可以理解人类语言和情感来推动游戏进度,NPC 可以结合知识库为提供玩家智能客服问答。该指南基于 Amazon Bedrock、Amazon SageMaker、Amazon OpenSearch 等服务构建。
传统的游戏 NPC 面临的挑战
传统的游戏 NPC 面临的挑战
重复且无意义的 NPC 对话,会拖慢游戏节奏。新一代的玩家更希望获得个性化的游戏体验。
重复且无意义的 NPC 对话,会拖慢游戏节奏。新一代的玩家更希望获得个性化的游戏体验。
由脚本和复杂的对话树驱动, 不能适应游戏中的变化以及复杂的数据结构,如表格, 图片信息等,使 NPC 无法执行复杂的任务。
由脚本和复杂的对话树驱动, 不能适应游戏中的变化以及复杂的数据结构,如表格, 图片信息等,使 NPC 无法执行复杂的任务。
游戏创作内容单一且周期长,导致产品可玩性不高,生命周期短,无法为厂商带来持续的盈利能力。
游戏创作内容单一且周期长,导致产品可玩性不高,生命周期短,无法为厂商带来持续的盈利能力。
应用场景
应用场景
通过使用 RAG 技术的知识库与对话,回答常见问题。
完成各类信息查询和任务自动化
用户反馈分析,用于策略分析。
对接外部系统,获取实时数据,流程自动化。
依托 LLM 对多语言的理解,可以接受多语言的输入。
提供用于 Demo 的前端 Web 应用,后端提供 API 接口。
优势
优势
提供开放式场景、真实体验和对话总结后的自动化流程以及和 LLM 集成
通过知识库和代理对玩家进行实时辅助,快速改进玩家游戏体验。
利用大语言模型的任务分解能力和推理能力,对游戏玩家行为进行多维度分析。
架构图及说明
API Gateway 将查询请求传递给搜索和问答组件。该组件由集成了 Langchain (开源框架) 的 Amazon Lambda,具有搜索功能的 Amazon OpenSearch Service 或 Amazon Kendra ,以及 Amazon SageMaker 构成。
Lambda 首先从搜索引擎(OpenSearch 或 Amazon Kendra)获取搜索结果。随后Lambda 输入提前预置好的提示词。
这个过程使用到大语言模型 (LLM) 赋能的检索增强生成 (RAG) 技术。大语言模型托管在 SageMaker 端点上,API Gateway 用于向用户返回 LLM 建议的答案。
API Gateway 将反馈传递给搜索优化组件,该组件包含 Lambda、Amazon DynamoDB 和 Amazon EventBridge。Lambda 函数将结果反馈写入 DynamoDB,以帮助调整下一步中的模型。
EventBridge 调用存储在 DynamoDB 中的反馈数据训练 Extreme Gradient Boosting (XGBoost) 模型。训练后的模型将被部署到搜索引擎中。
Lambda 函数从 Amazon Simple Storage Service (Amazon S3) 读取原始文件。它将数据分块、embedding 并注入到搜索引擎中。embedding 模型托管在 SageMaker 端点上。这一步用来为搜索引擎构建知识库。
架构图及说明
终端用户通过托管在 AWS Amplify 的网站输入查询请求或提交结果反馈。
网站将查询请求或结果反馈传递给 Amazon API Gateway,并从 API Gateway 接收响应。
API Gateway 将查询请求传递给搜索和问答组件。该组件由集成了 Langchain (开源框架) 的 Amazon Lambda,具有搜索功能的 Amazon OpenSearch Service 或 Amazon Kendra ,以及 Amazon SageMaker 构成。
Lambda 首先从搜索引擎(OpenSearch 或 Amazon Kendra)获取搜索结果。随后Lambda 输入提前预置好的提示词。
这个过程使用到大语言模型 (LLM) 赋能的检索增强生成 (RAG) 技术。大语言模型托管在 SageMaker 端点上,API Gateway 用于向用户返回 LLM 建议的答案。
API Gateway 将反馈传递给搜索优化组件,该组件包含 Lambda、Amazon DynamoDB 和 Amazon EventBridge。Lambda 函数将结果反馈写入 DynamoDB,以帮助调整下一步中的模型。
EventBridge 调用存储在 DynamoDB 中的反馈数据训练 Extreme Gradient Boosting (XGBoost) 模型。训练后的模型将被部署到搜索引擎中。
Lambda 函数从 Amazon Simple Storage Service (Amazon S3) 读取原始文件。它将数据分块、embedding 并注入到搜索引擎中。embedding 模型托管在 SageMaker 端点上。这一步用来为搜索引擎构建知识库。