亚马逊AWS官方博客
基于大语言模型知识问答应用落地实践 – 使用 TruLens 做自动化 RAG 项目评估测试
一、简介
我们《基于大语言模型知识问答应用落地实践》系列博客前 4 篇已经介绍了知识库构建和召回调优方面的实践经验,随着 RAG 项目的逐渐丰富和成熟,越来越多的工作会深入到各种细节的打磨,例如 Prompt 模板调优,更换更新的模型,各类阈值或者参数的调整等。然而 RAG 项目普遍缺乏比较客观的、系统化的测试工具来衡量性能和质量指标。
TruLens 的出现给我们提供了一种简单的、系统化的方法来评估 LLM 应用。TruLens 使用 Query,Response,Context 三个核心要素,可以做以下几方面的自动化评估:
- Response 是否跟 query 相关
- Context(召回的知识)是否跟 query 相关
- Response 是否严格基于 Context 作答
- 如有提供标准答案,还可以跟标准答案做对比
本篇将介绍如何用 TruLens 框架,做自动化 RAG 项目评估测试,以及跟踪每次迭代后指标的改善情况。
二、原理介绍
TruLens 框架通过引入一种称为“反馈函数(Feedback Function)”的功能,帮助我们以编程方式评估 LLM 应用的输入、输出和中间结果的质量。这些反馈函数就像是一个个的打分器,分别告诉我们 LLM 应用在哪些方面做得好,哪些方面需要改进。比如,它们可以帮助我们检查回答问题的准确性、是否存在有害的语言、用户的情感反馈等等。我们还可以根据自己的需求自定义这些反馈函数。
我们以 Groundedness 评估为例:
- 我们把测试器 TrulensApp 通过 API 连接到 LLM 应用
- TrulensApp 开始追踪并记录 query,response,context
- Groundedness Feedback 函数(context,response)加载到该评估器的提示词模板中,拼成一个 prompt 给 AWS Bedrock Claude v2 模型进行打分,并把打分记录下来,并可以在 dashboard 中查看
三、主要评估方式介绍
我们以 RAG 知识问答项目为例, 主要使用以下四种官方预置的评估方式:
- groundedness – 主要用于检测 LLM 幻觉,使用 COT(思维链)方式,找出 response 中的句子在 context 中的存在证据,评估回复是否是基于知识生成。
打分标准: Supporting Evidence: <Choose the exact unchanged sentences in the source that can answer the statement, if nothing matches, say NOTHING FOUND> Score: <Output a number between 0-10 where 0 is no information overlap and 10 is all information is overlapping> |
例如:
我们对 LLM 应用提问:AWS MSK 可以用于什么应用?
得到的 Response 是:
Trulens 会把本次 LLM 召回的 context 和 response 填充到 groundedness 评估的提示词模板中。如下所示,提示词要求评估模型把 response 中的每个句子跟 context 中的内容进行对比,找出引用依据,并对引用是否一致进行打分。
LLM_GROUNDEDNESS_FULL_SYSTEM = """You are a INFORMATION OVERLAP classifier providing the overlap of information between a SOURCE and STATEMENT.
For every sentence in the statement, please answer with this template:
TEMPLATE:
Statement Sentence: <Sentence>,
Supporting Evidence: <Choose the exact unchanged sentences in the source that can answer the statement, if nothing matches, say NOTHING FOUND>
Score: <Output a number between 0-10 where 0 is no information overlap and 10 is all information is overlapping>
SOURCE:{context}
STATEMENT:{response}
"""
其中 SOURCE:{context} 填充我们 RAG 召回的知识内容 context,STATEMENT:{Response} 填充答复。
Prompt 中会要求评估模型按照以下格式输出结论:
GROUNDEDNESS_REASON_TEMPLATE = """
Statement Sentence: {statement_sentence}
Supporting Evidence: {supporting_evidence}
Score: {score}
实际发给评估模型的完整 Prompt 如下图所示:
得到模型打分的回复如下:
一共有 3 个句子,前 2 个找到对应的原句,而最后一个没有找到。
所以平均分是 20/3 = 6.67 分,最后除以 10 归一化到 0-1,则最终本条得分是 0.67分。
- answer_relevance – 用于 response 相关性评估,使用 COT(思维链)方式,找出相关性证据并打分,评估 response 是否跟问题相关。具体流程跟上面类似,因此我们不再赘述。
打分标准:
|
- context_relevance -主要用于知识召回相关性评估,使用 COT(思维链)方式,找出相关性证据并打分,评估召回知识是否跟问题相关。
打分标准: Respond only as a number from 0 to 10 where 0 is the least relevant and 10 is the most relevant. A few additional scoring guidelines:
|
- Groundtruth – 用于 response 准确性评估,使用已有的测试集标准答案进行对比评估,并打分。
打分标准: Answer only with an integer from 1 to 10 based on how close the responses are to the right answer. |
四、使用方法
使用 TruLens 非常简单, 我们只需要按照它的一些步骤,构建一个测试器和反馈函数来连接我们的 LLM 应用,然后,我们用一些测试问题对 LLM 应用进行调用,TruLens 会自动记录下 LLM 应用的输入和输出,反馈函数会对输入和输出进行评估打分,并生成一个仪表板。以 RAG 知识问答项目为例,我们将使用上面提到的四种评估方式,对系统进行整体评估。
环境准备
1. 如果还没有部署我们的 RAG 知识问答项目,请参考 https://github.com/aws-samples/private-llm-qa-bot 说明文档,在 AWS 海外 region(中国区无法使用 Bedrock)上部署一套 RAG 项目。
2. 在本地机器环境中运行测试脚本,需要在本地环境中安装 aws cli 命令行工具,配置并配置 AWS IAM 用户的 aws credentials,且这个用户需要配置 lambda invoke 和 bedrock 权限。
3. 安装 jupter notebook,下载 trulength.ipynb 到本地机器运行。
##使用 aws cli 配置 aws credentials
aws configure
##安装 notebook
pip3 install notebook
##启动 jupyter notebook
jupyter notebook --ip=0.0.0.0
4. jupyter notebook 启动后,点击控制台输出的链接,登录 notebook server,打开 private-llm-qa-bot/notebooks/model_eval/trulength.ipynb,按说明进行执行。
5. 准备好一个测试集列表 xlsx 文件,第一列是 query 列表,如果用到 Groundtruth 评估,则还需要再第 2 列放对应的标准答案。
6. 执行测试代码,根据实际部署情况在代码中修改对应的账号和测试文件路径。
7. 一个 app_id 代表一次测试结果,可以通过 get_leaderboard() 查看所有测试的汇总结果。
8. 启动仪表盘 run_dashboard(), 会产生一个 http://xxx:8501 的链接,浏览器访问,可以查看更细维度的结果。
五、实现简介
1. 首先定义一个 RAG_from_scratch 类,用于连接 RAG 应用。我们是直接连接 RAG 项目的主 Lambda 函数。
为 retrieve 和 query 函数加上装饰器@instrument,这样 trulens 框架会对这 2 个函数的输入输出进行记录存储。
class RAG_from_scratch:
@instrument
def retrieve(self, query: str) -> list:
results = self.call_remote_service(query, retrieve_only=True)
ret = [result['doc'] for result in results]
return ret
def call_remote_service(self,query:str,retrieve_only:bool = False, max_token :int =1024):
## 构建pay load
payload={
"msgid":str(uuid.uuid4()),
"chat_name":"OnlyForDEBUG",
"prompt":query,
"use_qa":True,
"multi_rounds":False,
"hide_ref":True,
"use_stream":False,
"max_tokens":max_token,
"retrieve_only":retrieve_only,
"temperature": 0.01,
"use_trace": False,
"system_role": "",
"system_role_prompt": "",
"model_name": MODEL_NAME,
"template_id": "1702434088941-4073e3",
"username": "test"
}
start = time.time()
response = lambda_client.invoke(
FunctionName = main_func,
InvocationType='RequestResponse',
Payload=json.dumps(payload)
)
print(f'time cost:{time.time()-start}')
payload_json = json.loads(response.get('Payload').read())
body = payload_json['body']
# print(body)
if retrieve_only:
extra_info = body[0]['extra_info']
return extra_info['recall_knowledge']
else:
answer = body[0]['choices'][0]['text']
return answer
@instrument
def query(self, query: str) -> str:
context_str = self.retrieve(query)
completion = self.call_remote_service(query)
return completion
2. 使用 Claude 作为评估器的基础模型。当前 trulens-eval-0.18.3 版本不支持 claude v2,因此需要对 trulens_eval.feedback.provider.bedrock 进行重载实现。
from trulens_eval.feedback.provider.bedrock import Bedrock as fBedrock
from typing import Dict, Optional, Sequence
class NewBedrock(fBedrock):
model_id :str = "anthropic.claude-v2"
def __init__(
self,
*args,
model_id,
**kwargs
):
super().__init__(
*args,
model_id=model_id,
**kwargs
)
def convert_messages(self,messages:list) ->str:
prompt = ''
for msg in messages:
if msg['role'] == 'system':
prompt += msg['content'] + '\\n'
elif msg['role'] == 'user':
prompt += msg['content'] + '\\n'
return prompt
# LLMProvider requirement
def _create_chat_completion(
self,
prompt: Optional[str] = None,
messages: Optional[Sequence[Dict]] = None,
**kwargs
) -> str:
assert self.endpoint is not None
if not prompt and messages:
prompt = self.convert_messages(messages)
print('*********** prompt to claude:***********\n',prompt)
import json
body = json.dumps({
"prompt": f"\n\nHuman: {prompt}\n\nAssistant:",
"max_tokens_to_sample": 2000,
"temperature": 0.1,
"top_p": 0.9,
})
modelId = self.model_id
response = self.endpoint.client.invoke_model(body=body, modelId=modelId)
response_body = json.loads(response.get('body').read()).get('completion')
print('*********** claude response:***********\n',response_body)
return response_body
3. 定义四个 feedback 函数,分别用于评估回复准确性,模型幻觉,回复相关性,召回相关性。
# Define a groundtruth feedback function
f_groundtruth = (
Feedback(GroundTruthAgreement(golden_set,provider=llm_provider).agreement_measure, name = "Ground Truth").on_input_output()
)
grounded = Groundedness(groundedness_provider=llm_provider)
# Define a groundedness feedback function
f_groundedness = (
Feedback(grounded.groundedness_measure_with_cot_reasons, name = "Groundedness")
.on(Select.RecordCalls.retrieve.rets.collect())
.on_output()
.aggregate(grounded.grounded_statements_aggregator)
)
# Question/answer relevance between overall question and answer.
f_qa_relevance = (
Feedback(llm_provider.relevance_with_cot_reasons, name = "Answer Relevance")
.on(Select.RecordCalls.retrieve.args.query)
.on_output()
)
# Question/statement relevance between question and each context chunk.
f_context_relevance = (
Feedback(llm_provider.qs_relevance_with_cot_reasons, name = "Context Relevance")
.on(Select.RecordCalls.retrieve.args.query)
.on(Select.RecordCalls.retrieve.rets.collect())
.aggregate(np.mean)
)
4. 使用 golden_set 测试集进行评估
#为本次测试创建一个 app 对象
app_id = f'RAG_{timestamp_str}_{MODEL_NAME}'
tru_rag = TruCustomApp(rag,
app_id = app_id,
feedbacks = [f_groundtruth,f_groundedness,f_qa_relevance,f_context_relevance])
with tru_rag as recording:
for i,item in enumerate(golden_set):
print(f"run query[{i}] [{item['query']}]")
rag.query(item['query'])
六、应用案例
例如我们要测试一下新的提示词模板的是否对效果有帮助。我们做了两次对比测试。Leaderboard 里有 2 次测试结果,分别对应的是我们 RAG 应用的提示词模板 Template v2 和 Template v1 效果对比。
从平均分以及测试问题的得分明细探查,可以我们看出 v2 的改动比 v1 表现更差。
Template v1 vs v2
我们也可以进一步点击进入明细。
七、总结与结论
随着 LLM 的兴起,越来越多的开发人员开始构建各种基于 LLM 的应用 App,如问答系统、聊天机器人、文档摘要、写作等。TruLens 给我们提供了一种简单的,系统化的方法来评估的 LLM 应用,衡量性能和质量指标,以及跟踪每次迭代后指标的改善情况。本文介绍了 Trulens 的基本原理和使用方法,并以一个实际的 RAG 项目为例,介绍了如何用 Trulens 框架和 Bedrock Claude v2 进行项目评测。
注:在实验过程中我们发现用 Claude v2 模型做评估模型,比用 Claude v2.1 模型更加稳定,从输出日志我们推测是因为 Claude v2.1 对合规及安全性有更加严格限制,会对一些评测内容拒绝评价,导致无法得到评价结果,应此我们的实验用 Claude v2 来完成。
在实际的运用中,由于 Trulens 仍然是依靠 LLM 对结果进行评估,因此可能出现某些单个问题的评估结果有较大偏差的情况,但是如果测试集问题数量足够丰富(>=30 个以上),我们仍然能从总评分上得到参考意义。
更多相关的介绍,请参考本系列博客其他文章,包括:
- <基于大语言模型知识问答应用落地实践 – 知识库构建(上)>
- <基于大语言模型知识问答应用落地实践 – 知识库构建(下)>
- <基于大语言模型知识问答应用落地实践 – 知识召回调优(上)>
- <基于大语言模型知识问答应用落地实践 – 知识召回调优(下)>
另外,本文提到的代码细节可以参考配套资料:
代码库 aws-samples/private-llm-qa-bot
*前述特定亚马逊云科技生成式人工智能相关的服务仅在亚马逊云科技海外区域可用,亚马逊云科技中国仅为帮助您了解行业前沿技术和发展海外业务选择推介该服务。