Cleanlab
Cleanlab 为 AI 和 RAG 解决方案中输入的每个数据点和输出的每个预测增加了自动化和信任度。
使用 Cleanlab 组件将 Cleanlab 评估与 Langflow 集成,通过 Cleanlab 的评估和修复套件解锁值得信赖的智能体、RAG 和 LLM 管道。
您可以使用这些组件用 0
到 1
之间的分数量化任何 LLM 响应的可信度,并解释为什么响应可能是好的或坏的。对于带有上下文的 RAG/智能体管道,您可以通过定量分数评估上下文充分性、事实依据、有用性和查询清晰度。此外,您可以通过警告或后备答案修复低信任度的响应。
需要使用 Cleanlab API 密钥进行身份验证。
Cleanlab 评估器
Cleanlab 评估器组件使用 Cleanlab 评估和解释提示和响应对的可信度。有关分数工作原理的更多信息,请参阅 Cleanlab 文档。
Cleanlab 评估器参数
某些 Cleanlab 评估器组件输入参数在可视化编辑器中默认隐藏。 您可以通过组件标题菜单中的 控制切换参数。
名称 | 类型 | 描述 |
---|---|---|
system_prompt | Message | 输入参数。预置到提示前的系统消息。可选。 |
prompt | Message | 输入参数。用户面向的 LLM 输入。 |
response | Message | 输入参数。要评估 的模型响应。 |
cleanlab_api_key | Secret | 输入参数。您的 Cleanlab API 密钥。 |
cleanlab_evaluation_model | Dropdown | 输入参数。Cleanlab 使用的评估模型,如 GPT-4 或 Claude。这不需要与生成响应的模型相同。 |
quality_preset | Dropdown | 输入参数。评估速度和准确性之间的权衡。 |
Cleanlab 评估器输出
Cleanlab 评估器组件有三个可能的输出。
名称 | 类型 | 描述 |
---|---|---|
score | number, float | 显示 0 到 1 之间的信任分数。 |
explanation | Message | 提供信任分数的解释。 |
response | Message | 返回原始响应,便于链接到 Cleanlab 修复器组件。 |
Cleanlab 修复器
Cleanlab 修复器组件使用来自 Cleanlab 评估器组件 的信任分数来决定是否显示、警告或替换 LLM 响应。
该组件具有分数阈值、警告文本和后备消息的参数,您可以根据需要进行自定义。
输出是 修复响应 (remediated_response
),这是一个包含应用修复逻辑后向用户显示的最终消息的 Message
。