Integrate NVIDIA NIMs with Langflow
在安装了 Windows Subsystem for Linux 2 (WSL2) 的 RTX Windows 系统上连接 Langflow 与 NVIDIA NIM。
NVIDIA NIM (NVIDIA Inference Microservices) 提供容器来自托管 GPU 加速推理微服务。
在此示例中,您将 Langflow 中的模型组件连接到在带有 WSL2 的 RTX Windows 系统上部署的 mistral-nemo-12b-instruct
NIM。
有关 NVIDIA NIM 的 更多信息,请参阅 NVIDIA 文档。
先决条件
- 已安装 NVIDIA NIM WSL2
- 根据模型指令部署的 NIM 容器。不同模型的先决条件不同。
例如,要部署
mistral-nemo-12b-instruct
NIM,请按照您模型的部署概览中 Windows on RTX AI PCs (Beta) 的指令进行操作 - Windows 11 build 23H2 或更高版本
- 至少 12 GB RAM
在流中使用 NVIDIA NIM
要将您部署的 NIM 与 Langflow 连接,请将 NVIDIA 模型组件添加到流中。