ChatNVIDIA
这将帮助您开始使用 NVIDIA 聊天模型。如需 ChatNVIDIA 所有功能和配置的详细文档,请前往 API 参考文档。
概述
langchain-nvidia-ai-endpoints 包包含 LangChain 集成,用于构建基于 NVIDIA NIM 推理微服务上模型的应用程序。NIM 支持来自社区以及 NVIDIA 的聊天、嵌入和重排模型等领域内的模型。这些模型由 NVIDIA 优化,可在 NVIDIA 加速基础设施上提供最佳性能,并作为 NIM 部署。NIM 是易于使用的预构建容器,只需在 NVIDIA 加速基础设施上运行单个命令即可在任何地方进行部署。
NVIDIA 托管的 NIM 部署可在 NVIDIA API 目录 上进行测试。测试后,可以使用 NVIDIA AI Enterprise 许可证从 NVIDIA 的 API 目录导出 NIM,并在本地或云端运行,从而使企业能够拥有并完全控制其 IP 和 AI 应用程序。
NIM 按模型打包为容器镜像,并通过 NVIDIA NGC Catalog 分发为 NGC 容器镜像。从本质上讲,NIM 为运行 AI 模型推理提供了简单、一致且熟悉的 API。
此示例将介绍如何通过 ChatNVIDIA 类使用 LangChain 与 NVIDIA 进行交互。
有关通过此 API 访问聊天模型的更多信息,请查看 ChatNVIDIA 文档。
集成详情
| 类 | 包 | 本地 | 可序列化 | JS 支持 | 包下载量 | 最新包版本 |
|---|---|---|---|---|---|---|
| ChatNVIDIA | langchain_nvidia_ai_endpoints | ✅ | beta | ❌ |
模型功能
| 工具调用 | 结构化输出 | JSON 模式 | 图像输入 | 音频输入 | 视频输入 | Token 级别流式传输 | 原生异步 | Token 使用量跟踪 | Logprobs |
|---|---|---|---|---|---|---|---|---|---|
| ✅ | ✅ | ✅ |