Skip to main content
Open In ColabOpen on GitHub

Runpod

RunPod 提供 GPU 云基础设施,包括针对部署和扩展 AI 模型而优化的 Serverless 端点。

本指南涵盖了如何使用 langchain-runpod 集成包将 LangChain 应用程序连接到托管在 RunPod Serverless 上的模型。

该集成提供了标准语言模型(LLMs)和聊天模型的接口。

安装

安装专属的合作伙伴包:

%pip install -qU langchain-runpod

设置

1. 在 RunPod 上部署一个端点

  • 导航到你的 RunPod Serverless Console
  • 创建一个“New Endpoint”,选择一个适合你的模型和预期输入/输出格式的 GPU 和模板(例如 vLLM、TGI、text-generation-webui)(请参阅组件指南或包的 README)。
  • 配置设置并部署。
  • 关键是,部署后复制 Endpoint ID

2. 设置 API 凭据

集成需要你的 RunPod API 密钥和 Endpoint ID。将它们设置为环境变量以安全访问:

import getpass
import os

os.environ["RUNPOD_API_KEY"] = getpass.getpass("Enter your RunPod API Key: ")
os.environ["RUNPOD_ENDPOINT_ID"] = input("Enter your RunPod Endpoint ID: ")

(可选) 如果为 LLM 模型和 Chat 模型使用不同的端点,则可能需要设置 RUNPOD_CHAT_ENDPOINT_ID 或在初始化期间直接传递 ID。

组件

本包提供两个主要组件:

1. LLM

用于与标准文本补全模型进行交互。

请参阅 RunPod LLM 集成指南 以了解详细用法。

from langchain_runpod import RunPod

# Example initialization (uses environment variables)
llm = RunPod(model_kwargs={"max_new_tokens": 100}) # Add generation params here

# Example Invocation
try:
response = llm.invoke("Write a short poem about the cloud.")
print(response)
except Exception as e:
print(
f"Error invoking LLM: {e}. Ensure endpoint ID and API key are correct and endpoint is active."
)

2. Chat Model

用于与对话模型进行交互。

请参阅 RunPod Chat Model 集成指南 以获取详细用法和功能支持。

from langchain_core.messages import HumanMessage
from langchain_runpod import ChatRunPod

# Example initialization (uses environment variables)
chat = ChatRunPod(model_kwargs={"temperature": 0.8}) # Add generation params here

# Example Invocation
try:
response = chat.invoke(
[HumanMessage(content="Explain RunPod Serverless in one sentence.")]
)
print(response.content)
except Exception as e:
print(
f"Error invoking Chat Model: {e}. Ensure endpoint ID and API key are correct and endpoint is active."
)
API Reference:HumanMessage