Skip to main content
Open on GitHub

Prediction Guard

本页面涵盖了如何在 LangChain 中使用 Prediction Guard 生态系统。 内容分为两部分:安装和设置,然后是特定 Prediction Guard 封装器的参考。

此集成维护在 langchain-predictionguard 包中。

安装和设置

  • 安装 PredictionGuard Langchain 通配包:
pip install langchain-predictionguard
  • 获取 Prediction Guard API 密钥(如此处所述),并将其设置为环境变量(PREDICTIONGUARD_API_KEY

Prediction Guard Langchain 集成

API描述端点文档导入示例用法
Chat构建聊天机器人Chatfrom langchain_predictionguard import ChatPredictionGuardChatPredictionGuard.ipynb
Completions生成文本Completionsfrom langchain_predictionguard import PredictionGuardPredictionGuard.ipynb
Text Embedding将字符串嵌入到向量中Embeddingsfrom langchain_predictionguard import PredictionGuardEmbeddingsPredictionGuardEmbeddings.ipynb

开始使用

Chat 模型

Prediction Guard Chat

请参阅用法示例

from langchain_predictionguard import ChatPredictionGuard

用法

# 如果未传递 predictionguard_api_key,默认行为是使用 `PREDICTIONGUARD_API_KEY` 环境变量。
chat = ChatPredictionGuard(model="Hermes-3-Llama-3.1-8B")

chat.invoke("Tell me a joke")

Embedding 模型

Prediction Guard Embeddings

请参阅用法示例

from langchain_predictionguard import PredictionGuardEmbeddings

用法

# 如果未传递 predictionguard_api_key,默认行为是使用 `PREDictionaryGUARD_API_KEY` 环境变量。
embeddings = PredictionGuardEmbeddings(model="bridgetower-large-itm-mlm-itc")

text = "This is an embedding example."
output = embeddings.embed_query(text)

LLMs

Prediction Guard LLM

请参阅用法示例

from langchain_predictionguard import PredictionGuard

用法

# 如果未传递 predictionguard_api_key,默认行为是使用 `PREDICTIONGUARD_API_KEY` 环境变量。
llm = PredictionGuard(model="Hermes-2-Pro-Llama-3-8B")

llm.invoke("Tell me a joke about bears")