Prediction Guard
本页面涵盖了如何在 LangChain 中使用 Prediction Guard 生态系统。 内容分为两部分:安装和设置,然后是特定 Prediction Guard 封装器的参考。
此集成维护在 langchain-predictionguard 包中。
安装和设置
- 安装 PredictionGuard Langchain 通配包:
pip install langchain-predictionguard
- 获取 Prediction Guard API 密钥(如此处所述),并将其设置为环境变量(
PREDICTIONGUARD_API_KEY)
Prediction Guard Langchain 集成
| API | 描述 | 端点文档 | 导入 | 示例用法 |
|---|---|---|---|---|
| Chat | 构建聊天机器人 | Chat | from langchain_predictionguard import ChatPredictionGuard | ChatPredictionGuard.ipynb |
| Completions | 生成文本 | Completions | from langchain_predictionguard import PredictionGuard | PredictionGuard.ipynb |
| Text Embedding | 将字符串嵌入到向量中 | Embeddings | from langchain_predictionguard import PredictionGuardEmbeddings | PredictionGuardEmbeddings.ipynb |
开始使用
Chat 模型
Prediction Guard Chat
请参阅用法示例
from langchain_predictionguard import ChatPredictionGuard
用法
# 如果未传递 predictionguard_api_key,默认行为是使用 `PREDICTIONGUARD_API_KEY` 环境变量。
chat = ChatPredictionGuard(model="Hermes-3-Llama-3.1-8B")
chat.invoke("Tell me a joke")
Embedding 模型
Prediction Guard Embeddings
请参阅用法示例
from langchain_predictionguard import PredictionGuardEmbeddings
用法
# 如果未传递 predictionguard_api_key,默认行为是使用 `PREDictionaryGUARD_API_KEY` 环境变量。
embeddings = PredictionGuardEmbeddings(model="bridgetower-large-itm-mlm-itc")
text = "This is an embedding example."
output = embeddings.embed_query(text)
LLMs
Prediction Guard LLM
请参阅用法示例
from langchain_predictionguard import PredictionGuard
用法
# 如果未传递 predictionguard_api_key,默认行为是使用 `PREDICTIONGUARD_API_KEY` 环境变量。
llm = PredictionGuard(model="Hermes-2-Pro-Llama-3-8B")
llm.invoke("Tell me a joke about bears")