PromptLayer OpenAI
PromptLayer 是首个允许您跟踪、管理和共享 GPT prompt 工程的平台。PromptLayer 在您的代码和 OpenAI 的 python 库之间充当中介。
PromptLayer 记录您的所有 OpenAI API 请求,允许您在 PromptLayer 控制面板中搜索和浏览请求历史记录。
此示例展示了如何连接到 PromptLayer 以开始记录您的 OpenAI 请求。
另一个示例链接在此处:here。
安装 PromptLayer
要将 PromptLayer 与 OpenAI 结合使用,需要安装 promptlayer 包。请使用 pip 安装 promptlayer。
%pip install --upgrade --quiet promptlayer
Imports
import os
import promptlayer
from langchain_community.llms import PromptLayerOpenAI
API Reference:PromptLayerOpenAI
设置环境变量 API 密钥
你可以在 www.promptlayer.com 上创建 PromptLayer API 密钥,只需点击导航栏中的设置图标即可。
将其设置为名为 PROMPTLAYER_API_KEY 的环境变量。
你还需要一个名为 OPENAI_API_KEY 的 OpenAI 密钥。
from getpass import getpass
PROMPTLAYER_API_KEY = getpass()
········
os.environ["PROMPTLAYER_API_KEY"] = PROMPTLAYER_API_KEY
from getpass import getpass
OPENAI_API_KEY = getpass()
········
os.environ["OPENAI_API_KEY"] = OPENAI_API_KEY
正常使用 PromptLayerOpenAI LLM
您可以选择性地传递 pl_tags 来使用 PromptLayer 的标记功能跟踪您的请求。
llm = PromptLayerOpenAI(pl_tags=["langchain"])
llm("I am a cat and I want")
您现在的请求应该会显示在您的 PromptLayer dashboard 上。
使用 PromptLayer Track
如果您想使用任何 PromptLayer 跟踪功能,您需要在实例化 PromptLayer LLM 时传递 return_pl_id 参数以获取请求 id。
llm = PromptLayerOpenAI(return_pl_id=True)
llm_results = llm.generate(["Tell me a joke"])
for res in llm_results.generations:
pl_request_id = res[0].generation_info["pl_request_id"]
promptlayer.track.score(request_id=pl_request_id, score=100)
通过使用此功能,您可以在 PromptLayer 仪表板中跟踪模型的性能。如果您使用的是提示模板,也可以将模板附加到请求中。 总而言之,这为您提供了在 PromptLayer 仪表板中跟踪不同模板和模型性能的机会。
Related
- LLM conceptual guide
- LLM how-to guides