Skip to main content
Open on GitHub

Helicone

此页面介绍如何在 LangChain 中使用 Helicone 生态系统。

什么是 Helicone?

Helicone 是一个 开源 可观测性平台,它代理您的 OpenAI 流量,并为您提供关于支出、延迟和使用情况的关键洞察。

Helicone 仪表板的屏幕截图,显示了每日平均请求数、响应时间、每次响应的 token 数、总成本��以及请求随时间变化的图表。

快速入门

在您的 LangChain 环境中,只需添加以下参数。

export OPENAI_API_BASE="https://oai.hconeai.com/v1"

现在请访问 helicone.ai 创建您的账户,并在我们的仪表板中添加您的 OpenAI API 密钥,以查看您的日志。

在 Helicone 仪表板中输入和管理 OpenAI API 密钥的界面。

如何启用 Helicone 缓存

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={"Helicone-Cache-Enabled": "true"})
text = "What is a helicone?"
print(llm.invoke(text))
API Reference:OpenAI

Helicone 缓存文档

如何使用 Helicone 自定义属性

from langchain_openai import OpenAI
import openai
openai.api_base = "https://oai.hconeai.com/v1"

llm = OpenAI(temperature=0.9, headers={
"Helicone-Property-Session": "24",
"Helicone-Property-Conversation": "support_issue_2",
"Helicone-Property-App": "mobile",
})
text = "What is a helicone?"
print(llm.invoke(text))
API Reference:OpenAI

Helicone 属性文档