Skip to main content
Open on GitHub

Cerebras

在 Cerebras,我们开发了全球最大、最快的人工智能处理器——Wafer-Scale Engine-3 (WSE-3)。由 WSE-3 驱动的 Cerebras CS-3 系统代表了一类新的人工智能超级计算机,它以前所未有的性能和可扩展性为生成式人工智能的训练和推理设定了标准。

通过 Cerebras 作为您的推理提供商,您可以:

  • 为人工智能推理工作负载实现前所未有的速度
  • 实现高吞吐量的商业化构建
  • 通过我们无缝的集群技术轻松扩展您的人工智能工作负载

我们的 CS-3 系统可以快速轻松地进行集群,从而创建世界上最大的 AI 超级计算机,轻松部署和运行最大的模型。领先的公司、研究机构和政府已经在使用 Cerebras 的解决方案来开发专有模型并训练流行的开源模型。

想体验 Cerebras 的强大功能吗?请访问我们的 网站 获取更多资源,并通过 Cerebras Cloud 或本地部署探索访问我们技术的选项!

有关 Cerebras Cloud 的更多信息,请访问 cloud.cerebras.ai。我们的 API 参考可在 inference-docs.cerebras.ai 找到。

安装和设置

安装集成包:

pip install langchain-cerebras

API 密钥

cloud.cerebras.ai 获取 API 密钥并将其添加到您的环境变量中:

export CEREBRAS_API_KEY="your-api-key-here"

Chat Model

请参阅用法示例