简介
LangChain 是一个用于开发由大型语言模型 (LLM) 支持的应用程序的框架。
LangChain 简化了 LLM 应用程序生命周期的每个阶段:
- 开发 (Development):使用 LangChain 的开源 组件 和 第三方集成 构建您的应用程序。使用 LangGraph 构建具有一流流式处理和人工介入支持的有状态代理。
- 生产化 (Productionization):使用 LangSmith 来检查、监控和评估您的应用程序,从而您可以自信地持续优化和部署。
- 部署 (Deployment):使用 LangGraph Platform 将您的 LangGraph 应用程序转变为生产就绪的 API 和助手。
LangChain 为大型语言模型及相关技术(如嵌入模型和向量存储)实施了标准接口,并与数百个提供商进行了集成。有关更多信息,请参阅 集成 页 面。
pip install -qU "langchain[google-genai]"
import getpass
import os
if not os.environ.get("GOOGLE_API_KEY"):
os.environ["GOOGLE_API_KEY"] = getpass.getpass("Enter API key for Google Gemini: ")
from langchain.chat_models import init_chat_model
model = init_chat_model("gemini-2.0-flash", model_provider="google_genai")
model.invoke("Hello, world!")
本文档侧重于 Python LangChain 库。访问此处 获取 JavaScript LangChain 库的文档。
架构
LangChain 框架包含多个开源库。请在 架构 页面了解更多信息。
langchain-core: 聊天模型和其他组件的基础抽象。- 集成包(例如
langchain-openai、langchain-anthropic等):重要的集成已拆分为由 LangChain 团队和集成开发人员共同维护的轻量级包。 langchain: 构成应用程序认知架构的链 (chains)、代理 (agents) 和检索策略 (retrieval strategies)。langchain-community: 由社区维护的第三方集成。langgraph: 用于将 LangChain 组件组合成具有持久性、流式处理和其他关键功能的生产就绪应用程序的编排框架。请参阅 LangGraph 文档。
指南
教程
如果您想构建特定的东西,或者更喜欢动手学习,请查看我们的 教程部分。这是开始的最佳地点。
以下是入门的推荐教程:
在此处探索 LangChain 教程的完整列表 [/docs/tutorials],并在此处查看其他 LangGraph 教程。要了解更多关于 LangGraph 的信息,请观看我们的第一个 LangChain Academy 课程“LangGraph 入门”,该课程可在此处观看。
操作指南
在此处您可以找到“如何做……?”类型问题的简短答案。这些操作指南不会深入探讨主题——您可以在教程和API 参考中找到相关内容。但是,这些指南将帮助您使用聊天模型、向量存储和其他常见的 LangChain 组件快速完成常见任务。
在此处查看 LangGraph 特定的操作指南。
概念指南
介绍您需要了解的所有 LangChain 的关键部分!在此处 您可以找到所有 LangChain 概念的高层解释。
要深入了解 LangGraph 的概念,请参阅此页面。
集成
LangChain 是一个丰富的生态系统工具的一部分,这些工具与我们的框架集成并构建在其之上。如果您希望快速上手使用特定提供商的聊天模型、向量存储或其他 LangChain 组件,请查看我们不断增长的集成列表。
API 参考
前往参考部分,获取 LangChain Python 包中所有类和方法的完整文档。
生态系统
🦜🛠️ LangSmith
跟踪和评估您的语言模型应用程序和智能代理,以帮助您从原型迈向生产。
🦜🕸️ LangGraph
使用 LLM 构建有状态的、多角色的应用程序。可与 LangChain 顺畅集成,也可独立使用。LangGraph 支持生产级代理,被 Linkedin、Uber、Klarna、GitLab 等公司信赖。