如何为部署配置 LangGraph.js 应用程序¶
一个 LangGraph.js 应用程序必须使用 LangGraph API 配置文件 进行配置,才能部署到 LangGraph 云(或自行托管)。本指南讨论了使用 package.json
指定项目依赖项来设置 LangGraph.js 应用程序的基本步骤。
此演练基于 此仓库,你可以通过它学习如何为部署设置你的 LangGraph 应用程序。
最终的仓库结构将类似于以下形式:
my-app/
├── src # 所有项目代码都位于此处
│ ├── utils # 可选的图形工具
│ │ ├── tools.ts # 图形工具
│ │ ├── nodes.ts # 图形节点函数
│ │ └── state.ts # 图形状态定义
│ └── agent.ts # 构建图形的代码
├── package.json # 包依赖项
├── .env # 环境变量
└── langgraph.json # LangGraph 配置文件
在每一步之后,都会提供一个示例文件目录,以展示代码可以如何组织。
指定依赖项¶
依赖项可以在 package.json
文件中指定。如果这些文件尚未创建,则稍后可以在 LangGraph API 配置文件 中指定。
示例 package.json
文件:
{
"name": "langgraphjs-studio-starter",
"packageManager": "yarn@1.22.22",
"dependencies": {
"@langchain/community": "^0.2.31",
"@langchain/core": "^0.2.31",
"@langchain/langgraph": "^0.2.0",
"@langchain/openai": "^0.2.8"
}
}
在部署应用程序时,将使用您选择的包管理器安装依赖项,前提是它们符合以下列出的兼容版本范围:
"@langchain/core": "^0.3.42",
"@langchain/langgraph": "^0.2.57",
"@langchain/langgraph-checkpoint": "~0.0.16",
示例文件目录:
指定环境变量¶
环境变量可选地在文件中指定(例如 .env
)。有关如何配置部署时的附加变量,请参阅环境变量参考。
示例 .env
文件:
示例文件目录:
定义图¶
实现你的图!图可以在一个文件中定义,也可以在多个文件中定义。请注意每个编译后的图的变量名称,以便将其包含在LangGraph应用程序中。这些变量名称将在创建LangGraph API配置文件时使用。
这是一个示例 agent.ts
文件:
import type { AIMessage } from "@langchain/core/messages";
import { TavilySearchResults } from "@langchain/community/tools/tavily_search";
import { ChatOpenAI } from "@langchain/openai";
import { MessagesAnnotation, StateGraph } from "@langchain/langgraph";
import { ToolNode } from "@langchain/langgraph/prebuilt";
const tools = [new TavilySearchResults({ maxResults: 3 })];
// 定义调用模型的函数
async function callModel(state: typeof MessagesAnnotation.State) {
/**
* 调用驱动我们代理的LLM。
* 您可以自定义提示、模型和其他逻辑!
*/
const model = new ChatOpenAI({
model: "gpt-4o",
}).bindTools(tools);
const response = await model.invoke([
{
role: "system",
content: `您是一个乐于助人的助手。当前日期是${new Date().getTime()}。`,
},
...state.messages,
]);
// MessagesAnnotation 支持返回单个消息或消息数组
return { messages: response };
}
// 定义决定是否继续执行的函数
function routeModelOutput(state: typeof MessagesAnnotation.State) {
const messages = state.messages;
const lastMessage: AIMessage = messages[messages.length - 1];
// 如果LLM正在调用工具,则路由到工具。
if ((lastMessage?.tool_calls?.length ?? 0) > 0) {
return "tools";
}
// 否则结束图。
return "__end__";
}
// 定义一个新的图。
// 有关更多自定义图状态的信息,请参阅https://langchain-ai.github.io/langgraphjs/how-tos/define-state/#getting-started
const workflow = new StateGraph(MessagesAnnotation)
// 定义我们在其中循环的两个节点
.addNode("callModel", callModel)
.addNode("tools", new ToolNode(tools))
// 设置入口点为`callModel`
// 这意味着这个节点是第一个被调用的节点
.addEdge("__start__", "callModel")
.addConditionalEdges(
// 首先,我们定义边的源节点。我们使用`callModel`。
// 这意味着这些边是在调用`callModel`节点后被调用的。
"callModel",
// 接下来,我们传递一个函数来确定汇节点(s),它们将在源节点被调用后被调用。
routeModelOutput,
// 条件边可以路由到的目的地列表。
// 对于条件边正确渲染图在Studio中是必需的
["tools", "__end__"]
)
// 这意味着在调用`tools`之后,下一个被调用的节点是`callModel`。
.addEdge("tools", "callModel");
// 最后,我们编译它!
// 这将编译成一个你可以调用和部署的图。
export const graph = workflow.compile();
将CompiledGraph
分配给变量
LangGraph Cloud构建过程要求CompiledGraph
对象在JavaScript模块的顶级分配给一个变量(或者您可以提供一个创建图的函数)。
示例文件目录:
my-app/
├── src # 所有项目代码都位于此处
│ ├── utils # 图的可选实用程序
│ │ ├── tools.ts # 图的工具
│ │ ├── nodes.ts # 图的节点函数
│ │ └── state.ts # 图的状态定义
│ └── agent.ts # 构建图的代码
├── package.json # 包依赖项
├── .env # 环境变量
└── langgraph.json # LangGraph的配置文件
创建LangGraph API配置¶
创建一个名为langgraph.json
的LangGraph API配置文件。有关配置文件中JSON对象每个键的详细说明,请参阅LangGraph CLI参考。
示例langgraph.json
文件:
{
"node_version": "20",
"dockerfile_lines": [],
"dependencies": ["."],
"graphs": {
"agent": "./src/agent.ts:graph"
},
"env": ".env"
}
请注意,顶级键graphs
下的每个子键值末尾出现了CompiledGraph
变量名(即::<variable_name>
)。
配置位置
LangGraph API配置文件必须放置在与包含编译图的TypeScript文件以及相关依赖项处于同一级别或更高级别的目录中。
下一步¶
在设置好项目并将它放置到github仓库后,是时候部署你的应用了。