Skip to content

模型配置

本页描述了如何配置代理使用的聊天模型。

工具调用支持

为了启用工具调用代理,底层的大语言模型(LLM)必须支持工具调用

兼容的模型可以在LangChain 集成目录中找到。

通过名称指定模型

您可以使用模型名称字符串来配置代理:

API Reference: create_react_agent

from langgraph.prebuilt import create_react_agent

agent = create_react_agent(
    # 下一行是重点
    model="anthropic:claude-3-7-sonnet-latest",
    # 其他参数
)

使用 init_chat_model

init_chat_model 工具通过可配置参数简化了模型初始化:

API Reference: init_chat_model

from langchain.chat_models import init_chat_model

model = init_chat_model(
    "anthropic:claude-3-7-sonnet-latest",
    temperature=0,
    max_tokens=2048
)

有关高级选项,请参阅API 参考

使用特定提供商的LLM

如果某个模型提供商无法通过init_chat_model访问,您可以直接实例化该提供商的模型类。模型必须实现BaseChatModel接口,并支持工具调用:

API Reference: create_react_agent

from langchain_anthropic import ChatAnthropic
from langgraph.prebuilt import create_react_agent

model = ChatAnthropic(
    model="claude-3-7-sonnet-latest",
    temperature=0,
    max_tokens=2048
)

agent = create_react_agent(
    model=model,
    # 其他参数
)

示例说明

上面的例子使用了ChatAnthropic,它已经可以通过init_chat_model支持。这个模式展示了如何手动实例化一个无法通过init_chat_model获取的模型。

额外资源

Comments