【LangChain.js学习】调用大模型

33 阅读2分钟

一、调用通义千问大模型

方式1:使用 @langchain/community 专属适配器

依赖安装

pnpm add @langchain/community

调用代码

import { ChatAlibabaTongyi } from "@langchain/community/chat_models/alibaba_tongyi";
​
// 初始化通义千问专属模型实例
const model = new ChatAlibabaTongyi({
    model: "qwen-plus",
    // 替换为个人有效阿里百炼API Key
    alibabaApiKey: "[你的阿里百炼API Key]",
});
​
// 注意:需在async函数中执行await调用
async function callTongyiModel() {
    const response = await model.invoke("为什么鹦鹉会说话?");
    console.log(response.content);
}
​
callTongyiModel();

方式2:使用 @langchain/openai 兼容接口

依赖安装

pnpm add @langchain/openai

调用代码

import { ChatOpenAI } from "@langchain/openai"// 基于OpenAI兼容接口初始化通义千问模型
const model = new ChatOpenAI({
    model: "qwen-plus",
    configuration: {
        // 阿里百炼OpenAI兼容接口固定地址,不可修改
        baseURL: "https://dashscope.aliyuncs.com/compatible-mode/v1",
        // 替换为个人有效阿里百炼API Key
        apiKey: "[你的阿里百炼API Key]",
    }
});
​
// 注意:需在async函数中执行await调用
async function callQwenByOpenAI() {
    const response = await model.invoke(`1+1=?`);
    console.log("单文本调用响应:", response.content); // 输出示例:1+1=2
}
​
callQwenByOpenAI();

二、调用 Ollama 本地模型

1. 前置条件

  • 安装 Ollama:官网下载
  • 拉取目标模型:ollama pull qwen3-vl:8b
  • 启动 Ollama 服务:ollama serve(默认端口 11434)

2. 依赖安装

pnpm add @langchain/ollama

3. 核心调用代码

import { ChatOllama } from "@langchain/ollama"// 初始化Ollama本地模型
const model = new ChatOllama({
    // 需与本地拉取的模型名称一致(执行ollama list查看)
    model: "qwen3-vl:8b",
    // Ollama默认本地地址,无需修改
    baseUrl: "http://localhost:11434"
});
​
// 异步调用函数
async function callOllamaModel() {
    const response = await model.invoke(`1+1=?`);
    console.log("Ollama本地模型响应:", response.content); // 输出示例:1+1=2
}
​
callOllamaModel();

三、核心对比与选型建议

调用方式优点缺点适用场景
阿里云通义千问模型能力强、无需本地算力、支持多模态/复杂推理需联网、消耗 API 额度、有调用频率限制生产环境、复杂业务逻辑、多轮对话
Ollama 本地模型无网络依赖、隐私性高、免费使用、调试便捷占用本地CPU/GPU、模型能力相对弱、不支持部分高级功能本地开发调试、隐私敏感场景、轻量计算/问答