L angChain 加载大模型

154 阅读1分钟

第一种方式:(主要看ChatOpenAI的参数)

import os

from langchain_openai import ChatOpenAI

from dotenv import load_dotenv


load_dotenv("./assets/openai.env")

**llm=ChatOpenAI(
    openai_api_base=os.getenv("OPENAI_API_BASE"),
    openai_api_key=os.getenv("DEEPSEEK_API_KEY"),
    model_name=os.getenv("MODEL_NAME"),
)**
response=llm.invoke("你好")
print(response.content)

第二种方式:(主要看ChatOpenAI的参数)

import os

from langchain_openai import ChatOpenAI

from dotenv import load_dotenv


load_dotenv("./assets/openai.env")

**llm=ChatOpenAI(
    model = os.getenv("MODEL_NAME")
)**


response=llm.invoke("你好")

print(response.content)
// assets/openai.env
MODEL_NAME="deepseek-v3-****"  # 模型名称 火山引擎
OPENAI_API_KEY="25502805-40ae-43ce-a56e-******"  # API 密钥(敏感信息)火山引擎
OPENAI_API_BASE="https://ark.cn-beijing.volces.com/api/v3"