引言
大模型作为近两年科技圈最为热门的话题之一,给大伙带来了巨大的想象空间,纷纷想在这个新兴风口上一展身手。网络上更是铺天盖地的充斥着各种AI焦虑,但越是在这种时候,我们技术人越要沉下心来打磨自己。笔者作为一名开发出身的程序员,在大模型底层的原理上确实不甚了解,于是决定从大模型的应用开始,自顶向下摸索AI领域。那作为AI开发应用的明星产品LangChain自然是我学习的第一目标。
网上有关于LangChain的教程也不少,但架不住LangChain版本更新迭代太快,有些教程已经有些过时,而且大部分教程是基于ChatGPT的接口来做,对于国内的开发者不是很友好。综上,笔者决定自己跟着官网的教程,逐步摸索,并且在大部分场景会使用国内的模型来实现,降低大家的学习门槛。
这个系列既是和各位分享,也是自己的一个学习记录,有些理解不到位的地方望各位指正。那话不多说,开始正题!
LangChain基本介绍
LangChain定义了一套大模型应用的开发方式,提供了从开发、部署、监控等工具,让大模型能够更丝滑的集成到应用中。截止撰稿时间,LangChain生态下主要有LangChain、LangGraph、LangSmith三位成员:
目前LangChain已经到了v0.3版本, 很多功能发生了变化,例如对记忆的管理现在会推荐使用LangGraph处理,后续文章会更详细的展开。
构建Hello AI
万里长征第一步,先安装依赖:
pip install langchain
*(可选)*我们在学习的过程中,可以接入LangSmith,这样我们可以追踪到大模型更详细的调用过程。LangSmith的API在官网申请后通过环境变量写入
import getpass
import os
os.environ["LANGSMITH_TRACING"] = "true"
os.environ["LANGSMITH_API_KEY"] = getpass.getpass()
接下来就要接入我们的大模型了,这里我接入的是DeepSeek官网的V3模型,大家也可以尝试其他平台,目前各家优惠都很多。接入这些模型最关键的就是要使用API-KEY:
import getpass
import os
# 设置 DeepSeek 的 API 密钥
if not os.environ.get("LLM_API_KEY"):
os.environ["LLM_API_KEY"] = getpass.getpass("Enter API key for OpenAI: ")
from langchain_openai import ChatOpenAI
# 初始化 DeepSeek 模型
model = ChatOpenAI(
model='deepseek-chat',
openai_api_key=os.environ.get("LLM_API_KEY"),
openai_api_base='https://api.deepseek.com'
)
# 调用 DeepSeek 模型进行文本生成
response = model.invoke("Hello!")
# 输出结果
print(response.content)
执行上述代码,我们就能获得DeepSeek的结果了:
Hello! How can I assist you today? 😊
前面如果接入了LangSmith,我们可以在LangSmith上看到我们本次请求
小结
以上就是本节的基本内容了,后续会提供更多关于LangChain的内容,希望大家能给个赞,点个关注,那将是对我莫大的支持!