首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
CodeDevMaster
掘友等级
全栈开发工程师
积跬步,至千里。
获得徽章 16
动态
文章
专栏
沸点
收藏集
关注
作品
赞
348
文章 322
沸点 26
赞
348
返回
|
搜索文章
最新
热门
LangChain工具箱Toolkits之使用Gmail工具箱实现邮件查询、发送邮件、删除邮件等操作
LangChain提供了一系列的工具箱Toolkits,它们专门针对某些任务而设计,拥有方便的加载方法。这些Toolkits可以帮助我们更高效地执行特定任务。
Logback日志框架之使用MDC动态变量根据业务、接口生成相应日志文件
在Logback日志框架中,使用MDC可以为每个线程关联一些上下文信息,在日志输出时可以包含这些信息,从而区分不同线程的日志输出。
LangChain工具箱Toolkits之使用PlayWright Browser工具自动化Web操作
LangChain提供了一系列的工具箱Toolkits,它们专门针对某些任务而设计,拥有方便的加载方法。这些Toolkits 可以帮助我们更高效地执行特定任务。
LangChain之工具Tools(下)
在LangChain中,通常代理根据任务类型和需求通过大模型推理选择工具处理任务,LangChain传递任务输入给工具生成输出,输出再经大模型推理,作为其他工具输入或最终结果返回给用户。
LangChain之工具Tools(上)
在LangChain中,通常代理根据任务类型和需求通过大模型推理选择工具处理任务,LangChain传递任务输入给工具生成输出,输出再经大模型推理,作为其他工具输入或最终结果返回给用户。
使用PEFT库进行ChatGLM3-6B模型的QLORA高效微调
QLoRA是LoRA的扩展版本,在微调过程中引入了量化技术,以进一步提高参数效率。QLoRA利用LoRA的原理,并引入了4位NormalFloat(NF4)量化和双重量化技术,进一步减少了存储和计算资
使用PEFT库进行ChatGLM3-6B模型的LORA高效微调
LORA(Low-Rank Adaptation)是一种高效的模型微调技术,它可以通过在预训练模型上添加额外的低秩权重矩阵来微调模型,从而仅需更新很少的参数即可获得良好的微调性能。
LangChain之Agent代理(下)
在LangChain中,Agent代理就是使用语言模型作为推理引擎,让模型自主判断、调用工具和决定下一步行动。
LangChain之Agent代理(上)
在LangChain中,Agent代理就是使用语言模型作为推理引擎,让模型自主判断、调用工具和决定下一步行动。
LangChain之内存记忆 ( Memory )
大多数LLM应用都具有对话功能,如聊天机器人,记住先前的交互非常关键。对话的重要一环是能够引用之前提及的信息,这些信息需要进行存储,因此将这种存储过去交互信息的能力称为记忆 ( Memory )。
下一页
个人成就
2024年度人气作者No.145
优秀创作者
文章被点赞
2,880
文章被阅读
655,843
掘力值
16,214
关注了
75
关注者
459
收藏集
18
关注标签
100
加入于
2018-05-04