首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
汀丶人工智能
掘友等级
算法工程师
|
互联网公司
本博客将不定期更新关于机器学习、强化学习、数据挖掘以及NLP等领域相关知识,以及分享自己学习到的知识技能,感谢大家关注!
获得徽章 9
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 3
沸点 0
赞
3
返回
|
搜索文章
汀丶人工智能
算法工程师 @互联网公司
·
8月前
举报
#金石计划征文活动#
langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程
LangChain优势
简化开发流程:LangChain提供了一系列组件和接口,帮助开发者快速构建复杂的语言模型应用,无需从零开始编写所有基础代码。这降低了开发门槛,加速了项目部署。
模块化设计:它采用模块化架构,使得模型、提示、索引、代理、记忆等功能组件可以灵活组合,开发者可以根据需要选择合适的组件来定制应用。
与外部系统的集成:LangChain能够方便地与其他系统和数据源集成,比如数据库、向量数据库(如Pinecone)、API等,增强了语言模型在实际业务场景中的应用能力。
提升效率与质量:通过自动化测试用例生成、信息检索优化等特性,LangChain能够提高开发和维护应用的效率,同时保证应用的性能和质量。
社区与生态支持:作为一个开源项目,LangChain拥有活跃的开发者社区,不断贡献新的工具、插件和最佳实践,促进了技术的迭代和应用的创新。
juejin.cn
展开
初识langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程
juejin.cn
大模型生态圈
分享
评论
点赞
汀丶人工智能
算法工程师 @互联网公司
·
8月前
关注
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi]
国内大模型LLM选择以及主流大模型快速使用教程[GLM4/Qwen/Baichuan/Coze/Kimi] 0. 大模型选择 司南测评结果: SuperCLue测评结果: ...
1
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
8月前
关注
初识langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程
初识langchain:LLM大模型+Langchain实战[qwen2.1、GLM-4]+Prompt工程 1.大模型基础知识 大模型三大重点:算力、数据、算法,ReAc...
3
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
8月前
举报
#每日快讯#
透视开源生态,OSGraph——GitHub全域数据图谱的智能洞察工具
OSGraph (Open Source Graph) 是一个开源图谱关系洞察工具,基于GitHub开源数据全域图谱,实现开发者行为、项目社区生态的分析洞察。可以为开发者、项目Owner、开源布道师、社区运营等提供简洁直观的开源数据视图,帮助你和你的项目制作专属的开源名片、寻求契合的开发伙伴、挖掘深度的社区价值。
项目链接:
juejin.cn
展开
透视开源生态,OSGraph——GitHub全域数据图谱的智能洞察工具
juejin.cn
技术交流圈
分享
评论
点赞
汀丶人工智能
算法工程师 @互联网公司
·
8月前
举报
#金石计划征文活动#
AI Agent【项目实战】:MetaGPT遇上元编程,重塑复杂多智能体协作的边界
MetaGPT 以一条需求作为输入,并输出用户故事/竞争分析/需求/数据结构/API/文档等。内部而言,MetaGPT 包含产品经理/架构师/项目经理/工程师等角色。它为软件公司提供了整个流程,并精心制定了标准化操作流程(SOP)。“代码=SOP(团队)”是核心理念。我们将SOP转化为代码,并将其应用于由LLM(大型语言模型)组成的团队。
juejin.cn
展开
AI Agent【项目实战】:MetaGPT遇上元编程,重塑复杂多智能体协作的边界
juejin.cn
大模型生态圈
赞过
分享
2
1
汀丶人工智能
算法工程师 @互联网公司
·
8月前
关注
透视开源生态,OSGraph——GitHub全域数据图谱的智能洞察工具
"透视开源生态,OSGraph——GitHub全域数据图谱的智能洞察工具 OSGraph (Open Source Graph) 是一个开源图谱关系洞察工具,基于GitHu...
2
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
8月前
关注
AI Agent【项目实战】:MetaGPT遇上元编程,重塑复杂多智能体协作的边界
AI Agent【项目实战】:MetaGPT遇上元编程,重塑复杂多智能体协作的边界 MetaGPT 以一条需求作为输入,并输出用户故事/竞争分析/需求/数据结构/API/文...
4
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
8月前
举报
#金石计划征文活动#
AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望
AI Agent(人工智能代理)是一种能够感知环境、进行决策和执行动作的智能实体。 不同于传统的人工智能, AI Agent 具备通过独立思考、调用工具去逐步完成给定目标的能力。比如,告诉 AI Agent 帮忙下单一份外卖,它就可以直接调用 APP 选择外卖,再调用支付程序下单支付,无需人类去指定每一步的操作。 Agent 的概念由 Minsky 在其 1986 年出版的《思维的社会》一书中提出,Minsky 认为社会中的某些个体经过协商之后可求得问题的解,这些个体就是 Agent。他还认为 Agent 应具有社会交互性和智能性。 Agent 的概念由此被引入人工智能和计算机领域,并迅速成为研究热点。但苦于数据和算力限制, 想要实现真正智能的 AI Agents 缺乏必要的现实条件。
juejin.cn
展开
AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望
juejin.cn
大模型生态圈
分享
评论
点赞
汀丶人工智能
算法工程师 @互联网公司
·
8月前
关注
AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望
AI Agent框架(LLM Agent):LLM驱动的智能体如何引领行业变革,应用探索与未来展望 1. AI Agent(LLM Agent)介绍 1.1. 术语 Age...
8
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
8月前
举报
#金石计划征文活动#
煤矿安全大模型:微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答
近年来,国家对煤矿安全生产的重视程度不断提升。为了确保煤矿作业的安全,提高从业人员的安全知识水平显得尤为重要。鉴于此,目前迫切需要一个高效、集成化的解决方案,该方案能够整合煤矿安全相关的各类知识,为煤矿企业负责人、安全管理人员、矿工提供一个精确、迅速的信息查询、学习与决策支持平台。
为实现这一目标,利用包括煤矿历史事故案例、事故处理报告、安全操作规程、规章制度、技术文档以及煤矿从业人员入职考试题库等在内的丰富数据资源,通过微调InternLM2模型,构建出一个专门针对煤矿事故和煤矿安全知识智能问答的煤矿安全大模型
juejin.cn
展开
煤矿安全大模型:微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答
juejin.cn
大模型生态圈
分享
评论
点赞
汀丶人工智能
算法工程师 @互联网公司
·
8月前
关注
煤矿安全大模型:微调internlm2模型实现针对煤矿事故和煤矿安全知识的智能问答
煤矿安全大模型————矿途智护者 使用煤矿历史事故案例,事故处理报告、安全规程规章制度、技术文档、煤矿从业人员入职考试题库等数据,微调internlm2模型实现针对煤矿事故...
0
评论
分享
汀丶人工智能
关注了
笑哈哈055
算法工程师 @互联网公司
汀丶人工智能
算法工程师 @互联网公司
·
9月前
关注
LLM技术全景图:技术人必备的技术指南,一张图带你掌握从基础设施到AI应用的全面梳理
LLM技术全景图:技术人必备的技术指南,一张图带你掌握从基础设施到AI应用的全面梳理 LLM 技术图谱(LLM Tech Map)是将 LLM 相关技术进行系统化和图形化的...
0
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
9月前
关注
人工智能大模型之开源大语言模型汇总(国内外开源项目模型汇总)
人工智能大模型之开源大语言模型汇总(国内外开源项目模型汇总) Large Language Model (LLM) 即大规模语言模型,是一种基于深度学习的自然语言处理模型,...
1
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
9月前
举报
#每天一个知识点#
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
文章链接:
juejin.cn
由于LLM参数量都是在亿级以上,少则数十亿,多则数千亿。当我们想在用特定领域的数据微调模型时,如果想要full-tuning所有模型参数,看着是不太实际,一来需要相当多的硬件设备(GPU),二来需要相当长的训练时间。因此,我们可以选择一条捷径,不需要微调LLM的全量参数,而只需要新增少量的参数,通过固定原始模型参数,而只需要微调新增的少量参数,从而达到接近使用全参数full-tuning的效果。本章主要讲述在LLM时代,当下主流的微调方法。
展开
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
juejin.cn
大模型生态圈
分享
评论
点赞
汀丶人工智能
算法工程师 @互联网公司
·
9月前
举报
#金石计划征文活动#
揭秘In-Context Learning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解]
文章链接:
juejin.cn
ICL主要思路是:给出少量的标注样本,设计任务相关的指令形成提示模板,用于指导待测试样本生成相应的结果。
ICL的过程:并不涉及到梯度的更新,因为整个过程不属于fine-tuning范畴。而是将一些带有标签的样本拼接起来,作为prompt的一部分,引导模型在新的测试数据输入上生成预测结果。
ICL方法:表现大幅度超越了Zero-Shot-Learning,为少样本学习提供了新的研究思路。
展开
揭秘In-Context Learning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解]
juejin.cn
大模型生态圈
分享
评论
点赞
汀丶人工智能
算法工程师 @互联网公司
·
9月前
关注
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等] 由于LLM参数量都是在亿级以...
1
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
9月前
关注
揭秘In-Context Learning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解]
揭秘In-Context Learning(ICL):大型语言模型如何通过上下文学习实现少样本高效推理[示例设计、ICL机制详解] 自GPT-3首次提出了In-Contex...
0
评论
分享
汀丶人工智能
算法工程师 @互联网公司
·
9月前
举报
#金石计划征文活动#
解锁LLMs的“思考”能力:Chain-of-Thought(CoT) 技术推动复杂推理的新发展
juejin.cn
Chain-of-Thought(CoT)是一种改进的Prompt技术,目的在于提升大模型LLMs在复杂推理任务上的表现,如算术推理(arithmetic reasoning)、常识推理(commonsense reasoning)、符号推理(symbolic reasoning)。
特点与优势
中间步骤:模型在生成最终答案之前,会先产生一系列的中间推理步骤。
可解释性:由于CoT提供了推理过程的可见性,因此它有助于提高模型决策的可解释性。
逻辑推理:CoT可以帮助模型进行复杂的逻辑推理,尤其是在需要组合多个事实或信息片段的问题上。
上下文利用:在CoT中,模型可以利用上下文信息,通过逐步推理来解决问题,而不是仅仅依赖于直接的答案。
展开
解锁LLMs的“思考”能力:Chain-of-Thought(CoT) 技术推动复杂推理的新发展
juejin.cn
大模型生态圈
分享
评论
点赞
下一页
个人成就
优秀创作者
文章被点赞
628
文章被阅读
360,684
掘力值
12,614
关注了
3
关注者
455
收藏集
0
关注标签
13
加入于
2022-01-06