首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AGI老王
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
【必学收藏】AI产品经理转型指南:5大核心能力+实战路径,成为大模型时代架构师
从“功能执行者”到“智能架构师”,优秀AI产品经理的5大核心能力与实战路径 本文全面解析AI时代产品经理的核心能力与转型路径,帮助你掌握目标拆解、智能体架构、人机协同等关键技能,避开常见误区。通过实战
收藏必备:大模型微调全流程:从ChatGLM-6B到Qwen2.5-7B的实战指南
本文系统总结了大模型微调的完整流程,从目标确定、数据准备到模型部署的7大步骤,详解了LoRA参数高效微调原理。无论你是初学者还是有一定经验的开发者,都能通过本文掌握微调大模型的核心技术与方法,提升模型
ollama + fastgpt+m3e本地部署
开启WSL 因为这里使用的win部署,所以要安装wsl,如果是linux系统就没那么麻烦 控制面板->程序->程序和功能 更新wsl wsl --set-default-version 2 wsl -
RAG 架构设计5种分块技术剖析和选型
RAG (检索增强生成)是企业 AI 大模型应用落地的主要应用形态之一,特别是在智能问答、报告生成、内容审核、Text2SQL、流程自动化和 AI 编程等领域大规模应用和落地 RAG 架构。 从技术本
一镜到底,通过Llama大模型架构图看透transformers原理
Llama Nuts and Bolts是Github上使用Go语言从零重写Llama3.1 8B-Instruct模型推理过程(80亿参数规模)的实战类开源项目,其作者是来自土耳其的Adil Alp
一文彻底搞懂最近爆火的MCP与Function calling之间的区别
Function calling 与 MCP 曾几何时,当我们谈论 AI 大模型使用外部工具时,大家首先想到的几乎都是函数调用 (Function Calling**)。可以说,在 MCP(模型上下文
大模型入门指南 - Fine-tuning:小白也能看懂的“模型微调”全解析
你是否困惑:为何AI既能和你聊哲学、写科幻,但面对财报里“伪装”成正常数据的债务危机,或是法律条款间环环相扣的侵权陷阱时,却像“博而不精”的优等生,答案总差半步精准?这就像一位“通才学霸”虽然知识面广
什么?只需两小时就能拥有自己的大模型?
一直想试试大模型微调,正巧最近有个WeClone项目很火,即使用自己的聊天数据来微调LLM,也算是我无趣的生活中难得的落地场景了。 GitHub - xming521/WeClone[1] 眼馋了规划
大语言模型LLM和自然语言处理NLP的区别是什么?
自然语言处理(NLP)与大型语言模型(LLM)技术是大规模人类语言分析与生成的核心。 但是大部分人都分不清楚LLM与NLP之间的区别,NLP涵盖了一系列算法,用于理解、操作和生成人类语言。 自20世纪
搞不懂Transformer?那是你还不了解输入嵌入与位置编码!
Transformer 的输入嵌入和位置编码常常被一带而过,然而它们对于像 GPT 这样的模型理解和处理语言确是至关重要的。 虽然完整的 Transformer 架构庞大且复杂,但本文将只关注最初始的
下一页
个人成就
文章被点赞
3
文章被阅读
6,501
掘力值
575
关注了
0
关注者
2
收藏集
0
关注标签
0
加入于
2025-05-10