首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
居然JuRan
掘友等级
给我一个酸菜的缸,腌透悲伤
|
无用组织协会会长
大模型教程 公众号 【码上有模力】
获得徽章 17
动态
文章
专栏
沸点
收藏集
关注
作品
赞
256
文章 149
沸点 107
赞
256
返回
|
搜索文章
最新
热门
抽丝剥茧的Transformer详解
注意力机制是自然语言处理(NLP)中基于Encoder - Decoder 的**神经机器翻译**(Neural Machine Translation )系统的一种改进。后来,这种机制被用于其他领域
DeepSeek+LoRA+FastAPI微调大模型并暴露接口给后端调用
DeepSeek+LoRA+FastAPI微调大模型并暴露接口给后端调用 整体介绍 需求和技术 企业对于大模型的不同类型个性化需求 SFT(有监督微调)、RAG(检索增强生成) 关注:基本概念;分别解
Qwen3-7B-Instruct Windows LMStudio 部署
在本地运行大型语言模型(LLMs)已成为许多开发者和爱好者的热门选择,它提供了隐私性、定制化和离线使用的可能性。虽然像 Ollama 这样的工具提供了强大的命令行界面来管理和运行本地模型,但 **LM
Qwen3-8B vLLM 部署调用
Qwen3-8B vLLM 部署调用 vLLM 简介 vLLM 框架是一个高效的大语言模型推理和部署服务系统,具备以下特性: 高效的内存管理:通过 PagedAttention 算法,vLLM 实现了
从零开始学大模型之大语言模型
大语言模型 4.1 什么是 LLM 在前三章,我们从 NLP 的定义与主要任务出发,介绍了引发 NLP 领域重大变革的核心思想——注意力机制与 Transformer 架构。随着 Transforme
从零开始学大模型之预训练语言模型
预训练语言模型 3.1 Encoder-only PLM 在上一章,我们详细讲解了给 NLP 领域带来巨大变革注意力机制以及使用注意力机制搭建的模型 Transformer,NLP 模型的里程碑式转变
阿里云多模态大模型岗三面面经
阿里云智能多模态大模型岗三面面经(详细问题+感受) 最近面试了 阿里云智能集团 - 多模态大模型岗位,三轮技术面,整体体验还不错。问题整体偏常规,但对项目的追问比较细致。这里整理一下完整面经,供准备类
从零开始学大模型之Transformer 架构
随着 NLP 从统计机器学习向深度学习迈进,作为 NLP 核心问题的文本表示方法也逐渐从统计学习向深度学习迈进。正如我们在第一章所介绍的,文本表示从最初的通过统计学习模型进行计算的向量空间模型、语言模
全网最全的大模型分词器(Tokenizer)总结
你应该知道大模型的输入输出的单位是token,不是单词,也不是字母【在中文语境,不是词,不是字】,那么,token是什么呢?
10分钟理解大模型的量化
量化是大模型领域中的一项关键技术,它通过降低模型参数的精度,将浮点数转换为整数或定点数,从而实现模型的压缩和优化。这样做的主要目的是减少模型的存储需求、加快推理速度,并降低模型的计算复杂度,使得大模型
下一页
个人成就
文章被点赞
248
文章被阅读
41,840
掘力值
2,495
关注了
29
关注者
197
收藏集
1
关注标签
13
加入于
2019-01-16