首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
艾醒
掘友等级
鸽子区佛系博主,不定时掉落文章,可私信催更
获得徽章 4
动态
文章
专栏
沸点
收藏集
关注
作品
赞
82
文章 82
沸点 0
赞
82
返回
|
搜索文章
艾醒
3天前
关注
探索大语言模型(LLM):Open-WebUI的安装
Open-WebUI 是一款专为大模型设计的开源可视化交互工具,它通过类 ChatGPT 的直观界面,让用户无需代码即可管理、调试和调用本地或云端的大语言模型(LLMs)...
0
1
分享
艾醒
3天前
关注
探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)
Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GP...
0
评论
分享
艾醒
10天前
关注
大模型面试题剖析:大模型微调数据集构建
在大模型技术栈中,微调(Fine - tuning)是使预训练大模型适配特定领域任务的核心手段,而微调数据集作为模型训练的“燃料”,其构建的科学性与工程化程度直接决定微调效...
0
1
分享
艾醒
11天前
关注
大模型面试题剖析:大模型多模态微调技术全解析
在人工智能领域,大模型多模态微调是让模型具备跨模态理解与生成能力的关键技术。它能使模型更好地适配特定场景,在视觉问答、医疗影像诊断等诸多领域发挥重要作用。...
1
1
分享
艾醒
12天前
关注
大模型面试题剖析:大模型多机多卡微调全解析
在大模型时代,模型参数规模呈爆炸式增长,单卡训练已难以满足需求,多机多卡微调成为大模型训练与优化的关键技术。本文将从多机多卡微调的核心原理、实现方式、工程实践要点以及面临的...
0
1
分享
艾醒
13天前
关注
大模型面试题剖析:全量微调与 LoRA 微调
在当今的人工智能领域,大模型已成为推动众多应用发展的核心力量。然而,预训练的通用大模型往往无法直接完美适配各种特定的下游任务。为了让模型在特定任务中展现出卓越性能,微调技术...
0
评论
分享
艾醒
13天前
关注
大模型面试题剖析:PPO 与 GRPO 强化学习算法核心差异解析
在大模型与强化学习交叉的技术领域面试中,PPO(Proximal Policy Optimization)和GRPO这两种算法常常成为面试官考察候选人对强化学习算法理解深度...
0
评论
分享
艾醒
18天前
关注
大模型面试题剖析:大模型微调与训练硬件成本计算
在大模型技术浪潮中,“大模型微调&训练硬件成本评估” 已成面试高频考点。从底层逻辑到工程实践,每一处细节都可能成为面试官考察你技术深度的切入点。本文结合多场景知识,拆解核心...
1
评论
分享
艾醒
20天前
关注
大模型面试题剖析:Pre-Norm与Post-Norm的对比及当代大模型选择Pre-Norm的原因
在深度学习面试中,Transformer模型的结构细节和优化技巧是高频考点。其中,归一化技术(Normalization)的位置选择(Pre-Norm vs. Post-N...
0
评论
分享
艾醒
20天前
关注
大模型面试题剖析:模型微调和蒸馏核心技术拆解与考点梳理
在大模型求职面试的赛道上,模型微调和模型蒸馏是绕不开的核心技术考点。这两项技术,一个聚焦模型能力的精细打磨,一个着眼于知识迁移与效率优化,深刻影响着大模型在实际场景中的表现...
0
评论
分享
艾醒
20天前
关注
大模型面试题剖析:微调与 RAG 技术的选用逻辑
在大模型技术岗位面试里,“何时用微调技术,何时用 RAG 技术” 是高频考点。这不仅考察对两种技术的理解,更看能否结合场景权衡运用,下面结合要点深入分析...
0
评论
分享
艾醒
21天前
关注
huggingface入门:Tokenizer 核心参数与实战指南
在自然语言处理(NLP)工程实践中Tokenizer的作用是将文本变成模型能够读懂的输入,今天我们就从参数视角拆解 Tokenizer,搞懂它的工作逻辑,以及如何根据任务灵...
0
评论
分享
艾醒
21天前
关注
huggingface入门:如何使用国内镜像下载huggingface中的模型
在使用huggingface中的模型时很多情况下会因为网络原因无法访问,导致模型的下载失败。为了应对这种问题,最便捷的方式是下载相应的模型后使用本地调用的方式...
0
评论
分享
艾醒
赞了这篇文章
游戏不存在
微信搜索「游戏不存在」
·
6年前
关注
kubernetes 1.13 全新安装指南
kubernetes官方提供了中文文档,网上也有不少中文教程,可是实际的安装过程中,还是遇到了不少的坑。主要有: kubernetes的版本迭代比较迅速。网上教程中版本多是...
4
2
分享
艾醒
1月前
关注
使用服务器训练模型详解
该文章详细介绍了使用服务器训练模型时,通过 Xshell、Xmanager 和 PyCharm 连接服务器的配置步骤。...
1
评论
分享
艾醒
1月前
关注
探索大语言模型(LLM):RSE流程详解——从文档中精准识别高相关片段
在信息爆炸的时代,如何从海量的文本数据中快速准确地提取出有价值的信息,成为了众多领域面临的共同挑战。...
0
评论
分享
艾醒
4月前
关注
探索大语言模型(LLM):查漏补缺,你真的完全了解大语言模型的术语吗?
本文将系统解析大语言模型的核心术语,涵盖模型规模、训练方法、优化技术、部署实践及前沿研究方向,为从业者构建完整的知识结构。...
1
评论
分享
艾醒
4月前
关注
探索大语言模型(LLM):国产大模型DeepSeek vs Qwen,谁才是AI模型的未来?
本文将从基座模型、推理模型、Instruct模型三个核心维度,深度对比DeepSeek V3、DeepSeek R1、QwQ、Qwen2.5与Qwen3,揭示它们的底层技术...
0
评论
分享
艾醒
4月前
关注
探索大语言模型(LLM):词袋法(Bag of Words)原理与实现
词袋法(Bag of Words, BoW)是自然语言处理(NLP)中最基础的文本向量化方法之一。它通过统计文本中词汇的出现频率,将非结构化的文本转换为结构化的数值向量,为...
0
评论
分享
下一页
个人成就
文章被点赞
116
文章被阅读
45,236
掘力值
2,501
关注了
6
关注者
13
收藏集
0
关注标签
13
加入于
2022-03-20