首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
探索大语言模型(LLM)
艾醒
创建于2025-04-21
订阅专栏
对于大语言模型相关概念的介绍
等 4 人订阅
共22篇文章
创建于2025-04-21
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
探索大语言模型(LLM): 大模型应用与对应的硬件选型一览表
大模型应用与硬件怎么选?看这几张表就够了。不同系列的显卡,适合的人群和做的事不一样,看下面的表就清楚啦。
探索大语言模型(LLM):参数量背后的“黄金公式”与Scaling Law的启示
过去十年,人工智能领域最震撼的变革之一,是模型参数量从百万级飙升至万亿级。从GPT-3的1750亿参数到GPT-4的神秘规模,再到谷歌Gemini的“多模态巨兽”,参数量仿佛成了AI能力的代名词
探索大语言模型(LLM):使用EvalScope进行模型评估(API方式)
EvalScope 是由阿里巴巴魔搭社区(ModelScope)开发的开源模型评估与性能基准测试框架,专注于为大语言模型(LLM)、多模态模型及其他 AI 模型提供系统化的评估解决方案。
探索大语言模型(LLM):大模型微调方式全解析
在大模型落地实践中,微调(Fine-tuning)是连接通用预训练能力与特定任务需求的关键环节。通过微调,我们能让在海量数据上预训练的模型“适配” 具体业务场景。本文将系统梳理六种主流微调方式
探索大语言模型(LLM):一文读懂通用大模型的定义、特点与分类
在人工智能技术飞速发展的当下,通用大模型无疑是最受关注的领域之一。它凭借强大的能力打破了传统 AI 模型的局限,为各行业的智能化升级提供了全新可能。
探索大语言模型(LLM):Windows系统与Linux系统下的Ollama高级配置(修改模型地址、Service服务以及多卡均衡调用)
之前的文章中已经介绍了ollama在Windows环境下和Linux环境下的安装,在本篇中将重点介绍Ollama的常用配置
探索大语言模型(LLM):Open-WebUI的安装
Open-WebUI 是一款专为大模型设计的开源可视化交互工具,它通过类 ChatGPT 的直观界面,让用户无需代码即可管理、调试和调用本地或云端的大语言模型(LLMs)
探索大语言模型(LLM):Ollama快速安装部署及使用(含Linux环境下离线安装)
Ollama 是一个开源的本地化大模型运行平台,支持用户直接在个人计算机上部署、管理和交互大型语言模型(LLMs),无需依赖云端服务。而且其混合推理的特性也使得CPU和GPU的算力能够充分被使用
探索大语言模型(LLM):RSE流程详解——从文档中精准识别高相关片段
在信息爆炸的时代,如何从海量的文本数据中快速准确地提取出有价值的信息,成为了众多领域面临的共同挑战。
探索大语言模型(LLM):查漏补缺,你真的完全了解大语言模型的术语吗?
本文将系统解析大语言模型的核心术语,涵盖模型规模、训练方法、优化技术、部署实践及前沿研究方向,为从业者构建完整的知识结构。
探索大语言模型(LLM):国产大模型DeepSeek vs Qwen,谁才是AI模型的未来?
本文将从基座模型、推理模型、Instruct模型三个核心维度,深度对比DeepSeek V3、DeepSeek R1、QwQ、Qwen2.5与Qwen3,揭示它们的底层技术差异与适用场景。
探索大语言模型(LLM):词袋法(Bag of Words)原理与实现
词袋法(Bag of Words, BoW)是自然语言处理(NLP)中最基础的文本向量化方法之一。它通过统计文本中词汇的出现频率,将非结构化的文本转换为结构化的数值向量,为后续的机器学习任务
探索大语言模型(LLM):零基础上手硅基流动平台(附带2000万token邀请码)
SiliconFlow(硅基流动)是专注于生成式AI的计算基础设施平台,提供大模型推理引擎(SiliconLLM)、文生图/视频加速库(OneDiff)及模型云服务平台
探索大语言模型(LLM):Qwen3速测指南(transformers调用)
Qwen3发布后4小时内GitHub获1.7万星标,刷新开源大模型热度纪录。本篇文章将以transformers调用的方式快速进行Qwen3调用。
探索大语言模型(LLM):语言模型从海量文本中无师自通
当语言模型学会“自己教自己” 在人工智能领域,语言模型(如GPT、BERT)的崛起彻底改变了自然语言处理(NLP)的格局。
探索大语言模型(LLM):自监督学习——从数据内在规律中解锁AI的“自学”密码
自监督学习:从数据内在规律中解锁AI的“自学”密码 在人工智能领域,自监督学习(Self-supervised Learning)正掀起一场革命。
探索大语言模型(LLM):ReAct、Function Calling与MCP——执行流程、优劣对比及应用场景
前言 在人工智能技术快速发展的当下,大语言模型(LLMs)的应用不断拓展,ReAct和Function Calling作为优化模型输出的重要技术,各自展现出独特优势。
探索大语言模型(LLM):Transformer 与 BERT从原理到实践
在自然语言处理(NLP)的发展历程中,Transformer 和 BERT 无疑是具有里程碑意义的技术。它们的出现,彻底改变了 NLP 领域的研究和应用格局。
探索大语言模型(LLM):循环神经网络的深度解析与实战(RNN、LSTM 与 GRU)
循环神经网络之所以得名,是因为它在处理序列数据时,隐藏层的节点之间存在循环连接。这意味着网络能够记住之前时间步的信息,并利用这些信息来处理当前的输入。
下一页