首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LLM开发应用
黄粱梦醒
创建于2026-03-10
订阅专栏
LLM开发和应用相关知识和笔记
暂无订阅
共6篇文章
创建于2026-03-10
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
大模型数值精度
1 大模型数值精度 1.1 计算机对小数的表达方式 以8.56,FP16精度为例 符号位 (Sign, S):$(-1)^{signal}$,0代表正数,1代表负数,这里S=1。 指数位 (Expon
大模型微调
为什么需要大模型微调?如何进行大模型微调,通过模型微调的流程,从理论方面来进行模型微调的介绍,了解整个模型微调的流程
模型下载方法
分享模型的具体下载方法,用户可以根据实际需要采用不同的途径进行所需模型的下载,用户可以根据实际需要采用不同的途径进行所需模型的下载。
个人本地部署大模型和调用的常用方式
部署大模型的方式有很多,比如ollama、vllm,个人常用的部署方式是使用ollama框架进行部署。 1 ollama 1.1 ollama本地部署大模型 步骤1:下载ollama软件 步骤2: 加
Ollama模型压力测试
Ollama启动服务的方法 生产部署启动方法:使用SystemD的启动和配置Ollama服务的方法。这种方式是通过创建 systemd 服务单元文件(即 ollama.service),将 ollam
大模型企业级部署方案-vllm
目前主流的大模型部署框架以llama.cpp、Ollama和Vllm为主。 llama.cpp 是使用没有任何依赖关系的纯 C/C++ 实现,性能很高,可定制化和优化项非常多,但也因为底层是C语言,直