首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
宇宙有只AGI
掘友等级
算法工程师
持续大模型落地实践中
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
Command | Ubuntu 个别实用命令记录(新建用户、查看网速等)
1. 实用命令 1.1 系统相关 1.1.1 查看系统、用户信息等 查看当前系统硬件架构 注:mac 上也能用 查看当前系统的操作系统及版本 查看当前系统单个cpu的可用核心数 查看当前系统所有用户
Command | Tmux 安装使用(含终端窗口备份)
1. 详细步骤 1.1 安装 Tmux apt brew 1.2 终端新建/激活 Tmux 1.2.1 新开一个窗口 1.2.2 激活指定窗口 1.3 Tmux 内使用 1.3.1 当前窗口下再开一个
LLM | Xinference 安装使用(支持CPU、Metal、CUDA推理和分布式部署)
1. 详细步骤 1.1 安装 1.2 启动 1.2.1 直接启动 简洁命令 多参数命令 设置模型缓存路径和模型来源(Hugging Face/Modelscope) 1.2.2 集群部署
LLM | llama.cpp 安装使用(支持CPU、Metal及CUDA的单卡/多卡推理)
1. 详细步骤 1.1 安装 cuda 等 nvidia 依赖(非CUDA环境运行可跳过) 1.2 安装 llama.cpp (C/C++环境) 1.3 安装 llama-cpp (Python 环境
LLM | ChatGLM.cpp 安装使用(支持CPU、Metal及CUDA推理)
1. 详细步骤 1.1 拉取源码 1.2 模型转换/量化 1.2.1 安装所需 Python 依赖 torch 其他依赖 1.2.1 模型转换/量化 f16 q8_0 q4_0 1.3 模型测试
LLM | Ollama WebUI 安装使用(pip 版)
Open WebUI (Formerly Ollama WebUI) 也可以通过 docker 来安装使用 1. 详细步骤 1.1 安装 Open WebUI 1.2 启动 ollama 服务 1.3
LLM | 迁移 ollama 模型文件到新机器(支持离线运行)
1. 详细步骤 以qwen2.5:0.5b-instruct-fp16为例 1.1 迁移 manifests 文件 1.2 迁移 blobs 文件 1.3 验证
LLM | Ollama 安装、运行大模型(CPU 实操版)
1. 操作步骤 1.1 安装 1.2 验证(可跳过) 1.3 启动服务端 1.4 跑通第一个模型 2. 参考资料 2.1 Ollama GitHub https://github.com/ollama
ENV | CUDA Toolkit 安装记录(nvcc -V 可查)
本文记录了在Ubuntu系统上通过runfile(local)方式安装CUDA Toolkit的经验
ENV | docker 安装使用(Ubuntu 简单实操版)
本文档详细介绍了在Ubuntu系统上安装及操作Docker的具体步骤。本指南旨在为用户提供一种系统且实用的方法,以便快速掌握Docker的基本操作。
下一页
个人成就
文章被阅读
3,055
掘力值
47
关注了
10
关注者
3
收藏集
0
关注标签
2
加入于
2024-05-15