首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户1359817067640
掘友等级
接外包中。付费debug及技术咨询。 各种稀奇古怪的东西都感兴趣,不解决不收费。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
97
文章 34
沸点 63
赞
97
返回
|
搜索文章
最新
热门
ubuntu下llama.cpp安装
首先安装nix 见 ubuntu下安装nix 然后通过nix安装llama.cpp 之后也需要在fish-shell环境内使用llama-cli等命令 下载模型 运行模型 现在可以开始和模型在命令行对
ubuntu下安装nix
使用国内镜像下载安装 使用fish-shell激活 nix.fish脚本内一些特性在部分shell内不支持, 会报错 这个是fish-shell的函数选项 function - create a fu
infllm_v2安装
github上的安装流程很简单 pip install -e . 即可。 但是环境如果没有配置好会踩几个小坑。 cuda安装配置 从略 依赖的pip包 pip install numpy cutlas
opencode使用本地大模型
安装opencode npm i -g opencode-ai@latest 安装ollama 关键一步, 调整上下文大小 ollama默认的上下文太小了, 会把opencode的提示词截断, 从而甚
WordPress使用php服务器和sqlite数据库快速部署
无需nginx/httpd或者mysql, 仅需php,快速开发验证。 本地部署多实例无需担心数据库或者服务器配置冲突。
个人成就
文章被阅读
206
掘力值
60
关注了
30
关注者
1
收藏集
0
关注标签
0
加入于
2021-01-21