首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
抽空摸鱼
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
本地部署运行 Google Gemma 开源大模型
Google 开源了 Gemma 大模型,本文介绍了本地部署 Gemma 开源大模型的详细步骤,以及使用体验
一种在本地部署Qwen通义千问大模型的超简单方法-兼容OpenAi接口
有很多开源大模型都可以本地部署,用于替代 chatGPT 实现本地执行各种任务,比如国内较好的 通义千问Qwen1.5 全尺寸模型。在一般的翻译、文案创作、辅助编码等任务上,基本达到了ChatGPT3
Ollama + Openwebui 本地部署大型模型与交互式可视化聊天
Ollama是一个允许用户在本地启动并运行大型语言模型,它提供了一个简单易用的内容生成接口,类似于OpenAI,但无需开发经验即可直接与模型进行交互
Linux从零部署本地AI大模型对接本地知识库全记录
linux系统,基于docker,使用fastgpt oneapi ollama搭建本地大模型,并且对接本地的知识库