首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
LLM
订阅
久年like
更多收藏集
微信扫码分享
微信
新浪微博
QQ
9篇文章 · 0订阅
n8n教程:5分钟部署+自动生AI日报并写入飞书多维表格
哈喽,大家好👏 我是阿星! 最近n8n太火了!今天我们就从部署到搭建第一个自动生成新闻日报的AI工作流演示一遍。用它实现自动抓取新闻并分类。
大语言模型:Ollama大语言模型运行器
Ollama可以在本地机器上快速部署和运行大语言模型。Ollama提供对模型量化的支持,可以显著降低显存要求,使得在普通计算机上运行大型模型成为可能。
win下ollama、open-webui安装及实战
win下ollama、open-webui安装及实战 1.ollama简介 github地址:https://github.com/ollama/ollama 官网地址: https://ollama
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
什么是 Ollama? Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。
Ollama 部署本地大模型与使用
本文将介绍如何通过 Ollama 部署本地 Llama3 大模型,并介绍如何通过 HTTP 调用拿到 AI 生成结果。
Ollama:本地大模型运行指南
Ollama 是一个基于 Go 语言开发的可以本地运行大模型的开源框架。通过 Ollama 本地运行大模型的学习成本已经非常低,大家有兴趣尝试本地部署一个大模型吧。
基于 open-webui 搭建企业级知识库
基于open-webui的二次开发降低了企业级应用的准入门槛。要部署一个支持企业级应用,在技术层面已经不存在实质性障碍。本文带你一起构建一个简单的可以做客户机器人的知识库。
Windows平台上安装与使用Docker
本文详细介绍了在Windows系统安装Docker Desktop的步骤,包括下载安装包、启用WSL 2及Hyper-V配置。通过替换app.asar文件实现界面汉化,并提供阿里云等镜像加速配置方法。
Docker部署全攻略:Ollama安装、本地大模型配置与One-API接入
Ollama 是一款开源工具,允许用户在本地便捷地运行多种大型开源模型,如清华大学的 ChatGLM、阿里的千问以及 Meta 的 Llama 等。它支持 macOS、Linux 和 Windows