首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
Ollama
订阅
三九天
更多收藏集
微信扫码分享
微信
新浪微博
QQ
10篇文章 · 0订阅
Qwen2大模型本地部署+高考作文
今天是6月7日,高考第一天,语文考试结束了,高考作文又成为了备受关注的热点,AI时代也进入了高考作文内容中,恰好今天阿里云通义千问发布Qwen2开源大模型,咱们来聊聊
大模型RAG入门及实践
在大语言模型(LLM)飞速发展的今天,LLMs 正不断地充实和改进我们周边的各种工具和应用。RAG 最初是为了解决 LLM 的各类问题的产生的,但后面大家发现在现阶段的很多企业痛点上...
Chroma + Ollama 搭建本地RAG应用
本篇文章我们将基于Ollama本地运行大语言模型(LLM),并结合ChormaDB、Langchain来建立一个小型的基于网页内容进行本地问答的RAG应用。
用langchain搭配最新模型ollama打造属于自己的gpt
langchain 前段时间去玩了一下langchain,熟悉了一下大模型的基本概念,使用等。前段时间meta的ollama模型发布了3.0,感觉还是比较强大的,在了解过后,自己去用前后端代码,调用o
用本地大模型(llama3)进行数据分类标记|LLM 用例
使用 ollma+llama3 在本地对数据进行稳定分类,无成本消耗,准确率 80%,速度很快,1 秒一个。
手把手教你创造你的本地私人 ChatGPT(上):本地大模型 Ollama
如何快速安装和使用本地大模型 Ollama Ollama 是什么? 近年来,人工智能技术发展迅猛,其中大型语言模型(LLM)的进步尤为引人注目。LLM 拥有海量的参数和强大的学习能力,能够执行各种复杂
本地运行多种大语言模型:一行代码即可完成 | 开源日报 No.167
ollama 是一个功能强大的本地语言模型构建和运行框架。它提供简单的 API,让您可以轻松地创建、运行和管理模型。框架内置了丰富的预构建模型库,可以方便地在各种应用中使用。同时,它还支持从 GGUF
【Llama3:8b】手把手教你如何在本地部署 自己的 AI 大模型 (◍•ᴗ•◍)
一、为什么需要本地部署属于自己的大模型? 趋势:我们正处于AI人工智能时代,各行各业的公司和产品都在向AI靠拢。打造垂直领域的AI模型将成为每个公司未来的发展趋势。 数据安全:在无法掌握核心算法的情况
手把手教你轻松本地部署Llama3,个人电脑也能极速运行
大家好,我是斜杠君。今天手把手教大家如何在本地部署Llama3,打造一个属于自己的本地大模型助手。Ollama是一个用于在本地计算机上运行大型语言模型(LLMs)的命令行工具。它允许用户下载并本地运行
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
什么是 Ollama? Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。