首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ollama
订阅
用户2842296764320
更多收藏集
微信扫码分享
微信
新浪微博
QQ
7篇文章 · 0订阅
前端面试题
HTML/CSS 部分 盒模型 介绍标准盒模型和 IE 盒模型的区别,以及如何通过 CSS 设置盒模型的属性来实现不同的布局效果。 区别: 标准盒模型中,width和height仅指内容部分,总宽(高
最近两周出去面试遇到的面试题(前端初级、长更)
以下面试题不分先后顺序 1、vue实现双向数据绑定原理是什么? 2、v-model语法糖是怎么实现的 3、Hash和history有什么区别 4、深拷贝和浅拷贝 5、原型和原型链 6、箭头函数和普通函
RAG 实践-Ollama+AnythingLLM 搭建本地知识库
什么是 RAG RAG,即检索增强生成(Retrieval-Augmented Generation),是一种先进的自然语言处理技术架构,它旨在克服传统大型语言模型(LLMs)在处理开放域问题时的信息
如何给本地部署的DeepSeek投喂数据,让他更懂你
给本地部署的DeepSeek投喂种格式的文件,如pdf、csv、txt、md 格式的数据。比如你想让 `DeepSeek` 了解你的公司业务,就把相关的文档上传给它。让他更懂你,更智能
本地部署 DeepSeek:小白也能轻松搞定!
最近DeepSeek太火了,以至于每个小伙伴都想试试。DeepSeek 的到来可谓是开启了全民AI热潮。 本以为DeepSeek本地化部署有多难,实际上验证后很简单
Ollama 部署本地大模型与使用
本文将介绍如何通过 Ollama 部署本地 Llama3 大模型,并介绍如何通过 HTTP 调用拿到 AI 生成结果。
零基础入门AI:一键本地运行各种开源大语言模型 - Ollama
什么是 Ollama? Ollama 是一个可以在本地部署和管理开源大语言模型的框架,由于它极大的简化了开源大语言模的安装和配置细节,一经推出就广受好评,目前已在github上获得了46k star。