首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
彭泽
掘友等级
前端
获得徽章 12
动态
文章
专栏
沸点
收藏集
关注
作品
赞
170
文章 169
沸点 1
赞
170
返回
|
搜索文章
赞
文章( 169 )
沸点( 1 )
制作数字农场可视化大屏
数字农业可视化利用大数据、物联网、人工智能、GIS等技术,为农业生产经营管理提供了全新的高效的决策支持工具,使农业从业者能够更加清晰、准确地了解农业生产的各个环节,从而实现精准决策、精细管理和高效运维
38.2k 的 AI 开发平台 Dify 教程三:将 Notion 和网站作为知识库
在上一篇《Dify 教程二:使用本地大模型 Ollama》中,我们介绍了如何在 Dify 中接入本地大模型,今天我们来看看 Dify 创建知识库的其他两种方式。 同步自 Notion 内容 同步 We
fastgpt+ollama搭建本地的AI客服小助手
最近找工作,微信上hr问我做一个AI客服聊天这么个东西,所以最近几天就研究了一下这方面,还真给我捣鼓了点成果出来:一个能在本地运行的AI小助手,可以对接自己喜欢的大模型,还能导入知识库。
我早就看现在的工作流不爽了!- 前端使用 Jenkins
笔者一天要说100次“哥,代码更新了,打包上传下吧,球球了”,终于我实在受不了了(上传代码的这位哥也受不了了),于是想通过 Jenkins 实现简单的前端项目自动打包部署。
基于 Docker 安装 Jenkins,并配置使用 Jenkins 打包 Node 前后端服务部署到远程服务器
在服务器上通过 docker 安装 jenkins 服务,并对 jenkins 进行配置,完成可以打包 Node 前后端并部署到另一台服务器(一般我们打包和部署都是在不同的服务器,避免互相影响等)。
Llama3.1是AI界的Linux?先部署起来再说!
就在今天,Meta 发布了 Llama 3.1,这次带来的中杯、大杯和超大杯3个版本。 从纸面数据来看,Llama 3.1 超大杯已经能跟 GPT-4 分庭抗礼
万字长文详解 Vue JSX,带你全面拥抱 JSX 特性!
为什么要使用 JSX 前阵子在 Vue3 项目中封装一个基础组件的时候用到了 JSX 语法,使用下来的感受就是 —— 某些场景下,JSX 的灵活性对我们编写代码还是能够带来一定的帮助的。 举两个常见的
深入Go语言底层:一文学会Plan9汇编
传统的汇编语言是和硬件架构是一一对应的,一种硬件架构对应一种汇编语言。而对Go 语言汇编而言,其输出的结果是一种抽象可移植的汇编代码,这种汇编并不对应某种真实的硬件架构。Go 的汇编器会使用这种伪汇编
为什么说前端监控系统离不开 RabbitMQ?
前端监控系统是采集用户端的异常、性能、业务埋点等数据上报,在服务端做存储,并支持可视化分析的平台。 用户量可能很大,采集的数据可能比较多,这时候服务端的并发压力会比较大,要是直接存入数据库,那数据库服
短链服务?自己用 Nest 写一个
生活中我们经常遇到需要短链的场景。 比如一段很长的 url: 分享出去很不方便。 这时候就可以通过短链服务把它缩短: 点击短链会跳转到原链接: 这种在短信里很常见: 因为短信是按照字数收费的,太长不但
下一页
个人成就
文章被点赞
1
文章被阅读
257
掘力值
22
关注了
58
关注者
3
收藏集
9
关注标签
376
加入于
2017-07-08