首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
前端
订阅
Devin_chen
更多收藏集
微信扫码分享
微信
新浪微博
QQ
8篇文章 · 0订阅
Ollama vs OpenAI:本地部署 vs 云端服务的 AI 模型平台对比
Ollama vs OpenAI:本地部署 vs 云端服务的 AI 模型平台对比 一、核心定位差异 Ollama: 本地部署平台:开源工具,让用户在自己设备上运行和管理大语言模型 Ollama 模型容
1.前端使用Node + LangChain快速入门与底层原理
简介 LangChain 是一个开源的 Python AI、Node AI 应用开发框架, 它提供了构建基于大模型的 AI 应用所需的模块和工具。通过 LangChain, 开发者可以轻松地与大型语言
2.前端使用Node + LangChain提示词工程应用实践
Prompt templates(提示词模板) 语言模型以文本作为输入 - 这个文本通常被称为提示词(prompt)。 在开发过程中,对于提示词通常不能直接硬编码提供给模型使用,而是通过提示词模板进行
3.前端使用Node + Express + Langchain + LangSmith实现服务启动+全链路监控
前言:本地大模型 + 全链路监控,才是生产级 AI 服务的标配 随着 Ollama 让本地大模型(如 Llama3、Qwen、Gemma)的部署成本大幅降低,越来越多开发者基于 Node+Expres
4.前端使用Node + MongoDB + Langchain消息管理与聊天历史存储
最近在为一个前端项目搭建 LangChain 聊天后端时,踩了不少坑:如何优雅地与 MongoDB 建立连接、怎么让聊天上下文持久化、怎样配合向量检索做知识增强……本文结合实际代码,完整梳理从零到一的
vue+element大型表单解决方案(3)--锚点组件(上)
上一篇提到如何拆分表单,事实上拆分表单不仅仅是技术上的需求,也是业务上的需要。业务上将表单分成多个章节,每个章节(section)有自己的标题,此时就需要有锚点(anchor)能快速定位到该章
微前端qiankun+docker+nginx配合gitlab-ci/cd的自动化部署的实现
qiankun+docker+nginx+gitlab-ci/cd,构建一个自动化部署的微前端项目,内有干货,看完可以避免各种踩坑!
前端优秀实践不完全指南
本文其实应该叫,Web 用户体验设计提升指南。 ... 所谓的用户体验设计,其实是一个比较虚的概念,是秉承着以用户为中心的思想的一种设计手段,以用户需求为目标而进行的设计。设计过程注重以用户为中心,用户体验的概念从开发的最早期就开始进入整个流程,并贯穿始终。 良好的用户体验设计…