首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
用户00959969665
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
84
文章 84
沸点 0
赞
84
返回
|
搜索文章
赞
文章( 84 )
沸点( 0 )
我为什么选择Next.js+Supabase做全栈开发
作为一名前端工程师,选择合适的技术栈对项目的成功至关重要,我最近一个星期尝试了下这两个技术栈的组合,大概在一个星期就写了一个小 SAAS,总共 10 多个页面。在本文中,我将分享为什么我选择Next.
Next.js 项目部署到云服务器
本篇文章详细记录了完整的部署过程,包括从零配置云服务器、使用 GitHub Actions 自动化部署、nginx 反向代理、https 配置等。
RAG 实践-Ollama+AnythingLLM 搭建本地知识库
什么是 RAG RAG,即检索增强生成(Retrieval-Augmented Generation),是一种先进的自然语言处理技术架构,它旨在克服传统大型语言模型(LLMs)在处理开放域问题时的信息
二、nextjs API路由如何做好JWT登录鉴权、身份鉴权,joi字段校验,全局处理异常等(c-shopping电商开源)
在这篇文章中,我们将学习如何在C-Shopping电商开源项目中,基于Next.js 14,处理所有API路由中添加身份验证和错误处理中间件的思路与实现。
从零实现 webpack,但 Rust 版 - [1] 使用 oxc 解析并修改 JS 代码
使用 Rust 从零实现一个简单的 webpack,深入理解 webpack 的同时,还锻炼了 Rust 的技能,简直赢麻了!
从零实现 webpack,但 Rust 版 - [2] 实现 MVP 版本
使用 Rust 从零实现一个简单的 webpack,深入理解 webpack 的同时,还锻炼了 Rust 的技能,简直赢麻了!
这可能是见过的最好用的弹幕库 🔥🔥
Danmu 是一个用来管理,渲染,发送弹幕,强大可扩展的弹幕库,覆盖了很多业务场景并且提供了好用的扩展方式。
现在 Llama 具备视觉能力并可以在你的设备上运行 - 欢迎使用 Llama 3.2
Llama 3.2 来了!今天,我们欢迎 Llama 系列的下一个版本加入 Hugging Face。这次,我们很高兴与 Meta 合作发布多模态和小型模型。在 Hub 上提供了十个开源模型 (5 个
深度探索:利用 Xinference 高效部署企业级大模型
Xinference 是一款开源模型推理平台,除了支持 LLM,它还可以部署 Embedding 和 ReRank 模型,这在企业级 RAG 构建中非常关键。同时,Xinference 还提供
RAG 实践- Ollama+MaxKB 部署本地知识库
前言 本文我们介绍另外一种部署本地知识库的方案: Ollama + MaxKB 相对来说,容易安装且功能较完善,30 分钟内即可上线基于本地大模型的知识库问答系统,并嵌入到第三方业务系统中。 缺点是如
下一页
个人成就
掘力值
11
关注了
49
关注者
0
收藏集
10
关注标签
51
加入于
2024-09-05