首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
凯哥1970
掘友等级
我在打杂
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
10
文章 10
沸点 0
赞
10
返回
|
搜索文章
最新
热门
Vue 3 + Supabase 认证与授权时序最佳实践指南
本文档旨在为使用 Vue 3、Pinia、Vue Router 和 Supabase 构建的现代化 Web 应用,提供一套清晰、健壮且可扩展的认证、授权与数据初始化流程。 一、核心设计理念 传统的认证
Vue 3 + Supabase + TypeScript 完整开发实践标准
Vue 3 + Supabase + TypeScript 完整开发实践标准 1. 核心理念:关注点分离 (Separation of Concerns) 直接在 Vue 组件中执行数据库查询会将视图
新手入门之AI大数据清洗
为什么数据清洗如此重要? 在大数据时代,我们常说“垃圾进,垃圾出”(Garbage In, Garbage Out)。无论你的算法多么先进,模型多么复杂,如果输入的数据质量低下,那么得出的分析结果和决
n8n 集群模式生产环境部署指南
架构概述 n8n 集群模式采用主从分布式架构,通过 Redis 消息队列实现任务调度,PostgreSQL 作为中央数据存储,实现高可用和高并发的自动化工作流处理。 核心组件 组件 角色 端口 网络
使用 cURL 测试 vLLM API
通过几个简单的 curl 命令,你就能测试 vLLM 服务的各种功能,从基础的内容生成到复杂的参数配置。 1. 基础测试命令 首先,确保你的 vLLM 服务已经在本地的 8000 端口(默认端口)上运
openai.cookbook 如何使用 vLLM 运行 GPT-OSS
概述 vLLM 上使用 chat oss 的 openai 模型的简单教程。vllm 是一个开源的高吞吐量推理引擎,它比起 ollama 可以并发访问,提高效率。
vLLM快速入门及安装指南
快速入门 本指南将帮助您快速开始使用 vLLM 来执行: 离线批量推理 (Offline batched inference) 使用 OpenAI 兼容服务器进行在线服务 (Online servin
UV 工具安装与国内镜像源配置指南
概述 UV 是由 Astral 团队开发的高性能 Python 包管理器和解析器,旨在提供比传统工具更快的依赖解析和安装体验。本文档提供 UV 的安装指南及国内镜像源配置方法。 系统要求 支持的操作系
从 ARouter 到 LRouter 的现代 Android 架构
ARouter 的问题 在安卓开发时,很多朋友使用 ARouter,它提供了自动注册路由表的 arouter-register 插件,但这个严重依赖于 Transform API。然而,为了提升构建性
大语言模型微调方法综合分析:技术、性能与战略实施
预训练大语言模型(LLM)作为强大的通用工具,已在自然语言处理领域取得了革命性进展。然而,它们在现实世界应用中的真正价值,是通过专业化来释放的 。微调(Fine-tuning)是实现这一目标的关键过程
下一页
个人成就
文章被点赞
59
文章被阅读
26,468
掘力值
1,250
关注了
4
关注者
19
收藏集
0
关注标签
3
加入于
2022-11-05