首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
gpt
订阅
架构师聊技术
更多收藏集
微信扫码分享
微信
新浪微博
QQ
668篇文章 · 0订阅
看到大佬做四格漫画日入400+,我觉得应该做些什么了!
看到一张“母慈子孝”的聊天记录,我突发奇想:能不能让 AI 把它画出来?折腾一下午,我真的造出了一个“漫画工作室”!它有负责写脚本的“AI 编剧”,有老实干活的“AI 画师”,还有负责发文的“宣发”。
搞了一个免费Z-Image-Turbo给大家,可以无限文生图(附Mac Windows版教程&源码)
最近阿里开源的文生图小模型Z-image-Turbo强的可怕,参数量只有6B,内存占用仅仅20多G,很适合在个人电脑上做本地部署。 不过很多人说自己的笔记本没显卡跑不动,想用Z-image-Turbo
OpenCodeUI 让你随时随地 AI Coding
OpenCodeUI 是 OpenCode 的第三方 Web 前端,让你通过托管版或 Docker 随时随地远程 AI Coding。本文带你完成安装部署、体验核心界面与功能。
Claude Code 生态爆发:5个必知的新工具
现在很多同学还是把 Claude Code 当成一个“可以在终端里写代码的 AI 工具”。 但是,这两天我越来越觉得,Claude Code 这玩意儿已经不是单个工具了,它开始长生态了...
基于 vLLM 的大模型推理服务部署
基于vllm的环境搭建部署流程(pip install以及vllm源代码部署两种方式),以及框架、参数优化。
本地部署vLLM+Qwen3:高性能大模型推理引擎,比Ollama强在哪?
在人工智能快速发展的今天,越来越多企业开始部署自己的大语言模型。然而面对动辄数十亿参数的大模型,如何高效稳定地运行它们成为技术团队面临的共同挑战。
AI大模型本地私有化部署
1.魔塔社区平台介绍 2.魔塔社区下载模型 3.Qwen大模型文件目录解析 4.使用transformer加载下载至本地的通义千问 5.Ollama 6.vLLM 7.LMDeploy
本地部署Qwen3-8B模型记录
首先你要有一台gpu服务器,我这里租算力云的4090D : 硬件准备就绪后,我们开始下载Qwen/Qwen3-8B的模型文件,打开这个链接魔塔社区 可以看到通义千问的各个模型,找到qwen3-8b点击
vLLM快速入门及安装指南
快速入门 本指南将帮助您快速开始使用 vLLM 来执行: 离线批量推理 (Offline batched inference) 使用 OpenAI 兼容服务器进行在线服务 (Online servin
🦞OpenClaw 快速部署及使用指南
🚀 快速开始 第一步:安装核心环境 OpenClaw依赖Node.js环境,我们使用nvm来管理Node.js版本,避免版本冲突。 安装 nvm for Windows 访问 nvm-windows