首页
AI Coding
AIDP
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
运维
订阅
用户91369539812
更多收藏集
微信扫码分享
微信
新浪微博
QQ
21篇文章 · 0订阅
2025年最新大型语言模型(LLM)推理框架的全面分析与选型指南
1.大型语言模型(LLM)推理框架的全面分析与选型指南(2025年版) 2.主流LLM推理框架概览 3.框架深度解析与对比 4.场景化选型建议
超硬核:从零到一部署指南
极致的部署小白教程,包学包会,你将收获到:Redis、Docker、MySQL、jdk、Nginx的安装与配置;前后端的部署流程等知识
开源简单方便功能强大的Devops工具:Goploy
Goploy:加速您的DevOps旅程,拥抱无缝部署——选择Goploy,让您从繁琐的发布与回滚中解放出来,尽享高效、智能与便捷的自动化部署力量! - 精选真开源,释放新价值。 概览 现在大部分流行的
100 行代码打造小而美的 uni-app 请求库
基于 uni.request 的小而美的 uni-app 请求库,通过大约 100 行代码的实现,打造一个简洁高效的请求库
Docker是什么?K8s又是什么?如何从0到1实战Docker与K8s全流程部署?
什么是 Docker?什么又是 Kubernetes?它们之间有着怎么样的关系?如果制作 Docker镜像?
llama.cpp模型量化(本地) + ollama部署(docker)(超详细实况二)
上一篇我们完成了模型的微调和导出,为了在本地也能随时使用,因此我们还需要对微调后的模型文件做一些操作 llama.cpp本地编译构建+ollama部署~
torchserve在转转GPU推理服务架构下的实践
[TOC] 1 背景 转转面向二手电商业务,在搜索推荐、智能质检、智能客服等场景落地了AI技术。在实践的过程中,也发现了存在GPU利用率普遍较低,浪费计算资源,增加应用成本等问题。此外还存在线上线下处
部署 LLMs 前如何计算与优化 GPU 内存需求?
作者 | Muhammad Saad Uddin 编译 | 岳扬 将 LLMs 投入生产环境使用,会遇到诸多挑战,尤其是想要为 LLMs 高效提供所需的计算资源时。有过此类经验的人可能深有体会,GPU
Docker 万字入门教程
Docker 使用 Google 公司推出的 Go 语言进行开发实现,对进程进行封装隔离,属于操作系统层面的虚拟化技术。由于隔离的进程独立于宿主和其它的隔离的进程,因此也称其为容器。
高产胜母猪,带你上线我的新项目!
希望大家能通过这个项目掌握企业级项目的开发、优化和上线方法,得到全方面编程技能和程序员素养的提升。如果上线过程中遇到错误,也别慌张,看前后端的日志进行排查即可。