首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
凌虚
掘友等级
公众号:系统架构师Go
微信公众号:系统架构师Go 【可内推岗位】
获得徽章 8
动态
文章
专栏
沸点
收藏集
关注
作品
赞
607
文章 605
沸点 2
赞
607
返回
|
搜索文章
赞
文章( 605 )
沸点( 2 )
Kubernetes 10 问,测测你对 k8s 的理解程度
Kubernetes 10 问 假设集群有 2 个 node 节点,其中一个有 pod,另一个则没有,那么新的 pod 会被调度到哪个节点上? 应用程序通过容器的形式运行,如果 OOM(Out-of-
Kubernetes Extended Resource 扩展资源使用简介
Kubernetes 除了提供基于 CPU 和内存的传统计算资源调度外,还支持自定义的 Extended Resource 扩展资源,以便调度和管理其它各种类型的资源。 Extended Resour
Kubernetes Node 节点的生命周期简述
Node 节点是 Kubernetes 的核心组件之一,其生命周期可以简要概括为:注册、运行、下线。本文将简要介绍 Node 生命周期中发生的关键事件。 节点注册 每个 node 节点都需要运行 ku
Kubernetes Node 节点上的镜像管理
本文将详细介绍 Kubernetes 如何管理节点上的镜像。 拉取镜像 Kubelet 通过 gRPC 协议与 CRI 组件(如 containerd、cri-o)进行交互。在创建新 Pod 时,ku
如果自建 ChatGPT,我会如何从 Model、Inference runtime 构建整个系统
ChatGPT 是一个基于 LLM 的对话系统。本文将介绍如何构建一个类似 ChatGPT 的系统,包括从模型、推理引擎到整体架构的构建过程。 系统概览 让我们关注最核心的对话部分。 如上图所示,we
以翻译 Kubernetes 文档为例,探索 AI 模型 Fine-Tuning 微调
在现在的 AI 领域,Fine-Tuning(微调)是一种常见且有效的方法,通过对已经训练好的模型进行特定任务的微调,可以使模型在特定场景下表现得更加出色和符合需求。在这篇文章中,我将以 Kubern
Kubernetes GPU 调度和 Device Plugin、CDI、NFD、GPU Operator 概述
随着人工智能(AI)和机器学习(ML)的快速发展,GPU 已成为 Kubernetes 中不可或缺的资源。然而,Kubernetes 最初设计的调度机制主要针对 CPU 和内存等常规资源,未对异构硬件
只想简单跑个 AI 大模型,却发现并不简单
之前我用 Ollama 在本地跑大语言模型(可以参考《AI LLM 利器 Ollama 架构和对话处理流程解析》)。这次想再捣鼓点进阶操作,比如 fine-tuning。 我的想法是:既然有现成的大模
AI LLM 利器 Ollama 架构和对话处理流程解析
Ollama 概述 Ollama 是一个快速运行 LLM(Large Language Models,大语言模型)的简便工具。通过 Ollama,用户无需复杂的环境配置,即可轻松与大语言模型对话互动。
Kubernetes:Seccomp、AppArmor、SELinux & Pod 安全性标准和准入
在云原生环境中,为确保容器化应用的安全运行,Kubernetes 利用了 Linux 内核的三大安全机制:Seccomp、AppArmor 和 SELinux,并引入了 Pod 安全性标准与准入控制来
下一页
个人成就
文章被点赞
711
文章被阅读
90,489
掘力值
3,427
关注了
26
关注者
103
收藏集
0
关注标签
51
加入于
2017-03-10