彻底疯狂!32B DeepSeek大模型免费用,CNB YYDS

1,897 阅读4分钟

你的AI部署日常:

掏空六个钱包买显卡 → 组建运维敢死队 → 电费账单让人心梗 → 模型还没跑起来公司先破产(扎心了吗?)

现在,有了CNB!核弹级DeepSeek部署解决方案!

✓ 一键召唤32B大模型(比叫外卖还简单)
✓ 分支即模型(像点菜一样勾选你的AI套餐)
✓ Docker远程开发环境(人在沙滩躺,模型云端跑)
✓ 免费额度离谱到笑醒(1600核时/月≈64G的机器满负荷运转50小时)


手把手白嫖指南——有手就会版

(温馨提示:以下操作比泡方便面更快,请控制心跳频率)

Step 1️⃣ 注册

▷ 操作:打开CNB官网 → 右上角微信扫码登录!

image.png

Step 2️⃣ Fork仓库

▷ 操作

  1. 先新建一个组织,随便建,赶紧建,点加号,起个名字,快点,下一步了!

  2. 什么都不用管,直接打开搜索栏,搜索栏搜索,deepseek。选择红框里的这个官方示例仓库。

image.png

  1. 进入仓库,右上角,Fork。不知道哪个是fork,没关系,看图!fork完成会自动跳转回你自己的仓库。

image.png

  1. 选择你要运行的模型,怎么选呢?打开分支,你就明白了!分支名就是你要跑的模型,选吧,一选一个不吱声。 image.png

Step 3️⃣ 一键启动:召唤神龙的正确姿势

▷ 操作

  1. 只需要,点击,云原生开发!完事了,结束了~真的,别人ollama还没下完,你部署好了!(期间够你发个凡尔赛朋友圈,发他半天都没问题)

image.png

  1. 中途会出现一个页面,选择WebIDE,至于其他的,朋友你部署完慢慢研究!

image.png 3. 这时候我们就打开了一个在线VsCode,我们要做的第一件事情是,在控制台执行一下这个命令

export OLLAMA_HOST=0.0.0.0

image.png

  1. 最后就是召唤神龙的命令!
ollama serve &
ollama run $ds

结束了,朋友!

当然你可能很疑问怎么使用~来看图:

image.png

在控制台的旁边,有一个PORT选项卡,里面会有一个ForwardAddress,直接复制他。

无论你使用的是什么WEBUI,ChatBox也好,WebUI也好, 你复制出来的地址,就是DeepSeek API的地址,就像这样:

image.png


这玩意儿,免费!

从CNB的定价 | 云原生构建文档里可以看到。1600核时呀,你跑一个32b的模型,32核够你折腾了吧,你可以用50个小时!

这年头,啥玩意儿能让你免费跑一个大模型跑50个小时!32B呀,我的朋友们!

CPU(核)内存(GiB)免费额度可用时长适用场景
121600小时可支持10人,每天使用8小时,持续20天
24800小时可支持5人,每天使用8小时,持续20天
48400小时可支持3人,每天使用8小时,持续16天
816200小时可支持1人,每天使用8小时,持续25天
1632100小时可支持1人,每天使用8小时,持续12天
326450小时可支持1人,每天使用8小时,持续6天
6412825小时可支持1人,每天使用8小时,持续3天

当然还没完!

自媒体特权计划

c58142eec512c4715cf073b4846a0ff6.png CNB目前在公测阶段,推出了针对为cnb宣传的自媒体推广计划!16000核时!什么概念!

心动吗?

那还等啥呢!!

⏳ 终极警告
当前已有__114514__名开发者正在抢夺免费特权,你的每一次呼吸都在损失价值__0.32个比特币__的算力!