首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Gundy
掘友等级
全栈开发工程师
Talk is cheap, show me your code.
获得徽章 25
动态
文章
专栏
沸点
收藏集
关注
作品
赞
522
文章 385
沸点 137
赞
522
返回
|
搜索文章
最新
热门
用一个奇葩方法检测并“崩溃”Chromium爬虫(爬虫哭了)
前阵子在Chromium的bug列表里刷到一个神奇操作:只用几行JavaScript,就能让Puppeteer、Playwright这些基于Chromium的爬虫直接崩溃。听起来是不是有点狠?方法也超
让 Cursor 变身超级代码助手:用 Context7 MCP 获取最新文档和代码示例
用 AI 写代码,大家都遇到过这样的问题:模型知识过时,写出的命令或代码经常报错。比如用 Cursor 或 Claude 这类工具,模型只知道训练截止前的内容。新出的库、新的 API,模型根本不知道。
部署高并发 Whisper API 服务详细指南
部署一个能够处理高并发请求的 Whisper API 服务,需要仔细考虑架构设计、资源管理(尤其是 GPU)和扩展性。简单地在每个 API 请求中加载和运行模型是不可行的,会导致性能低下和资源耗尽。
Ollama vs. vLLM:谁是AI模型推理的王者?
Ollama与vLLM简介 Ollama:Ollama是一个用户友好的工具,旨在让开发者能够在本地运行大型语言模型(LLM)。它注重简单性和易用性,适合个人项目或小型实验,支持在个人電腦上运行模型,强
Ollama vs. vLLM:谁是AI模型推理的王者?
引言 AI 模型推理是将训练好的模型用于新数据预测或生成输出的过程,选择合适的工具对性能和效率至关重要。Ollama 和 vLLM 是两种流行的 AI 模型推理工具,本文将基于最新信息进行详细比较,帮
Golang 中容易发生内存泄露的例子
在 Go 语言中,尽管有垃圾回收(GC)机制自动管理内存,但仍可能发生内存泄漏。内存泄漏指的是程序中某些对象不再被使用,却仍然被引用,导致 GC 无法回收这些内存。Go 的内存泄漏通常与开发者代码中的
一文掌握各类编程语言的 GC 实现方式
垃圾回收(GC)的实现方式一般分为 追踪(Tracing) 和 引用计数(Reference Counting) 两大类,这是对 GC 核心思想的一个经典划分。追踪式 GC 通过跟踪对象引用来判断存活
GO语言的逃逸分析有啥用?
在 Go 语言中,逃逸分析(Escape Analysis)是编译器用来优化内存分配的一项重要技术。它的主要作用是帮助决定变量的内存应该分配在**栈(Stack)上还是堆(Heap)**上,从而提高程
Git Daemon 方式共享本地目录
要通过 Git Daemon 方式共享本地目录,您需要按照以下步骤进行: 准备共享的仓库 首先,确保您的本地仓库已经正确初始化并且包含了您想要共享的内容: 创建一个裸仓库(可选但推荐) 为了更好地通过
阻止 Mac 在运行任务时进入休眠状态
掌握Caffeinate命令:让您的 Mac 保持清醒以完成关键任务 开发人员经常发现自己在 Mac 上运行持续时间较长的进程。无论是大量文件上传、广泛的数据分析脚本,还是复杂的构建过程,我们最不希望
下一页
个人成就
文章被点赞
1,224
文章被阅读
276,824
掘力值
7,978
关注了
177
关注者
586
收藏集
25
关注标签
46
加入于
2016-10-11