首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
三斗米
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
28
文章 26
沸点 2
赞
28
返回
|
搜索文章
最新
热门
从3天到10分钟!我是如何用 Coze 编程实现“X音视频自动转文字”工作流自动化的?
今天为了兑现之前的说开放之前所有工作流的事,就准备梳理一下我的工作流,打开coze一看,竟发现之前Coze AI编程刚发布时,随手写的一个“实时监测对标公众号”的程序竟然每天在自动运行,这让我深感意外
【AI编程开发者福利】发现2个宝藏网站,可领赠J
开发者福利,免费薅羊毛,可以使用claude和gpt Any Router 1.注册即送75刀:https://anyrouter.top/register?aff=Gkb9 2.要求注册必须是edu
MCP的4种使用方式
1. 使用 npx 安装 Playwright MCP(或其他 npm 发布的 MCP 服务) ✅ 原理: 利用 npx 直接运行一个已发布到 npm 的 MCP 服务器包。 claude mcp a
在Codex中配置使用智谱、Ollama本地模型
如何在Codex中配置使用智谱、Ollama本地等模型,根据实际需要随意切换。敏感文件还可以使用本地模型
Transformer入门:一文读懂《Attention Is All You Need》
引言:颠覆NLP领域的新架构 2017年,一篇名为《Attention Is All You Need》的论文横空出世,正如其标题所揭示的,它宣告了一个仅凭“注意力机制”就能独当一面的新时代。这篇论文
为什么 Transformer 的 FFN 要先“升维”再“降维”?这种“瓶颈结构”到底在做什么?
🌟 1. 直觉:FFN 是每个 token 的“独立思考专家” 在 Transformer 中,自注意力机制(Self-Attention)负责让各个 token 互相交流、聚合上下文信息。 但光有交
n8n创建volumn和容器
1.创建命名卷 n8n_data 2.创建容器 挂载目录:$HOME/Documents/docker/n8n_files
从思维链到思维树:一步步解锁大语言模型的推理能力
从思维链到思维树:一步步解锁大语言模型的推理能力 1. 为什么大模型也需要“学”会思考? 尽管大语言模型(LLMs)在处理海量信息和生成流畅文本方面表现出色,但它们常常在需要复杂推理的任务上遇到困难,
mac本地搭建claude code+通义千问
1.检查是否安装node和npm node -v npm -v 若显示版本号,则已安装,否则请安装,这个很多教程,就不多说了 2.安装 打开命令⾏,输⼊: 检查是否安装成功 3.配置千问大模型 3.1
mac系统查看所有安装的Python版本
查看mac系统中安装的所有python版本,再也不用为多版本发愁了。执行脚本:sh 路径/check-python.sh
下一页
个人成就
文章被点赞
3
文章被阅读
6,154
掘力值
263
关注了
68
关注者
0
收藏集
0
关注标签
36
加入于
2018-02-14