首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
北妈
前端leader、持续创业者、自媒体人 @能不能不写
·
4年前
关注
屏蔽作者: 北妈
举报
我一个好朋友「北妈」的公众号,被粉丝评为最有人情味儿的程序员号,一个坚决不想读者吃亏的互联网宠粉狂魔。曾'脑残'拒绝阿里offer。30岁前早早靠互联网赚到人生的100万。
全网文章阅读1000w+,CSDN百大博客专家,他的web入坑系列和培训班、职场避坑、深挖vue、react等系列风趣幽默,风靡全网,帮助很多人入行互联网并坚定信念。
他不止分享互联网技术,更无私分享众领域硬核干货,比如情感、房产、职业、投资等全方位经验,爱装逼,女粉众多,骚气十足,还会写小说,很值得关注。
展开
收起
查看大图
向左旋转
向右旋转
技术交流圈
赞过
分享
3
3
相关推荐
谁说用户修改头像或昵称后,要把历史消息全都改一遍的?一个群几百万条消息,你说随便一个用户改下资料你就遍历更新上百万条数据,蝈蝈。你这样子会把服务器搞宕机的知道吗?而且没设置备注的用户看历史消息都不知道是谁了。我再说一遍,修改用户资料后,只影响新发的消息,历史消息不会即时去改的啊!
2 赞 ·
25 评论
Web3登录重置密码的方式,使用钱包对特定信息进行签名,然后服务端从签名中提取钱包地址,无需上链。
0 赞 ·
1 评论
在个人笔记本上纯CPU跑通了一套非Transformer、可训练的长序列高效空间注意力架构,细节如下↓:
1.硬件:CPU:i7-12700H
16G内存
GPU:RTX 3050(全程仅用CPU,未启用GPU)
能力:原生支持超高维稀疏表示,500+长度序列稳定训练收敛
2.特点:完全自研,不依赖现有大模型框架,实现了轻量化、低硬件依赖的注意力机制
(注释:在这种消费级笔记本CPU+16G内存的配置下,标准Transformer很难支撑500长度序列的稳定训练,尤其是笔记本,还没开始多久就炸了)
3.附注意力热力图(log10归一化后),可以看到典型的稀疏空间分布模式,与传统Transformer注意力结构有明显区别。
后续计划:近期会开源核心实现,采用 GNU通用公共许可证第3版(GPL-3.0),若有兴趣,欢迎关注交流。
#AI 编程#
1 赞 ·
0 评论