首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
你在看啥
特派员 @汪汪队特别行动组
·
3年前
关注
屏蔽作者: 你在看啥
举报
兄弟姐妹们,我想问一下小程序提交审核与发布是不是只要上传小程序的前端代码啊?
技术交流圈
等人赞过
分享
18
7
相关推荐
谁说用户修改头像或昵称后,要把历史消息全都改一遍的?一个群几百万条消息,你说随便一个用户改下资料你就遍历更新上百万条数据,蝈蝈。你这样子会把服务器搞宕机的知道吗?而且没设置备注的用户看历史消息都不知道是谁了。我再说一遍,修改用户资料后,只影响新发的消息,历史消息不会即时去改的啊!
2 赞 ·
25 评论
Web3登录重置密码的方式,使用钱包对特定信息进行签名,然后服务端从签名中提取钱包地址,无需上链。
0 赞 ·
1 评论
在个人笔记本上纯CPU跑通了一套非Transformer、可训练的长序列高效空间注意力架构,细节如下↓:
1.硬件:CPU:i7-12700H
16G内存
GPU:RTX 3050(全程仅用CPU,未启用GPU)
能力:原生支持超高维稀疏表示,500+长度序列稳定训练收敛
2.特点:完全自研,不依赖现有大模型框架,实现了轻量化、低硬件依赖的注意力机制
(注释:在这种消费级笔记本CPU+16G内存的配置下,标准Transformer很难支撑500长度序列的稳定训练,尤其是笔记本,还没开始多久就炸了)
3.附注意力热力图(log10归一化后),可以看到典型的稀疏空间分布模式,与传统Transformer注意力结构有明显区别。
后续计划:近期会开源核心实现,采用 GNU通用公共许可证第3版(GPL-3.0),若有兴趣,欢迎关注交流。
#AI 编程#
1 赞 ·
0 评论