
获得徽章 0
- 打造你的第二大脑!🧠✨
SuperMemory(supermemoryai/supermemory) 是一个高效管理和利用信息的平台,帮助你将书签和保存的信息转化为可利用的知识库。无论是学习、工作还是个人成长,SuperMemory 都能为你提供强大的支持!🚀
功能亮点
内容捕捉神器: 通过 Chrome 插件,轻松保存推文、网站和各种内容,灵感不再错过!
超强搜索功能: 快速定位保存的任何内容,信息检索效率直接起飞!🚀
交互式对话: 与特定知识库进行自然语言交互,信息提取超轻松!🗣️
知识画布: 以 2D 空间可视化的方式组织信息,思维导图升级版!
AI 写作助手: 提供内容创意、预测性文本补全、语法错误检测、文章结构优化,写作效率直接拉满!✍️
技术栈揭秘
主 Web UI:Nextjs 14、Next Auth、Drizzle ORM、Cloudflare D1 数据库、TailwindCSS、shadcn-ui,托管在 Cloudflare Pages 上,性能稳如老狗!
Chrome 扩展:CRXJS、Vite、TailwindCSS、shadcn-ui、React,轻松添加页面到记忆库,操作超简单!
AI 后端处理:Cloudflare Workers、Cloudflare AI、Cloudflare Vectorize、Cloudflare Queues、Cloudflare Browser Rendering、Cloudflare KV、mem0,向量存储和 AI 响应生成,技术实力拉满!
具体功能
书签管理:导入、组织书签,并在需要时重新访问,信息管理超轻松!📚
联系人管理:存储和管理人脉信息,社交网络更高效!👥
与集合聊天:与特定知识库互动,信息提取超轻松!🗣️
#SuperMemory #第二大脑 #知识管理 #AI写作助手 #效率神器展开1点赞 - Argil:用SOTA deepfake模型的AI数字人
亮点抢先看
操作超简单:官网设计精美,无代码平台,新手也能秒上手!注册即用,不用懂编程和视频制作,轻松搞定视频创作!✨
个性化定制: 根据创作者身份调整叙事风格,边写边看可视化效果,实时调整内容,创作更灵活!还能选虚拟形象和声音,定制专属风格,展现独特个性!🎭🎙️
丰富视觉设计:支持多平台视频格式和比例,有机位和手势变化选项,还能换背景、音乐、字体,视频效果炸裂!🎬
不足之处⚠️
中文口型生成差
公开Avatars种类少
定价偏高
机位手势变化有限
创始人背景💡
创始人Laodis Menard,写过小说、导演过电影,多元经历让Argil兼具美学与技术风格,创意与技术完美融合!🎥📚
融资情况💰
2023年1月:Pre种子轮获100万欧元,Seedcamp领投
2024年11月:种子轮获390万欧元,EQT Ventures领投
总结
Argil让视频创作像发推文一样简单,推动视频创作大众化,解决传统视频创作成本高、耗时长等问题。虽然有些小瑕疵,但整体表现炸裂,值得一试!🚀
#AI视频创作 #Argil #数字人技术 #效率神器展开赞过评论1 - 前沿:DeepSeek V3 使用 FP8 训练,效率炸裂!
FP8训练在提升计算效率和内存使用方面有显著优势,尽管面临精度损失等挑战,但通过混合精度训练和量化技术,这些问题可以得到缓解。
这可能是DeepSeek V3性价比超高、效果超好的原因之一。
量化方式 🎯
groupwise & tilewise 双管齐下:输入按 groupwise 量化,权重按 tilewise 量化,分别拿到输入和权重的 scale。在 tensorcore 上对一条 (1x128) 和一块 (128x128) 进行 fp8 矩阵乘法后,回到 cudacore 上同时乘上 scale 进行解量化。简单来说,就是分块处理,精准量化!💡
延迟量化 vs 在线量化:传统 pertensor 框架用的是延迟量化,保留历史数据来推断当前值。但 DeepSeek 不走寻常路,直接在线量化,每次量化前都统计 max 值并计算 scale,实时更新,精准度拉满!🚀
特殊处理 ✨
精度选择:FP8 支持 e4m3 和 e5m2 两种 dtype,DeepSeek V3 全程用 e4m3 保持高精度。但在 attention 输出时,反向传播对精度要求更高,所以直接提升到 e5m6,细节控的福音!
累加方式:Nvidia H800 GPU 上,FP8 gemm 的累加精度只有 14 位,远低于 FP32。DeepSeek 的骚操作是:在 tensorcore 上做一段 wgmma 后,回到 cudacore 中累加,既保持高利用率,又确保精度不崩!
整体流程 📊
前向传播:输入用 bf16,主权重用 fp32,量化到 fp8,前向累加后输出 fp32,再 cast 回 bf16。全程丝滑,精度不掉线!✨
反向传播:wgrad 累加后天然是 fp32,优化器状态用 bf16,weight 以 fp32 更新。dgrad 在 fp8 反向后 cast 成 bf16 继续传播。每一步都精准把控,训练效率直接起飞!🚀
#DeepSeekV3 #FP8训练 #AI技术 #量化 #深度学习 #技术分享展开等人赞过评论5 DeepMind最新研究:PC-SUBQ提示策略,让AI从相关性推断因果关系!
🎯研究背景:
在日常生活中,我们经常需要从相关性推断因果关系,但这对大语言模型来说是个难题。它们缺乏严谨的逻辑分析和丰富的背景知识,难以准确推断因果关系,这限制了它们在科学研究和决策支持等领域的应用。
🚀PC-SUBQ提示策略:
理论基础:基于PC算法原理和认知任务分解理论。PC算法通过条件独立性检验从无向图开始逐步构建因果图,通过V型结构识别因果方向;认知任务分解理论则是将复杂任务进行系统化分解,构建渐进式推理链,并基于中间结果进行验证。
详细实现步骤:该策略将原始任务分解为多个子任务,每个子任务对应PC算法的一个步骤,并通过将先前子任务的答案用作下一个子任务的提示的方式来引导LLMs遵循这些步骤。同时,还提供了少量的连贯思路示例,为每个子任务提供如何独立解决的演示。
💡实验结果:
性能对比:在corr2cause基准测试中,PC-SUBQ相比其他提示策略展现出明显优势,跨五种LLMs持续观察到性能提升。例如,对于大型语言模型Palm2,使用PC-SUBQ时,F1分数从0.30上升到0.64,相应的准确度为88.7%。
鲁棒性测试:该策略在不同表达方式和自然语言场景中都表现出色,具有良好的鲁棒性和泛化能力。如变量重命名鲁棒性测试中,即使将变量名改变,模型的性能也没有显著下降;在表达方式变化测试中,当使用不同的语言表达相同的因果问题时,性能下降幅度也较小。重要结论:
PC-SUBQ能够提升LLMs在从相关声明中推断因果关系的任务上的性能,并且该方法对查询变异具备强大的鲁棒性,其产生的推理步骤具有较高的可解释性,允许追踪错误答案的责任步骤,也适用于更自然的故事场景。
论文地址arxiv.org
展开赞过评论1- 接口幂等该如何设计和实现
在程序开发的过程中是否遇到如下的问题:
同一件商品手速很快多点击了几次,在后台生成了两笔订单。
同一笔订单点了由于网络卡顿,点了两次支付,结果发现重复支付了。
微服务架构下应用间通过RPC调用失败,进入重试机制,导致一个请求提交多次。
黑客利用充值抓包到的数据,进行多次调用充值、评论、访问,造成数据的异常。
这些问题均可以通过接口幂等性设计来解决。幂等性意味着同一个请求无论被重复执行多少次,都能产生相同的结果,不会导致重复的操作或不一致的数据状态。
公众号:mp.weixin.qq.com
CSDN:blog.csdn.net
掘金:juejin.cn
知乎:zhuanlan.zhihu.com
简书:www.jianshu.com
cnblog:www.cnblogs.com
github:r0ad.github.io
#新人报到#展开评论点赞 - #新人报道#
SpringCloud和SpringBoot的版本依赖该怎么选择
Spring Cloud是一个基于Spring Boot的微服务框架,用于构建和管理分布式系统的各个组件。它提供了一套完整的解决方案,包括服务注册与发现、配置管理、负载均衡、熔断器、消息总线、数据流等功能。
SpringCloud2023为当前Spring Cloud的最新版本迭代,基于Spring6和Springboot3以后的版本研发。因此开发选择SpringCloud的版本也就对应的选择了Springboot和Spring的版本。
公众号:mp.weixin.qq.com
CSDN:blog.csdn.net
掘金:juejin.cn
知乎:zhuanlan.zhihu.com
简书:www.jianshu.com
cnblog:www.cnblogs.com
展开赞过评论1