👉👉原文链接👈👈
阅读详细图文,可访问知识库
◇ 微软和苹果退出 OpenAI 董事会 🔗 News
微软和苹果放弃了在OpenAI董事会的职位。微软八个月前获得了无投票权观察员地位,而苹果原本计划加入该非营利组织的董事会。现在,OpenAI将与微软和苹果等战略合作伙伴以及Thrive Capital和Khosla Ventures等投资者定期举行会议。微软和苹果退出的一个可能原因是美国和欧盟正在进行的反垄断调查。微软已向OpenAI投资超过100亿美元,并在其许多AI产品中使用GPT技术。微软官方表示,其作为董事会无投票权观察员的角色不再必要,因为OpenAI现在已步入正轨。苹果则拒绝置评。
◇ 微软不会效仿 OpenAI 阻止中国获取人工智能模型 🔗 News
OpenAI 即将禁止中国用户使用其人工智能 (AI) 模型的应用程序编程接口 (API) 访问,但这并不适用于 Microsoft Azure 在华的客户。据 Seeking Alpha 周一 (7 月 8 日) 援引 The Information 的一篇付费文章报道,Azure 通过一家合资企业在中国运营,并在公开声明中明确表示,其人工智能模型可供中国客户使用。
◇ 国防 AI ****初创公司 Helsing 筹集 4.87 亿美元 C 轮融资,计划扩张波罗的海以对抗俄罗斯威胁 🔗 News
国防人工智能初创公司 Helsing 在由 General Catalyst 领投的 C 轮融资中筹集了 4.5 亿欧元(4.87 亿美元)。该公司现在计划扩大其在俄罗斯边境欧洲国家的影响力。这一消息是在北约在华盛顿特区举行年度峰会时宣布的,俄罗斯入侵乌克兰是此次峰会的首要议题。
◇ 全球首届 AI 奥数竞赛,DeepSeekMath 成为 TOP 团队的共同选择 🔗 News
AIMO历时3个月,近日公布了进步奖获奖名单,引起人工智能圈广泛关注。获奖的Top4团队都选择了DeepSeekMath - 7B作为基础模型,并取得了较高的准确率,其中第一名的Numina达到了29/50的正确率,令数学大神陶哲轩惊叹,表明AI的数学能力已具备IMO候选人资质。介绍了TOP4获奖团队公布的模型细节,包括使用的微调方法、参数设置等。DeepSeekMath通过开源模型的方式推动了技术交流与模型能力探索,DeepSeek - Coder - V2已集成其数学能力,用户可前往官网或开放平台体验。
◇ PaintsUndo:数字绘画中绘画行为的基础模型 🔗 News
Paints-Undo 是一个旨在提供人类绘画行为基础模型的项目,希望未来的 AI 模型能够更好地与人类艺术家的真实需求保持一致。“Paints-Undo”这个名字的灵感来自于相似性,即模型的输出看起来像在数字绘画软件中多次按下“撤消”按钮(通常是 Ctrl+Z)。Paints-Undo 提出了一系列模型,它们以图像作为输入,然后输出该图像的绘制序列。该模型展示了各种人类行为,包括但不限于素描、上墨、着色、阴影、变换、左右翻转、颜色曲线调整、更改图层可见性,甚至在绘制过程中更改整体思路。
◇ 中国对 ChatGPT 等 生成式AI 的应用全球第一,超过美国! 🔗 News
SAS对多个国家的企业领导者进行调查,查看他们对ChatGPT等生成式AI产品的应用情况。结果显示,中国在生成式AI的应用率和法规建设、安全监控方面排名全球第一,美国排名第三。中国以83%的应用率排名第一,这得益于中国庞大、成熟的应用市场和领先的科技行业。从企业全面实施的视角来看,美国以24%排名第一,中国以19%排名第二。ChatGPT掀起了全球生成式AI热潮,各行业加大了对该领域的投入,但在监管、实施、部署、应用等方面遭遇了困难。SAS认为,生成式AI厂商和组织克服落地困难取得成功可以考虑增加对数据使用的信任以及合规性、释放商业价值、将生成式AI与现有系统相结合使用、找到合适的人才等4点。从行业属性来看,电信、零售、保险、银行以及生命科学是生成式AI应用最多的几个行业。
◇ 大模型 最强架构TTT问世!斯坦福UCSD等5年磨一剑, 一夜推翻Transformer 🔗 News
斯坦福、UCSD等机构的研究者提出全新架构TTT,有望改变语言模型方法。该架构研究超5年,旨在解决RNN在长上下文建模中的不足。TTT层直接替代注意力机制,通过自监督学习将历史上下文压缩为隐藏状态,其更新规则类似梯度下降。TTT - Linear和TTT - MLP在实验中表现出色,赶超Transformer和Mamba。RNN存在难以利用长上下文信息的问题,而TTT巧妙解决了这一不足。为提高TTT层运行效率,研究人员采用mini - batch的token和对偶形式。TTT层的自监督任务至关重要,研究人员通过端到端方法优化该任务以实现更好的token预测。在实验中,TTT - Linear和TTT - MLP在不同上下文长度下展现出优势,且TTT层在实际运行时间上也具有高效性。总的来说,TTT架构为语言模型带来了新的突破,具有广阔的应用前景,未来可能在长视频建模等领域发挥重要作用。
◇ 鄂维南院士领衔新作: 大模型 不止有RAG、参数存储,还有第3种记忆 🔗 News
上海算法创新研究院、北京大学等机构的研究者受人类大脑记忆层次结构启发,为LLM配备显式记忆的研究成果。显式记忆作为LLM的第三种记忆形式,可降低训练和推理成本。研究者引入新的记忆格式,将知识库转换为稀疏注意力键 - 值的显式记忆,并在推理中集成到自注意力层。Memory 3模型利用显式记忆,减轻了模型参数记忆特定知识的负担,其性能超过更大规模的SOTA模型,且推理速度更快。预训练包括warmup和持续训练两个阶段。实验结果表明,Memory 3在一般能力、对话能力、专业能力和抗幻觉方面表现出色,能快速适应新领域和任务,且解码速度优于其他模型。总的来说,显式记忆为LLM的发展带来了新的突破,具有重要的应用价值。
◇ 国内首个!对标GPT-4o,商汤流式多模态交互 大模型 「日日新 5.5」发布 🔗 News
2024 年商汤科技在 WAIC 举办人工智能论坛,发布国内首个具备流式原生多模态交互能力的大模型「日日新 SenseNova 5.5」。该模型 6000 亿参数基模型性能全面提升,推理思维增强,在数理逻辑等方面表现出色。率先推出的「日日新 5o」实现“所见即所得”的全新交互模式,多任务适应强。端侧模型「日日新 5.5 Lite」全面升级,精度、推理效率提高,首包延迟降低。「日日新 5.5」多模态能力在核心测试集指标上对标甚至超 GPT - 4o。其通过整合跨模态信息,带来实时流式多模态交互体验,还能俏皮互动。现已开放试用,新注册用户有优惠。商汤的技术积累和人才布局助力「日日新」快速迭代。
◇ 千呼万唤的可灵网页版来了!基础模型重磅升级,新功能“炸场”WAIC 🔗 News
可灵网页版上线,基础模型升级,画质提升且能一次性生成10秒视频,新增首尾帧控制和镜头控制功能。可图开源,其在内部盲测和第三方测试中表现优异,还能支持多种场景和理解古诗词。快手的大模型矩阵还包括语言大模型“快意”和推荐大模型等,且搭建了数字人全流程AIGC服务,APP评论区上线了智能体“AI小快”。快手坚持自研,在大模型基础研究和前沿探索方面持续投入,注重与实际应用场景融合,重点聚焦多个场景。此外,快手积极推动生态发展,可图开源就是例证,还与高校等合作并设立基金支持科研创新。快手用行动证明了开源模型的实力,坚持为用户提供最好的AI技术。
获取更多 AI 资讯 (OpenAI、图像/音视频/XR/3D、行业动态、大模型、技术阅读、智能硬件、推荐工具等), 加群备注「 资讯 」...