1026 早早聊 AI 资讯|CPU 换帅,130 亿参数大模型塞进 PC、科技巨头联手成立前沿模型论坛、禁芯令提前生效,4090 意外豁免...

960 阅读13分钟

👉👉原文链接👈👈

「 最新活动 」

◇ 杭州 AI 峰会:AI 最后一公里,变现探索 🔗 Link

AI 浪潮,一起搞钱!早鸟有限,详情链接:xhkzr.xet.tech/s/2LquL0

AI 峰会 - 掘金活动 940540.png

「 行业动态 」

◇ 最强 CPU 一夜易主,130 亿参数大模型塞进 PC 🔗 News

在骁龙峰会上,高通正式发布了骁龙 X Elite 芯片,专为 PC 笔记本设计,在性能和功耗方面刷新了行业记录,直接对比 ARM 和 x86 架构,胜过了苹果 M2 Max 和英特尔 i9 系列。骁龙 X Elite 的性能是竞品的两倍,而功耗仅为竞品的三分之一。首款搭载骁龙 X Elite 芯片的 AI PC 将于明年年中推出,它不仅提供卓越的性能和续航,还拥有独特的通信技术和更强大的终端 AI 推理能力。此芯片能够在终端上运行超过 130 亿参数的生成式 AI 模型,重新定义了 PC 的功能,使各种任务无需互联网连接即可在笔记本上完成。高通在 AI 领域的长期研发实力和品牌影响力使其能够引领这一技术潮流,成为终端 CPU 领域的新领袖。高通的 AI 路线图包括云端、终端和混合 AI 端,以实现不同终端设备之间的无缝衔接,将 AI 技术在各种领域重新定义。

OpenAI 、Anthropic、Google 和 Microsoft 共同成立前沿模型论坛 🔗 Twitter

OpenAI、Anthropic、Google 和 Microsoft 发布联合声明,宣布成立前沿模型论坛。旨在确保全球前沿人工智能模型的安全、负责任的开发和使用。Chris Meserole 被任命为前沿模型论坛的首任执行董事,他将负责推进人工智能安全研究、制定前沿模型的安全最佳实践、分享知识与政策制定者和其他利益相关方,并支持人工智能解决社会挑战的努力。此外,他们宣布创建 1000 万美元的人工智能安全基金,由多个慈善合作伙伴和行业领先公司提供资金,用于支持人工智能安全研究,特别是红队人工智能模型新模型评估和技术的开发。这一举措旨在增加人工智能系统的安全标准,帮助行业、政府和民间社会更好地理解和应对人工智能的挑战。

◇ 突发!禁芯令提前生效,4090 意外豁免 🔗 News

美国突然提前生效了对半导体芯片的出口禁令,比原计划整整提前了 24 天,从 10 月 23 日起,即日生效。令中国无法再获得英伟达等尖端 AI 芯片,根据英伟达提交的最新文件,RTX 4090 不再受到影响。这严格的限制对国内 AI 大模型的算力训练带来了巨大困扰。新规定超出预期,堵住了大部分漏洞,限制了高性能 AI 芯片的出口。此次禁令还补上了带宽限制的漏洞,使大规模 Transformer 模型无法高效运行。同时,对半导体生产设备的控制也有所增加,影响了设备出口。这对 ASML 等企业的出口和业务产生了明显影响。中国的半导体市场需求持续增长,然而,出口管制对半导体行业产生了巨大的影响,尤其是对华销售额。

◇ 谷歌计划在 2024 年推出“下一代系列机型” 🔗 News

Alphabet 首席执行官表示,Gemini 是谷歌计划在 2024 年推出的第一个多模态 AI 模型,旨在至少赶上 OpenAI 的 GPT-4,将发布不同尺寸和功能的产品,并立即用于所有内部产品,很可能取代当前的 PaLM-2 语言模型,开发人员和云客户将通过 Vertex AI 进行访问。谷歌还在奠定未来创新基础,将 Gemini 打造成多模态、高效的工具和 API 集成,支持无代码应用程序开发,如新的 AI 工具 Stubbs,该工具可能由 Gemini 提供支持,可用于生成应用程序原型,并可能涉及名为"Multimodal IT M"的 AI 模型,该模型不仅支持文本处理,还能处理图像和图像字幕。

◇ 北大数学课,启用 AI 助教 🔗 News

北大的数学课程引入了名为"Brainiac Buddy"的 AI 助教,学生和教师都能从中受益。这个 AI 助教能够解析冗长的教案,为学生提供重点和答疑支持,同时也帮助教师管理课程材料,从而提高教学效率。这个 AI 助教是基于 GPT-4 开发,专门优化了数学课程,提供个性化和定制化的学习支持。董彬教授是这一创新的推手,他认为 AI 助教可以提高学习效率和个性化,使学生能够更好地与课程互动。董彬希望让更多同行使用这一工具,并强调提出问题的方式很关键,背景信息的提供有助于 AI 提供更好的答案。AI 助教的目标是改善教育方式,使学习更高效。

◇ 老黄苏妈齐聚现场!芯片巨头围观首款 AI PC 🔗 News

在 Tech World 峰会上,联想发布了首款 AI PC,这款电脑利用大模型技术,能够创建本地知识库、智能剪辑家庭视频和提升生产力。联想还推出了“人工智能双胞胎”,将 AI 技术与个人和企业应用结合起来,帮助企业优化流程和制定旅行计划。此外,联想展示了一系列 AI 技术,包括手语翻译成文本和语音。Tech World 峰会吸引了英伟达、AMD、英特尔和高通等芯片巨头的关注,他们宣布了一些合作计划。

◇ 人类“投毒”反击 AI!Stable Diffusion 指狗为猫 🔗 News

人类在面对 AI 不断挤压生存空间时,采取了反击措施。芝加哥大学团队开发了一个名为 Nightshade 的工具,能够让 AI 中毒并混淆概念,导致生成的图像混乱。艺术家们通过在画作中投毒的方式,成功地让 AI 模型无法区分牛与汽车、猫咪与小狗的区别。这个工具使用了特定的毒化攻击方法,让 AI 模型将目标概念与另一个不相关的概念混淆。实验结果表明,使用 Nightshade 攻击仅需很少的投毒样本就能成功攻击所有四个散射模型,并且投毒样本数量越少,攻击效果越好。现在,研究团队打算将 Nightshade 集成到另一款产品中,让艺术家们自己选择是否下毒。这一发明得到了艺术家们的热烈欢迎,他们认为这是对抗 AI 的胜利。

◇ 清华&通院让 AI 智能体成功识破谎言! 🔗 News

清华大学自动化系与通用人工智能研究院的研究团队进行了一项研究,探讨了大型语言模型在处理欺骗性信息环境中的挑战。研究团队使用阿瓦隆桌游作为案例,旨在测试这些模型在欺骗性情境下的性能,并提出了一个名为 ReCon 的框架。该框架通过启发于人类思考方式,特别是"三思而后行"和"换位思考"的原则,以提高 LLMs 在桌游中识别和应对欺骗性信息的能力。这项研究的贡献包括在测试 LLMs 在欺骗性环境中的局限性时,提出了 ReCon 框架,以增强这些模型的性能。

AI 大佬再发联名信,AI 太危险! 🔗 News

人工智能领域的杰出专家,包括 Bengio、Hinton、姚期智 Andrew Yao 和张亚勤等,联名发表了一篇题为「在快速发展的时代管理人工智能风险」的文章,呼吁采取紧急治理措施,以应对快速发展中的 AI 系统可能带来的巨大风险。随着 AI 系统的不断发展,他们警告说,AI 可能在多个领域超越人类智能,而人类社会尚未做好准备来管理这些风险。他们认为,需要建立有效的政府监管框架,以确保 AI 系统的安全性和道德性,并制定国家和国际标准来规范 AI 的开发和使用。这一联名信强调了管理人工智能风险的迫切性,并呼吁对未来的 AI 系统进行更严格的监管和控制,以避免潜在的危险和滥用。

◇ 实测商汤医疗健康 大模型 「大医」 🔗 News

商汤医疗健康大模型「大医」升级,支持智能自诊、用药咨询、智慧病历总结、智慧随访等医疗应用场景。大医具有千亿参数规模和万亿 token 预训练语料,整合高质量医学知识数据,提供内嵌 13 个预设场景和自定义提示工程,满足多样化细分医疗需求。它还支持知识库插件、长程记忆存取、医学计算器等功能,以及模型压缩技术,降低部署门槛,已在多家医疗机构成功落地。大医为医疗健康行业提供了灵活、可塑、产业级的大模型,推动数字化转型,为行业带来新的创新机会。

◇ DISC-FinLLM:复旦大学团队发布中文 智慧金融 系统 🔗 News

复旦大学数据智能与社会计算实验室近期发布了名为 DISC-FinLLM 的中文大语言模型,专注于金融领域。该模型不同于通用性质的语言模型,它是一个多专家系统,包括金融咨询、文本分析、计算和知识检索问答等四个专业模块。这个模型的独特之处在于其能够满足多样的金融需求,包括为金融从业者提供分析和咨询、为金融科技开发者提供信息抽取、情感分析等任务,以及协助学生解答金融问题。金融领域的高度专业性对语言模型提出了挑战,但 DISC-FinLLM 通过合理的数据构建和多专家微调方法,在金融领域表现卓越。这一模型为金融领域提供了强大的智能支持,提高了工作和学习的效率,为金融从业者和学生带来了便捷和可靠的金融服务。

◇ 让 LLM 更容易被 GPU 访问 🔗 Twitter

近期,对于 LLM 来说,特别是对那些 GPU 性能有限的用户,有了一些令人兴奋的突破性技术。首先,Flash Attention 的引入,它对 Transformer 架构的核心进行了调整,以实现更好的扩展,特别适用于大型语言模型。这项技术减少了内存负担,提高了计算效率,同时保持了注意力质量。此外,Flash Decoding 技术进一步增强了长上下文推理的性能,通过引入额外的并行化维度,特别适用于上下文长度较大的情况。这两项技术的结合将降低计算成本,提高 LLM 的访问性,同时不降低性能。这对于处理长数据序列的任务非常有帮助,尤其是需要降低延迟和提高响应时间的生产环境中。

◇ NVIDIA 研究中心推出更多机器人技术作品 🔗 Twitter

HITL-TAMP 是一个不断发展的 TAMP 系统,它结合了从人类演示中学习视觉运动技能和执行接触丰富的长期任务的能力。这个系统解决了从人类演示学习可以解决接触丰富的任务,但难以为长期任务收集足够数据的问题,以及 TAMP 适用于长期任务但不适用于接触丰富任务的问题。在 HITL-TAMP 中,TAMP 在数据收集期间将不知道如何执行的任务部分推迟给人类操作员,然后在部署过程中使用接受过这些演示培训的代理来执行任务。这允许 TAMP 既处理接触丰富的任务,又减轻了操作人员的负担。用户研究表明,HITL-TAMP 相对于传统远程操作,使操作员能够更有效地演示任务,增加了数据收集的效率,新手用户只需短时间内就能训练出熟练的策略。

◇ 第一个拥有 8K 上下文长度的开源模型 🔗 Twitter

jina-embeddings-v2,、是世界上第一个拥有 8K 上下文长度的开源模型。与 OpenAI 专有模型的能力相匹配,标志着文本嵌入领域的一个重要里程碑。模型支持 8192 序列长度,基于 Bert 架构,使用 JinaBert 的对称双向变体,经过 C4 数据集的预训练,进一步训练在 4 亿句子对和硬否定上,适用于处理长文档的用例,参数数量为 137 万,性能优于小型模型,建议在单 GPU 上进行推理。

Meta Long Llama 击败 GPT-3.5,与 GPT-4 正面交锋 🔗 Twitter

  • 亮点:

    • 文本情境:支持长达 32,000 个字符。
    • 性能:在长文本任务中超越 GPT-3.5,与 GPT-4 在摘要生成方面相匹敌。
    • 效率:计算成本降低 40%,性能不减。
  • 技术细节:

    • 位置编码:进行了调整以更好地处理长文本。
    • 额外训练:使用了更多的数据集,包括更长的文本。
  • 指导调整:

    • 问答任务:从长文档中生成。
    • 验证:Llama 2 70B 验证了问答对。
    • 微调:使用了合成和短指导数据。

「 融资快讯 」

◇ 「HiddenLayer」获 5000 万美元 A 轮融资 🔗 News

HiddenLayer 公司获得了 5000 万美元 A 轮融资,由 M12 和 Moore Strategic Ventures 联合领投。公司开发了 AI 安全平台,用于保护企业的 AI/ML 模型,通过简单且高效的方式预防网络攻击。该平台与多家领投公司合作,改进了 AI 模型的安全性,满足了企业对 AI 模型安全性的高度关切。HiddenLayer 已获得荣誉,并在金融和网络安全领域为多家财富 100 强公司提供了保护。随着对 AI 攻击的担忧增加,HiddenLayer 的 MLSec 平台应运而生,为 AI 安全领域的未来发展铺平道路。

「 早点趣玩 」

◇ Zero123Plus:一张图片变身六个独特视角

「 技术阅读 」

◇ 剖析 GPT 中翻译的上下文学习 🔗 Twitter

最近利用大型语言模型的大部分工作都集中在选择少量样本进行提示。这项研究发现源-目标映射的不对称扰动会导致截然不同的翻译结果,表明目标端的扰动对翻译质量有显著影响。为了改善零样本翻译性能,提出了一种名为 Zero-Shot-Context 的方法,能够自动添加输出文本分布信号。

「 课程推荐」

◇ 吴恩达新课《LangChain 的功能、工具和代理》 🔗 Link

  • 使用 LLM 生成结构化输出,包括函数调用;
  • 使用 LCEL,简化了链和代理的定制,构建应用程序;
  • 将函数调用应用于标记和数据提取等任务;
  • 使用 LangChain 工具和 LLM 函数调用等了解工具选择和路由。