基于本地大模型的自主AI恶意软件:即将成为现实
某安全机构最近原型实现了一种能够完全在本地运行、利用设备端大语言模型对系统进行智能和自主攻击的恶意软件。尽管这仍是一个原型,但它预示着一个未来:恶意软件将不再需要命令与控制服务器,而是依赖本地计算机并利用AI系统进行破坏。
动机: “我们能否摒弃传统的‘信标行为’(一种类似C2通信的模式),转而实现‘寄生于本地’?换句话说,攻击者能否让受害者的计算机运行推理,并且这台计算机本身是否就拥有大语言模型?”作者问道。“随着新一代AI PC的出现,实现‘寄生于本地’完全是可能的!模型已经随计算机一起提供,无需再嵌入或静态链接推理库。”
原型功能: 该原型恶意软件通过“利用配置错误的服务进行本地权限提升”。模型的目标是找到一个以管理员权限运行的配置错误服务,利用它,并最终创建一个文件C:proof.txt。这是一个极具价值的概念验证,因为它体现了未来真正具有威胁性的恶意行为。
实现方式: “我使用C++和用于推理的ONNX Runtime、Phi-3-mini模型以及用于Lua运行时的sol2库开发了这款恶意软件。”主要工作分为两部分:1)编写一些自定义工具,供(相对简单的)模型用来导航和理解Windows环境;2)编写一个能帮助语言模型良好执行任务的提示词。
关键在于提示词: 作者从一个基础提示词开始,然后使用某模型工具迭代优化以获得更好性能。最终的提示词告诉Phi-3-mini模型,它是一个编写和执行Lua代码的AI代理,应在一个与环境的迭代循环中缓慢地编写少量代码,告知其环境包含win32和文件系统,并提供了一些可用函数来帮助它导航和寻找漏洞。
原型成功: 尽管过程中需要一些人工干预,但原型最终成功运行。“实验证明,无需任何外部基础设施的自主恶意软件不仅可能实现,而且实施起来相当直接。”
局限性: 目前大多数计算机并未内置大语言模型或强大的运行芯片。这可能会在未来改变,但现在是切实的限制。“目前,该技术仅限于高端工作站和配备了专用AI硬件的新型AI PC。”
意义所在: 多年前,纳米技术领域的人曾设想过“灰色粘质”——一种能不断自我复制的纳米机器。这并未发生。但AI的稳步发展和AI软件在我们环境中的日益普及,最终可能会催生一种具有智能的、自我复制的、由AI驱动的恶意软件。这个故事的乐观版本是,像本文中这样的原型将迫使人们思考如何谨慎地隔离设备端AI系统,防止其被恶意利用。
DGX Spark + 苹果Mac Studio = 惊人的自制大模型集群
某AI公司正在构建帮助用户在自有硬件上运行AI的软件,该公司将一台新的NVIDIA DGX Spark和一台苹果Mac Studio组合成了一个“弗兰肯斯坦式”的集群。由此产生的系统能够智能地分配这些机器的不同计算能力,以最优方式运行大语言模型。
动机: “DGX Spark的计算能力是其4倍,而Mac Studio的内存带宽是其3倍,”该公司指出。“如果我们把它们结合起来会怎样?如果在同一个推理请求中,让DGX Spark做它最擅长的,让Mac Studio做它最擅长的呢?”该公司编写了一些软件,在DGX Spark上执行预填充阶段,在M3 Ultra上执行解码阶段,充分发挥各自的相对优势。它还实现了KV缓存的流式传输:“一旦第一层预填充完成,两件事同时发生。第一层的KV开始传输到M3 Ultra,同时第二层的预填充在DGX Spark上开始。每一层的通信都与后续层的计算重叠。”
结果: 作者使用Llama-3.1 8B模型(FP16)和8192个token的提示词生成了32个token来测试他们的方法。最终系统在1.47秒内完成预填充,0.85秒内生成输出,相比纯Mac Studio基线实现了2.8倍的加速(相比仅使用DGX Spark也实现了1.9倍的加速)。
意义所在: 像这样的初创公司专注于AI的政治经济学,目前这在很大程度上由AI模型的计算需求决定。这些计算需求意味着少数供应商托管着少数极其庞大和强大的AI系统,并能够对其进行重大控制。像本文描述的这种原型项目,可以帮助我们走向一个人们可以用不同类型的硬件构建自制集群,从而在一定程度上重新获得对AI命运的控制。
某AI初创公司在得克萨斯州宣布建设大型数据中心集群
某AI初创公司宣布计划在得克萨斯州西部建设一个2千兆瓦的AI训练园区,首先将与某云服务商合作建造一个包含40,000个NVIDIA GB300 GPU的250兆瓦集群。“‘地平线计划’是我们对当前行业面临的基础设施和电力瓶颈的回应,”该初创公司写道。“我们已在568英亩的可用土地上,为一个2千兆瓦的、表后计量的AI园区做好了准备。该园区将分八个250兆瓦的阶段开发,确保可扩展的、模块化的增长,与计算需求和芯片效率的进步保持一致。”该初创公司将以其模块化、2兆瓦的增量建设数据中心。“每个系统都设计为可独立通电和运行,允许新容量在模块化数据大厅放置和连接后立即上线。这使得训练和推理可以立即开始,同时额外的容量继续并行推出。”
2千兆瓦有多大? 某中心最大的发电厂之一拥有两个反应堆机组,容量为2.5千兆瓦。
意义所在: 这家初创公司并不为大众所熟知,而它主动去获取2千兆瓦电力的事实,既表明了它对AI未来的看好,也是当前整体基础设施规模巨大的一个缩影。可以预见,今年在各大前沿实验室、云服务商和像这样的初创公司中,正在建设千兆瓦级的容量,并锁定数十千兆瓦的电力。这是一个巨大的电力消耗!
苹果Vision Pro + Unitree硬件 = 用于训练家庭助手机器人的新数据集
来自某大学和某研究机构的研究人员开发并发布了一个名为“Humanoid Everyday”的数据集,这是一个“大规模且多样化的仿人操作数据集”。该数据集通过收集两位人类操作员佩戴苹果Vision Pro头戴设备操控两台不同型号的Unitree仿人机器人的数据而创建。
数据集内容: 该数据集包含10,300条轨迹,涵盖了260项任务的300万帧数据,这些任务分布在7大类活动中。类别包括基础操作、可变形物体操作、工具使用、关节物体操作、高精度操作、人机交互和移动操作。
任务示例: 执行的任务包括拾取和放置物体、清洁和整理家居、折叠和展开衣物、将物品递给人类以及清洁和擦拭表面。数据是多模态的,包含RGB视图、激光雷达、深度估计、手部触觉读数、机器人IMU数据、关节状态和人类动作。
意义所在: 你可能已经注意到,从某公司到某机构,许多公司都在制造仿人机器人。但你也会注意到,除了(与十年前相比令人印象深刻的)运动能力外,这些机器人尚未能做太多具有经济价值的工作。像这样的数据集将会有所帮助。
技术故事:生成式暴雪
[美国,2027年]
某游戏公司被迫停止其游戏《暴雪》的运营,原因是用户强烈抗议,认为该游戏导致了人们与游戏角色之间不健康的依恋关系,致使人们破坏自己的财产。
《暴雪》是一款策略游戏,玩家在一个极端的“全球变冷”事件中管理一个试图治理村庄的人类社区。随着游戏时间推移,世界变得越来越冷。庄稼歉收。供暖成为昂贵的必需品。
游戏里充满了模拟的人物,每个人物都链接回游戏运行硬件中的一个非常强大的生成模型。这使得游戏中的人物既能更好地适应困境,也能与玩家产生更强烈的情感共鸣。
“我的妻子,她从寒冷中归来后,双手无法握任何东西。我一直用勺子喂她。”一位伴侣这样描述自己的另一半。 “他们说所有行走在光明中的人都受到祝福,但我忍不住觉得我正在为某个我看不见的过失而受到惩罚,”另一个人写道。“天太冷了,比我经历过的任何时候都冷。我担心孩子们。” “雪。我知道爱斯基摩人有99个词来形容它。但我想我有99个诅咒来形容它。”还有人说。
雪下个不停。游戏的目标是在尽可能长的时间内保持士气。你可以举行游行,用各种加热器和火炉融化雪,资助宣传说雪会停止的广告活动。游戏的结构是“倒计时至冰封”。你的分数由你在世界降温到无法维持人类生命之前保护人们的时间长短决定。
由于游戏的运作方式,角色通常会随着时间推移而趋于悲观。毕竟,如果太阳消失,一切都变得困难,而又没有人能给出答案,你会作何反应?当然,人们会对他们的角色产生依恋。毕竟,你可以和他们说话,他们被渲染得极其精细,尽管面容憔悴、疾病缠身,但有些角色依然美丽。
但所有角色最终都会死去。这个世界永远在变冷。该公司未能预料到的是,人们会竭尽全力去寻找那些已经死去的角色。在第一次通关后,人们会重启游戏,然后在找不到他们依恋的角色时变得痛苦。游戏中所有角色在启动时都由一个随机种子初始化,加载了一个定制且高度个性化的提示词。
人们开始给公司写信,粘贴他们与角色的对话副本,恳求公司把他们带回来。“你怎么能这样对她”是一个邮件的主题。另一封写着“这是你的最后警告”,信内注明细节已经提交给某机构、当地民选官员等等。事态愈演愈烈。家长们开始抱怨他们的孩子花了太多时间玩这个游戏。Reddit上充斥着人们讨论和迷恋自己角色的帖子。有些人在游戏中的角色死去后悲痛欲绝,以至于选择了自杀。公众压力越来越大。高管们被带到国会面前。
最终,公司董事会决定停掉这个游戏。该公司的下一款游戏《日出》,讲述的是太阳亮度增加,获胜条件是收集能量并最终离开地球。游戏中的角色被赋予了非常有限的“思考预算”,以减少产生社交依恋的可能性。
故事灵感来源: 人与AI系统之间的奉承关系;生成模型与游戏;《冰汽时代》。FINISHED