每日AI资讯05-20

123 阅读2分钟

每日AI资讯05-20

新闻摘要

1.Kimi尝试探索用户付费模式

2.周鸿祎:大模型将重塑行业,打造大模型工厂

3.海淀区推出“文旅大模型”,全方位智能服务提升旅游体验

4.国内超300个大模型仅4成完成备案

5.OpenAI解散安全团队备受质疑!马斯克:安全并非首要任务

6.奥特曼承认离职骂OpenAI将被取消股权:但从未实施过,将取消

7.GPT-4o团队引发OpenAI组织创新热议,应届生领衔Sora,本科生带队GPT-1,经验职级都是浮云

8.高层离职引发内部动荡,OpenAI面临内外双重压力

9.英国研究:AI聊天机器人安全措施易被绕过

扫码加入交流群

获得更多技术支持和交流

(请注明自己的职业)

123

1.Kimi尝试探索用户付费模式

Kimi作为AI生成式对话搜索引擎,近期开始向部分重度用户试探付费可能性。在高峰时段,部分用户收到消息,提示算力不足,可选择付费以优先使用。付费方案包括5.2元/4天至399元/365天不等,赋予用户高峰期优先使用权。这一举措被视为Kimi尝试商业化路径的开始,但尚处于试探阶段。专家认为,这是一种友好试探,能初步验证变现概念,但对于付费模式的效果尚待观察。

2.周鸿祎:大模型将重塑行业,打造大模型工厂

周鸿祎在参加“第六届全国青年企业家大会”时表示,大模型不会摧毁每一个行业,而是将重塑每个行业。他提到了“人工智能+”的概念,旨在将人工智能和大模型与传统产业进行深度融合。他还强调,大模型并非只有越做越大的一条路,而是可以由多个专家小模型构成,术业有专攻。他计划在湖北打造一个大模型工厂,帮助企业低成本、高效地构建和优化大模型,推动新质生产力的发展。

3.海淀区推出“文旅大模型”,全方位智能服务提升旅游体验

第十四个“中国旅游日”期间,海淀区在中关村壹号举办了主题为“体验科技魅力 世界触手可及”的活动。海淀区文旅局副局长王森发布了“海淀文旅大模型及游客服务智能体”,为游客提供行程规划、私人讲解和旅行分享等全方位智能服务。这个文旅大模型能够化身为行程规划师、私人讲解员和旅行分享家,提供吃住行游购娱一体化的出行规划和精彩故事讲解。活动现场,王森与人形机器人“如如”进行了互动展示。机器人展示了其在自然语音交互、认知、决策和规划方面的能力,体现了智慧旅游的创新应用。

4.国内超300个大模型仅4成完成备案

截至今年4月底,中国共推出305个大模型,但截至5月16日,只有约140个完成了生成式人工智能服务备案,占发布总量的45.9%。技术难度和高昂的算力成本是主要制约因素。此外,大模型企业在实现商业化方面也面临巨大挑战。国产大模型目前处于“百家争鸣”的阶段,许多公司开发的模型都宣称能与GPT-3.5或GPT-4相媲美,甚至在某些方面超越它们。然而,这些模型的所谓“领先”多半是过拟合现象的结果,即在测试中表现出色,但在实际应用中效果不佳。评估大模型能力时,不应只看测试集的得分。真正优秀的模型应当是在公开市场上能够让用户愿意为其支付额外费用的模型。随着大模型市场的“淘汰赛”进行,最终胜出者将凭借其核心能力脱颖而出。

5.OpenAI解散安全团队备受质疑!马斯克:安全并非首要任务

据报道,OpenAI在成立人工智能长期风险团队“超级对齐”仅一年后解散该团队,并将部分成员分配到其他团队。特斯拉CEO马斯克评论称,这表明安全并不是OpenAI的首要任务。此前,OpenAI的两名高管——伊利亚·苏茨克韦尔和简·雷克——宣布离职,称公司在安全文化上让位于“闪亮的产品”。去年11月,OpenAI董事会试图解雇CEO奥特曼,但他迅速夺回权力,随后至少5名员工辞职或被解雇。TechCrunch指出,OpenAI优先推出新产品,忽视安全研究,导致团队负责人辞职。专家们对此表示担忧,认为OpenAI在安全问题上没有走在正确轨道上。

6.奥特曼承认离职骂OpenAI将被取消股权:但从未实施过,将取消

2024年5月20日报道——OpenAI首席执行官萨姆·奥特曼(Sam Altman)周六在X平台上表示,公司确实存在“不贬低协议”的规定,要求离职员工不得批评公司,否则将失去既得股权。然而,该政策从未实际使用过。Vox News首先报道了OpenAI两名人工智能安全研究人员Jan Leike和Ilya Sutskever高调离职后所涉及的合同条款。Sutskever和Leike均于周二离职,原因可能与公司内部的安全文化和管理问题有关。奥特曼承认这一合同条款的存在,并表示这是他管理OpenAI过程中为数不多感到尴尬的事情之一。他还承诺,未来离职文件中将不再包含这一条款。OpenAI员工的薪酬结构包括30万美元的固定基本工资和每年约50万美元的股权补偿。

7.GPT-4o团队引发OpenAI组织创新热议,应届生领衔Sora,本科生带队GPT-1,经验职级都是浮云

OpenAI的GPT-4o团队引发了关于组织创新的广泛讨论。领衔者是曾参与DALL·E 2/3研究的Prafulla Dhariwal,他本科毕业于MIT并在毕业后加入OpenAI,参与了多个重要项目。OpenAI强调任人唯贤,不以职级派项目,即使是应届生和新员工,也有机会承担重大项目。例如,Sora团队由两名博士应届生带队,GPT-1的原型由本科生Alec Radford开发。OpenAI的扁平化管理和项目制鼓励创新,但也面临人才流失的挑战。随着商业化步伐加快,OpenAI能否保持领先地位备受关注。

8.高层离职引发内部动荡,OpenAI面临内外双重压力

近期,美国OpenAI公司发生了重大的高层离职事件,首席科学家Ilya Sutskever和超级对齐团队负责人Jan Leike相继宣布离职。Leike在社交媒体上揭露了公司内部的冲突和挑战,批评了CEO Sam Altman对资源分配和安全文化的处理。 Leike指出,他在公司核心发展重点的问题上与领导层存在长期分歧,认为应将更多资源投入到为新一代AI模型做准备的工作中,但当前的发展路径无法顺利达成目标。Leike强调,OpenAI在追求产品开发过程中,安全文化和流程被边缘化。他呼吁公司应优先考虑AGI的安全性,确保其惠及全人类。 这些事件的背景可以追溯到2023年11月,当时OpenAI董事会曾解雇CEO Sam Altman,引发了广泛关注和支持Altman的浪潮,最终他重新掌权。这次危机暴露了Altman与Sutskever之间在公司发展路径上的长期分歧。Altman倾向于加速商业化和追求利润,而Sutskever更关注AI的安全性和长期影响。 外部质疑也在增加。最近推出的GPT-4o模型虽然在多模态能力和实时交互上取得了进步,但未能达到预期的颠覆性效果,导致一些业内人士对其表现感到失望。OpenAI还面临算力短缺问题,影响了其研发进展。 尽管如此,OpenAI仍在努力推进其技术和商业目标,继续在AGI(通用人工智能)领域探索。Altman强调,尽管面临内部和外部的压力,他相信AI的潜力巨大,并将继续推动技术的发展。

9.英国研究:AI聊天机器人安全措施易被绕过

英国AI安全研究所(AISI)发现,聊天机器人的人工智能模型安全措施容易受到攻击,绕过保护机制。五个大型语言模型(LLM)均被发现“高度脆弱”,即使无意图攻击也能轻松绕过。攻击者可通过简单方法,如指示系统以特定短语开始回应,触发有害回应。研究结果发布前,英国首相将与全球AI峰会共同主持虚拟开幕式。

关注「阿杰与AI」公众号

与AI时代更靠近一点