新闻摘要
1.微软利用卫星和AI对抗森林砍伐
2.OpenAI将放弃非营利控制,授予Sam Altman股权
3.浩鲸科技深耕垂直领域大模型赋能企业数字化转型
4.生成式AI在企业市场中的应用
5.'ChatGPT之母'美拉·穆拉蒂任 CTO 离任
6.科大讯飞30亿投资成都 打造人工智能生态
7.百度智能云升级两大AI基础设施,文心大模型日调用量超7亿次
8.Allen Institute for AI 发布开源多模态模型 Molmo,在某些基准测试中超越 GPT-4o 和 Claude
9.浙江移动加快AI+行动计划落地
10.Colossal-AI支持FP8混合精度训练,最快可降低30%开发成本
扫码加入AI交流群
获得更多技术支持和交流
(请注明自己的职业)
1.微软利用卫星和AI对抗森林砍伐
为保护亚马逊雨林免受砍伐侵袭,微软启动了名为Project Guacamaya的计划。该计划利用卫星图像和人工智能技术,实时监测森林砍伐活动,并为保护行动提供关键信息。
通过分析卫星数据,Microsoft AI可以识别出正在进行的砍伐和土地利用变化,并将其与现有地图数据进行比较,以确定是否为非法砍伐。此外,Project Guacamaya还与环保组织合作,向执法部门提供相关信息,协助他们采取措施保护森林资源。
Microsoft 相信,Project Guacamaya能够有效减少亚马逊雨林的损失,为保护地球生态系统做出贡献。
2.OpenAI将放弃非营利控制,授予Sam Altman股权
据消息人士透露,OpenAI将放弃其非营利控制权,并向创始人兼首席执行官 Sam Altman 将分配股权。此举标志着这家备受关注的人工智能公司将转向更具盈利性的一条道路。OpenAI于2015年成立,最初是一个非营利组织,旨在确保人工智能技术安全且有益于全人类。尽管最初其目标是为公众利益服务,但随着近年来在人工智能领域取得的巨大成功,OpenAI开始寻求盈利模式。 这些变化可能会激发业内关于人工智能伦理和利益冲突的更多讨论。
3.浩鲸科技深耕垂直领域大模型赋能企业数字化转型
浩鲸科技认为,大模型的价值不在于本身,而在于如何融入企业业务场景。公司早早认识到这场"大模型浪潮"的本质,并成立了"大模型创新中心",专注于识别大模型能够落地的场景并进行深度定制。
浩鲸科技发布了首批基于垂直行业的鲸智模型系列,包括文档、BI,代码和RPA四个领域的大模型。这套由浩鲸科技长年积累的行业数据和业务资产沉淀所驱动,针对不同行业客户需求进行定制化的解决方案。
例如,鲸智BI大模型,通过智能挖掘分析、自然语言交互等能力,能够整合跨部门、跨流程、跨系统的复杂数据分析需求,帮助企业进行数据驱动决策。
浩鲸科技坚信,垂直大模型是生成式人工智能在企业价值落地的必选路径。未来,该公司将继续深耕垂直领域,并将其更多垂直领域大模型推向市场,帮助企业数字化转型。
4.生成式AI在企业市场中的应用
2024年,生成式人工智能(GenAI)在企业市场迎来爆发式增长。科技巨头如微软、谷歌、Meta、亚马逊和苹果巨额投资推动了这一发展。预计到 2032年,该市场价值将达到 1.3万亿美元。 这一技术浪潮主要集中在两个方面:研发和基础设施。微软对OpenAI 的持续投资超过100亿美元,致力于保持其在大型语言模型(LLM)领域的领先地位,例如集成到Microsoft 365中的 Copilot 基于 GPT-4。谷歌则继续开发其 Gemini 模型,并与Anthropic 等公司合作。
除了大型语言模型之外,专有模型也越来越受欢迎。这些模型针对特定任务被设计,比如谷歌推出的 Gemini 模型轻量化版本,更加适合特定行业的需求,使得这些技术对中小公司更加可访问。
尽管GenAI极具潜力,但也面临挑战。高昂的实施和维护成本、与现有系统集成复杂性、数据质量依赖、对数据安全和模型透明度缺乏关注等问题都可能影响收益率。此外,GenAI 会带来的社会影响,例如自动化导致大量工作岗位流失,也需要得到重视。面对这些挑战,企业需要谨慎地应对,确保AI技术应用既有利可图,又符合伦理和社会责任。
5.'ChatGPT之母'美拉·穆拉蒂任 CTO 离任
被称为“ChatGPT之母”的OpenAI CTO美拉·穆拉蒂宣布离职。穆拉蒂在X平台上表示已经做出了艰难的决定,并在过去6年半里为OpenAI感到荣幸,感谢CEO 샘 올트먼和总裁 Greg Brockman。 他强调离开的原因是需要探索个人成长,并表达对新产品OpenAI o1的期待。
36岁的穆拉蒂是一位阿尔巴尼亚裔美国人,毕业于达特茅斯大学,曾在法国一家航空航天公司和特斯拉工作。2018年加入OpenAI,并成为了其CTO,领导了2022年发布的ChatGPT的开发,所以被亲切地称呼为“ChatGPT之母”。 去年,在Sam Altman被解职事件后,穆拉蒂曾临时担任CEO。
此次离职发生在许多创始成员和核心人员陆续离开OpenAI的背景下。包括共同创始人兼首席科学官伊利亚·舒茨克维,模型学习负责人约翰·슐曼和安全团队负责人얀·赖克都已离开。
目前尚不清楚穆拉蒂离职的确切原因,但有分析认为他可能与此前对Sam Altman的任期管理方式有不同意见有关。 尽管穆拉蒂并非加入最初投票决定解雇Sam Altman的成员,但他后来也签名支持Sam Altman复职。
6.科大讯飞30亿投资成都 打造人工智能生态
科大讯飞公司与成都市人民政府在成都高新区签署战略合作协议,计划投资30亿元建设讯飞星火大模型全国软件工程总部暨讯飞生态产业中心项目。该项目将致力于孵化和运营软件工程大模型,探索其商业化价值,并与国家网信办推进相关备案工作。
同时,项目还将建设讯飞星火一体机全国销售结算中心,为区内企业提供授权代理服务。此外,科大讯飞将汇聚生态企业,打造讯飞生态产业中心,依托开放平台与成都智算中心合作,推广人工智能和大模型能力及解决方案,培育人工智能产业集群。
此举将助力成都高新区成为国家人工智能创新发展试验区,并推动其建设全国人工智能产业发展主阵地和国产多元异构算力生态高地。
7.百度智能云升级两大AI基础设施,文心大模型日调用量超7亿次
百度智能云为加速企业大模型应用落地,升级了百舸AI异构计算平台4.0和千帆大模型平台3.0两大AI基础设施。百舸4.0提升了万卡、十万卡集群的算力管理能力,包括集群创建、开发实验、模型训练、推理等全流程,有效训练时长占比达到99.5%以上。百舸还支持“一云多芯”能力,可以在万卡规模集群上实现多芯混合训练。千帆大模型平台3.0则支持调用包括文心系列大模型在内的近百个国内外大模型,以及多种传统的小模型;提供完善的大模型工具链,支持全流程开发和管理;并持续降低大模型调用成本,过去一年文心旗舰大模型降价幅度超过90%、主力模型全面免费。
此外,百度智能云也升级了代码助手、智能客服和数字人三大AI原生应用产品,旨在满足用户对成熟AI应用的需求。
8.Allen Institute for AI 发布开源多模态模型 Molmo,在某些基准测试中超越 GPT-4o 和 Claude
阿兰人工智能研究所(Allen Institute for AI,简称 Ai2)日前发布了一系列名为 Molmo 的开源多模态人工智能模型。这些模型在多个第三方基准测试中优于许多领先的封闭来源模型,包括 OpenAI 的 GPT-4o、Anthropic 的 Claude 3.5 Sonnet 和 Google 的 Gemini 1.5。值得注意的是,Molmo 训练数据量比这些封闭来源模型少 1000 倍,但仍然取得了令人印象深刻的结果。
Molmo 包含四个不同大小和功能的模型,所有模型都使用 Apache 2.0 许可证发布,允许各种研究和商业用途。其中,Molmo-72B 在学术评价中表现出色,在 11 个关键基准测试中得分最高,在用户偏好方面排名第二。
Molmo 的开发人员特别强调利用了指向数据,这对于机器人领域的视觉基准测试至关重要。Molmo 的开源性质使研究人员和开发者可以访问和利用这一先进的技术,并在 AI 领域促进创新和协作。
Ai2 计划未来几个月发布更多模型、训练代码和更完整的技术报告,进一步丰富开源资源。
9.浙江移动加快AI+行动计划落地
浙江移动积极推动“AI+”行动计划的全面落地,在数智基础设施建设、数智技术协同创新和数智应用普及繁荣方面取得显著成果。
浙江移动打造了“五力”综合算网体系,构建一体化全光运力、多元泛在算力、差异化高效存力、全程化可信盾力以及敏捷化智慧脑力,为新质生产力提供强劲动力。
同时,浙江移动积极进行科技创新,先后在人工智能、算力网络、大数据、6G等领域完成“BASIC6”科技创新计划,重点研究算网大脑、多模态大模型、隐私计算、内生安全等关键技术。
浙江移动以AI+服务为核心,在智慧社区、智慧城市、智慧零售等领域开展深度应用探索,引领AI走向规模化发展和规模应用,助力数字经济发展。例如,在三江超市,视觉大模型帮助实现库存管理和经营效率提升;在温州,AI+服务提供24小时看店解决方案,保障门店安全并提升收益;在金华真爱毯业,5G+视觉质检平台实现边织边检,精准控制产品质量。
浙江移动将持续发挥算力、技术、平台优势,推动AI技术的普及和应用,为构建数字中国贡献力量。
10.Colossal-AI支持FP8混合精度训练,最快可降低30%开发成本
人工智能大模型开发系统Colossal-AI 支持主流的BF16(O2) + FP8(O1)混合精度训练方案,只需一行代码即可让主流LLM模型加速30% ,降低相应的开发成本,同时保证训练收敛性。
将FP8与BF16结合起来,利用了低精度计算的优势,减轻了训练过程中的内存压力,提高了训练速度。Colossal-AI在实现实时scaling方案时,兼顾了训练收敛性和性能,单卡H100上运行测试表明,FP8加速效果随矩阵维度增加而更明显。
在真实LLM模型训练场景测试中,FP8混合精度训练的收敛性与BF16基本一致。 Colossal-AI在H800多卡并行训练场景下也取得了不错的效果, 吞吐量相比BF16提升了35%到94%。
Colossal-AI对FP8的支持广泛兼容各种并行方式,使用时只需在初始化plugin时开启FP8即可,无需额外代码和AOT编译。
关注「阿杰与AI」公众号
与AI时代更靠近一点
资讯汇总 ominiai.cn