AI产品经理必修课——理解构建AI产品所需的基础设施与工具

118 阅读1小时+

人工智能(AI)产品的前沿领域似乎与我们的宇宙有许多相似之处:不断扩张。随着我们不断深入探索新的方式来构想我们所参与的产品、组织和行业,这种扩张的速度每年都在加快。打下坚实的基础是理解这一转型的关键部分,这也是本书的目标。由于几乎所有的生活方面都预计会以某种方式受到AI的影响,我们希望您能通过这段经历对您支持或希望在未来构建的产品的AI采用情况更加自信。

本书的第一部分将作为概览,介绍当前领域的状况。我们将涵盖术语、基础设施、AI算法类型以及成功的AI产品,并且在本部分结束时,您将了解尝试构建AI战略时的各种考虑因素,无论您是打算创建原生AI产品还是向现有产品添加AI功能。第一部分将涵盖理论概念,而第二部分和第三部分则用于更实际的内容,在那里我们将看到这些理论概念被更具体地应用。在第四部分中,我们将讨论如何建立和发展您的AI产品经理职业。

管理AI产品是一个高度迭代的过程,产品经理的工作是帮助您的组织发现最佳的基础设施、训练和部署工作流组合,以在目标市场中最大化成功。AI产品的性能和成功在于理解管理AI管道所需的基础设施,其输出将被集成到产品中。在本章中,我们将涵盖从数据库到部署策略再到管理AI项目的工具的所有内容,以及如何衡量您产品的效能。

本章将作为第一部分后续章节的高层次概述,但首先它将提供术语定义,这在当今营销导向强烈的AI竞争环境中往往难以获得。如今,感觉每个产品都是AI产品,而且市场营销部门在使用这个术语时非常草率,使得这个术语几乎失去了意义。我写这本书的一个重要原因是因为我自己在试图理解各种“AI”产品时遇到了挑战。

我认为,如果像我这样熟悉机器学习的人都难以理解外面的产品是如何用AI构建的,那么其他人又该如何呢?我怀疑这种情况不会很快改变,但消费者和客户对AI、机器学习(ML)、深度学习(DL)和数据科学的能力和细节越熟悉,我们就应该越能看到产品是如何构建和优化的清晰度。理解AI的背景对于任何考虑构建或支持AI产品的人来说都很重要。

在本章中,我们将涵盖以下主题:

  • 定义——什么是AI,什么不是AI
  • 回顾过去——探索机器学习
  • 现今发展——探索深度学习
  • 机器学习与深度学习的区别——理解不同点
  • 机器学习中的学习范式
  • 流程顺序——最优流程是什么,每个过程环节的位置在哪里?
  • 数据库101——数据库、数据仓库、数据湖和湖屋
  • 项目管理——IaaS
  • 部署策略——我们如何处理这些输出?
  • 成功的AI——管理良好的AI公司如何做基础设施
  • AI的承诺——AI将带我们走向何方?

定义 – 什么是AI,什么不是AI

1950年,数学家和二战英雄艾伦·图灵在他的论文《计算机器与智能》中提出了一个简单的问题:机器能思考吗?今天,我们仍在努力解答这个问题。随着像ChatGPT和Claude这样的大型语言模型(LLMs)的出现,使得界限更加模糊,这个问题变得更加复杂。根据您询问的对象不同,AI可以有许多不同的定义。互联网上有许多关于AI广义分类的地图,从医疗和金融领域使用的专家系统到简单的机器学习形式,再到更先进的神经网络模型。在继续本章时,我们将涵盖这些AI的许多方面,特别是适用于当今市场上出现的产品的那些部分。为了应用于各行各业的产品中的AI,在本书中,我们将主要关注ML和DL模型的各种应用,因为这些模型经常在任何营销能力中提到AI时用于生产。我们将使用AI/ML作为一个通用术语来覆盖一系列ML应用程序,并将涵盖大多数人认为是ML的主要领域,如深度学习、计算机视觉、自然语言处理和面部识别。这些是大多数人在行业中会遇到的应用型AI方法,熟悉这些应用对于希望进入AI领域的任何产品经理都非常有帮助。如果有什么可以帮助的话,我们希望帮助那些希望从其他产品管理背景扩展到这个领域的人选择最吸引他们的AI领域。

首先,让我们看看什么是ML,什么不是ML。我们尽可能简单地表达就是:如果一台机器可以从某些过去的行为中学习,并且其成功率因此提高,那就是ML!“学习”是其中的活跃元素。没有模型是完美的,但我们确实从使用模型中学到了很多。大多数模型都会有某种超参数调整的元素,但所有模型都会在训练过程中学习参数。每个模型的使用都将在性能上产生一定的结果,数据科学家和机器学习工程师将利用这些结果作为基准来改进性能。

如果有固定的、硬编码的规则不变,那就不是ML。AI是一个计算机科学领域,所有程序员实际上都是在给计算机一套指令去执行。如果您的程序以任何方式不从过去的学习中获取信息,而只是执行它被硬编码的指令,我们就不能称之为ML。相反,您可能在其他程序中听到过基于规则的引擎或专家系统的说法。它们被认为是AI的一种形式,但它们不是ML,因为尽管它们是AI的一种形式,但规则实际上是复制了人的工作,而系统本身并没有学习或改变。

我们现在处于AI采用的一个棘手时期,很难在网上找到关于什么使一个产品成为AI产品的信息。市场营销急于在其产品上添加AI标签,但在市场上还没有一个解释这究竟意味着什么的基本标准。这进一步混淆了消费者和技术人员对AI这一术语的理解。如果您对这些术语感到困惑,尤其是在看到网上推广的产品时,您并不孤单。

另一个令人困惑的领域是AI这个一般性术语。对于大多数人来说,AI的概念让人联想到20世纪80年代的《终结者》系列电影、2013年的电影《她》中失控的操作系统,以及其他描绘不可逃避的技术毁灭的未来主义作品。虽然我们当前使用的AI确实可能带来很多伤害,但上述影片中的描绘代表的是所谓的强AI或人工通用智能(AGI)。AGI是一种理论上的、潜在的未来AI状态,届时机器可以在没有任何人类监督或干预的情况下执行高价值的经济任务。我们离实现像AGI这样先进的目标还有很长的路要走,但我们已经拥有了大量被称为人工窄智能或窄AI(ANI)的东西。

ANI也常被称为弱AI,通常是指当你在网上看到“AI”这个词贴在各种产品上时所指的意思。ANI正如其名:AI的狭窄应用。也许它擅长与你对话,预测一些未来的值,或者组织事物;也许它是这方面的小专家,但它的专长不会延伸到其他领域。例如,GPT-4是一个驱动最受欢迎的对话型AI之一ChatGPT的模型,它可能拥有高级的理解和对话技能,但它无法进行脊柱手术。如果它可以,它就不再是ANI。这些主要的AI领域被称为“强”和“弱”,是相对于人类智能而言的。

但即使是这一点也可能是一个有争议的观点。微软研究团队在2023年4月发表了一篇关于探索GPT-4及其接近AGI程度的论文,题目为《火花般的人工通用智能:GPT-4的早期实验》。 以下是他们摘要中的摘录: “我们展示了GPT-4不仅掌握了语言,还可以解决跨越数学、编程、视觉、医学、法律、心理学等领域的新型且困难的任务,无需任何特殊提示。此外,在所有这些任务中,GPT-4的表现惊人地接近人类水平,常常远远超过之前的模型如ChatGPT。鉴于GPT-4的能力的广度和深度,我们认为它可以合理地被视为人工通用智能(AGI)系统的早期(但仍不完整)版本。”

对于每一个遇到Reddit论坛上关于AI是否具有感知或对我们怀有恶意的讨论的人来说,我们想非常清楚地声明以下观点。完整的AGI形态尚未存在,即使存在,我们也无理由相信它是有感知的AI。这并不意味着AI不会积极且频繁地给人类造成伤害,即使在其当前形式下也是如此。主要的隐患在于,不合伦理、草率的AI应用已经在给我们带来小麻烦和大困扰。像凯茜·奥尼尔的《数学杀伤性武器》这样的书籍详细描述了来自AI的风险,并引用了许多现实世界的例子。建立合乎道德和负责任的AI仍是一项正在进行的工作,这是任何参与战略、运营和领导的人都应该认真对待的事情。我们在构建今天和未来的公平AI应用方面都有自己的角色。虽然AI系统可能不是有意策划人类的覆灭,但如果它们未经测试、管理不当或未能充分审查偏差,它们确实会无意中造成伤害。

目前,机器能否像我们一样行走和说话?每天都在越来越接近。它们是否像我们一样思考?大型语言模型可以展示出类似于人类的逐步思维过程。但它们真的有意识吗?意识涉及体验感觉、情感和意识的能力。算法和数据很强大,但还不足以从石头中榨出血来。AI并不像我们一样体验世界。它不会经历我们所做的神经化学反应。它不会内化被抛弃的深刻羞耻感,也不会失去因阿片类药物危机而失去的人。它不会陷入爱河,不会经历抑郁,不会担心养家糊口,也不会害怕无家可归。我个人认为,人类状况中难以忍受的方面将止于我们。但我非常相信,我们的一些最大斗争以及最疯狂的好奇心,将会受到AI和ML善意的显著影响。

引入机器学习和深度学习

自20世纪50年代以来,我们一直在探讨使用机器的想法,但我们现在想要扩展一下ML和DL人工神经网络(ANNs)的历史,以便让您了解这些模型已经存在了多久,从而提供更广阔的历史背景,并展示这些技术到目前为止所经历的演变。

回顾过去 – 探索机器学习

机器学习(ML)模型尝试创建现实世界的某种表示形式,以帮助我们做出某些数据驱动的决策。实际上,我们使用数学来表示发生在真实世界中的某种现象。ML基本上是利用数学和统计学来预测或分类未来的状态。这两条路径分别发展如下:

  • 第一组与通过统计模型不断发展的模型有关。
  • 第二组与试图模仿我们自身自然神经智能的模型有关。

通俗地说,它们分别被称为传统机器学习和深度学习模型。在本节中,我们将回顾传统的统计机器学习模型,以理解ML模型的历史意义和普遍性。一些最可靠和广泛应用的ML模型已经有了很长的历史。线性回归模型自19世纪末就已经存在,并通过英国数学家卡尔·皮尔逊和弗朗西斯·高尔顿爵士的工作而流行起来。他们的贡献导致了一个今天最流行的机器学习算法的出现,尽管不幸的是,他们都是著名的优生学家。卡尔·皮尔逊还因为在1901年发明了主成分分析(PCA),一种减少数据集维度的学习方法而受到赞誉。

在数据集的上下文中,维度是指您用来描述和分析数据的类别或变量。可以将它们视为赋予数据集中元素含义的“标签”或“属性”。例如,客户数据库可能包括年龄、性别和位置等维度。

朴素贝叶斯分类器这一受欢迎的ML方法在20世纪60年代登场,但它基于18世纪英国统计学家托马斯·贝叶斯和他的条件概率定理的工作。逻辑函数由比利时数学家皮埃尔·弗朗索瓦·韦吕斯特于19世纪中期引入,而逻辑回归模型则由英国统计学家大卫·考克斯于1958年推广开来。

K近邻(KNN)算法是用于分类和回归的最简单的ML模型之一,它源自美国武装部队委托伯克利大学合作进行的技术分析报告,由统计学家伊夫林·菲克斯和小约瑟夫·劳森·霍奇斯在1951年完成。K均值聚类作为一种ML聚类方法,最早由UCLA的数学家詹姆斯·麦克奎恩在1967年提出。正如您所见,许多当今最常用的ML算法其根源可以追溯到现代历史的早期。它们的简单性和优雅性增加了它们在今天的相关性。

深度学习简史

1943年,沃伦·S·麦卡洛克(Warren S. McCulloch)和沃尔特·皮茨(Walter Pitts)发表了一篇论文《神经活动中的内在思想的逻辑微积分》,通过创建一个基于我们大脑中固有的神经网络的计算机模型,将数学与神经学联系起来。这个模型结合了多种算法来创建一个“阈值”,以模拟我们如何从自己的生物神经网络传递信息。随后,在1958年,弗兰克·罗森布拉特(Frank Rosenblatt)发表了一篇被认为是神经网络先驱的论文,名为《感知器:一个感知和识别的自动化装置》。这可以说是第一个最简单且最古老的ANN(人工神经网络)。

20世纪60年代,关于反向传播的发展——即模型在训练过程中通过数据集时从过去的错误中学习的思想——为最终构成神经网络的技术迈出了重要的一步。这一时期最重要的发展之一是将启发数学模型的理念与基于神经元网络和反向传播的大脑工作方式相结合,因为这为ANNs奠定了基础,使它们能够通过过去迭代进行学习。

需要注意的是,许多ANNs以“前馈”的方式工作,即它们按顺序并且仅单方向地穿过输入层、隐藏层和输出层,从输入到输出。反向传播的概念本质上允许ANNs双向学习,从而能够在每个节点最小化误差,提高性能。下图说明了这一点:

image.png

直到1986年,大卫·鲁梅尔哈特(David Rumelhart)、杰弗里·辛顿(Geoffrey Hinton)和罗纳德·威廉姆斯(Ronald Williams)发表了一篇著名的论文《通过反向传播错误来学习表示》,人们才真正开始理解反向传播在深度学习(DL)成功中所起的作用。他们提出的可以在时间上进行反向传播的想法——允许神经网络分配适当的权重,并训练具有隐藏层的神经网络,在当时是革命性的。

每次发展之后,人们对机器学习(ML)和神经网络的力量都充满兴奋,但在20世纪60年代中期到80年代之间,有两个重大问题:数据不足以及资金短缺。如果您听说过“AI寒冬”这个术语,指的就是这段时期。虽然在模型开发方面取得了一些进展,但由于研究团队无法获得足够的数据来喂养这些模型,因此我们并没有显著的方法将这些被开发的模型应用起来。

随后,在1997年,塞普·霍赫赖特(Sepp Hochreiter)和尤尔根·施米德胡伯(Jürgen Schmidhuber)发表了他们的开创性工作《长短期记忆》(Long Short-Term Memory),这使得深度学习能够“解决以前递归网络算法从未解决过的复杂、人工长时间滞后任务”。这一发展之所以如此重要,是因为它让序列的概念在深度学习问题中保持相关性。由于神经网络涉及隐藏层,使得时间概念难以维持,从而导致许多问题难以解决。例如,传统的递归神经网络可能无法像长短期记忆(LSTM)那样自动完成句子,因为它不理解句子完成过程中涉及的时间序列。

如今,大多数深度学习模型需要大量数据,这意味着驱动深度学习的神经网络需要大量的示例来理解某物是否为狗或马。不过,稍微思考一下就会发现,这实际上并不完全符合我们的大脑工作方式。一个刚开始了解世界的小孩子可能只需要被提醒一两次狗和马之间的区别,但您很可能不会成千上万次地提醒他们这种区别。在这个意义上,深度学习正在朝着需要越来越少的例子来进行学习的方向进化。当然,现在我们可以为深度学习模型收集海量的数据,但模型本身也在进化,以减少对大量数据的依赖,最终目标是能够用少量数据训练的深度学习模型。

到目前为止,我们已经涵盖了一些塑造机器学习和深度学习领域的历史和影响因素。虽然我们没有深入探讨太多的技术概念,但这为我们提供了一个良好的基础,帮助我们理解机器学习和深度学习是如何随着时间发展的,以及为什么它们会崛起并占据主导地位。在接下来的部分中,我们将更加实践,深入了解深度学习。

新发展 – 探索深度学习

在本书中,我们概念性地分离机器学习(ML)和深度学习(DL),目的是在您的脑海中建立关于这些概念的联系。对于大多数技术领域的专业人士来说,当看到某个产品被描述为ML或DL时,他们心中会浮现出特定的模型和算法。这里需要快速提醒一下,DL是ML的一个子集。如果您对这两个术语感到困惑,请记住,DL是一种形式的ML,它已经成长和发展,形成了自己的生态系统。我们的目标是尽可能揭开这个生态系统的神秘面纱,以便您作为产品经理能够自信地理解与DL产品相关的动态。

深度学习的基础理念围绕着我们自身的生物神经网络展开,DL使用通常被称为人工神经网络(ANNs)的总称来解决复杂问题。正如我们将在下一节中看到的,DL形成的许多生态系统都受到了我们大脑的启发,而“原始”的神经网络就在那里被发现。这种灵感不仅来自于人类大脑的功能,特别是通过例子学习的理念,还来自于其结构。

由于这不是一本专为DL工程师编写的过于技术性的书籍,我们将避免深入探讨与DL相关的术语和数学知识。然而,对ANN的基本理解是有帮助的。在阅读本节时,请记住,一个神经网络由人工神经元或节点组成,这些节点分层排列。通常,有三种类型的层:

  • 输入层
  • 隐藏层(可以有多个)
  • 输出层

虽然我们将介绍各种类型的ANN,但了解这些DL算法的工作原理的一些基本方面也是很重要的。从层次和节点的角度去思考。本质上,数据通过每一层的每个节点传递,基本思想是每个节点和层之间都有权重和偏置。ANN通过它们正在训练的数据,以最佳方式找到有助于解决问题的模式。一个具有至少三层(即输入层、输出层和至少一个隐藏层)的ANN足够“深”,可以被归类为DL算法。

那么,关于节点呢?最简单的模型之一(我们将在本章后面详细讨论)是线性回归模型。您可以将每个节点视为一个迷你线性回归模型,因为这是ANN每个节点内部发生的计算。除此之外,每个节点不仅仅进行线性回归计算,它还会对结果应用非线性激活函数。这一激活函数引入了非线性,使ANN能够捕捉到线性回归无法捕捉的数据中的复杂模式和关系。每个节点有自己的数据、该数据的权重以及一个用于测量的偏置或参数,以得出输出。所有这些节点大规模进行这些计算的总和,让您了解到ANN是如何工作的。如果您能想象出成百上千层,每层内有许多节点的大规模情况,您就可以开始理解为什么ANN为何会得出某些结论可能难以理解。

深度学习常被称为黑箱技术,这正是问题的核心所在。根据我们的数学技能,我们可以解释简单线性回归模型中为何存在某种误差率或损失函数。我们可以概念化一个拟合曲线的模型可能出现错误的方式。当我们面对现实世界的数据时,这些数据并不总是呈现出完美的曲线,我们也能够认识到这对模型提出的挑战。但如果我们将这个规模扩大,并尝试概念化可能数十亿个节点,每个节点代表一个线性回归模型,我们的大脑可能会开始感到头疼。

尽管深度学习经常被视为尖端的技术进步,如我们在上一节所见,这段旅程其实早在很久以前就开始了。

隐藏的影响

理解影响机器学习(ML)和深度学习(DL)的基础关系及其相关历史非常重要。这是讲述故事的一个基础部分,同时也有助于更好地理解这项技术如何与我们周围的世界产生关联。对于许多人来说,理解AI/ML概念可能是神秘的,除非您来自技术或计算机科学背景,否则这些话题本身可能显得令人生畏。很多人最多只会获得对这项技术及其发展历程的基本了解。

我们希望赋予任何有兴趣探索这一将塑造众多产品和内部系统未来的底层技术的人更深入的理解,并使其更加易于接近。已经可以看出存在某种偏见——大多数深入了解ML和DL的人士都具有计算机科学背景,无论是通过正式教育还是通过训练营和其他技术培训项目。这意味着,传统上,那些有机会获取这些知识并在该领域追求学术研究和创业的人群主要是白人且以男性为主。

除了人口统计学特征外,从学术角度来看,对这些技术的投资水平也有所增加。让我们来看一些数据。斯坦福大学的AI指数显示,全球顶尖大学中AI在研究生阶段的投资增加了41.7%。在本科阶段,这个数字跃升至102.9%。在过去十年中,额外有48%的AI博士学位获得者离开了学术界,转而追求私营部门的丰厚报酬。此外,十年前仅有14.2%的计算机科学博士学位与AI相关,而现在这个比例超过了23%。特别是美国,它保留了自己培养和吸引的人才。来美攻读AI博士学位的外国学生中有81.8%选择留在美国。

这描绘了一幅世界急需AI/ML人才和技术的画面。这种对AI/ML技能集的高需求,尤其是对多样化人口统计特征的AI技能集的需求,使得人们难以留在学术界,因为私营部门为那些离开的人提供了丰厚的回报。在初创公司圈子中,许多风险资本家和投资者能够在知道一家公司拥有AI博士员工时自信地巩固他们的投资,无论其产品是否真的需要如此高级的专业知识。重视这些备受追捧的人力资源的情况很可能不会很快消失。

另一个需要记住的关键点是ML团队和产品团队之间的关系。模型的选择、构建、调整和维护以实现性能优化是数据科学家和ML工程师的工作。利用这些性能知识来优化产品体验本身则是产品经理的工作。如果您从事的是AI产品管理工作,那么您会与数据科学和ML团队紧密合作(我们将在书中稍后详细介绍具体角色)。

我们也想区分一下作为AI产品经理您将与之共事的人。根据您的组织不同,您要么与数据科学家和开发人员合作部署ML,要么与能够训练、维护模型并将其部署到生产环境中的ML工程师合作。我们强烈建议与所有这些受影响的团队,包括DevOps团队,保持强有力的关系。

我们梦想着一个来自多种专业和背景的人都能进入AI领域世界的到来,因为多样性是迫切需要的,而摆在我们面前的机会太大,以至于不能让现有的门槛继续存在下去。不仅仅是AI的建设者需要理解底层技术及其应用的强大之处,业务利益相关者也同样重要,他们需要利用这项技术的能力来理解眼前的选择和能力。归根结底,没有什么是复杂到无法简单解释的。

机器学习与深度学习的区别 – 理解不同点

在本节中,我们将探讨机器学习(ML)和深度学习(DL)之间的关系,以及它们如何为建设者和用户带来各自的一套期望、解释和阐明。无论您是使用自20世纪50年代以来就存在的ML模型的产品,还是应用最近兴起的前沿模型,理解这两种技术的影响都是至关重要的。将ML或DL整合到您的产品中会带来不同的后果。大多数时候,当您看到某个产品贴有AI标签时,它通常是用ML或DL构建的,因此我们希望确保您在读完本章后能对这两个领域有何区别,以及这种区别将如何具体影响您的未来产品有一个坚实的理解。

作为产品经理(PM),您需要与技术团队建立大量的信任,以便共同打造一个尽可能出色且技术上表现最佳的产品。我们将在此介绍一些基础知识,并将在后续内容中进一步详细说明这些概念。首先,让我们看一下即将讨论的一些关键概念是如何相互关联的:

image.png

机器学习(ML)

在其基本形式中,ML由两个基本组成部分构成:

  • 使用的模型
  • 它所学习的训练数据

这些数据是历史数据点,有效地教授机器一个基础的学习起点,理论上,每次您用新的数据重新训练模型时,模型都会得到改进。然而,仅仅重新训练并不能保证更好的性能。如果新数据质量更高、更能代表现实条件或比原始训练数据标注得更好,则会提升性能。

所有的ML模型可以归类为以下四大主要学习范式:

  • 监督学习
  • 非监督学习
  • 半监督学习
  • 强化学习

这四个领域是机器学习的主要方面,每个领域都有自己特定的模型和算法用于各自的专长。学习类型涉及ML算法是否从有标签或无标签(结构化或非结构化)的数据中学习,以及您用来奖励表现良好的模型的方法。无论您的产品是否使用深度学习(DL)模型,这些学习范式都适用于所有ML模型。我们将在本章后面更深入地讨论这些学习范式。

请记住,“学习”来自于对过去错误的改进。ML模型试图从过去的性能中学习,随着时间推移不断进步。我们使用几个关键指标来跟踪模型是如何学习和改进的:准确率、精确率和召回率。随着书籍内容的推进,我们将进一步探讨这些指标,但目前您可以将这些术语作为参考:

  • 准确率(Accuracy) :这告诉您预测正确的频率。它就像是问,“在我做出的所有猜测中,有多少次是对的?”例如,如果您大多数时候都能正确识别好坏案例,那么您的准确率就很高。
  • 精确率(Precision) :这衡量的是您正面预测的准确性。想象一下,您正在识别某些特定的东西,比如挑选出篮子里所有成熟的苹果。精确率回答了“我所说的成熟苹果中,实际有多少是真的成熟?”高精确率意味着您擅长挑选正确的对象,而不会包含太多错误的。
  • 召回率(Recall) :这显示了您找到所有正面案例的程度。它就像是问,“在篮子里所有成熟的苹果中,我实际上找到了多少?”高召回率意味着您擅长不遗漏任何想要找到的对象。

深度学习(DL)

深度学习是机器学习的一个子集,但在日常对话中,这两个术语经常被当作几乎独立的概念使用。原因在于深度学习基于神经网络算法,而机器学习则可以被认为是……其余的算法。深度学习指的是具有神经网络的模型,而所有其他模型(包括语言模型和计算机视觉模型)则被称为机器学习。在前面讨论机器学习的部分中,我们探讨了获取数据、用这些数据训练我们的模型,并使用训练好的模型预测新的未来数据点的过程。每次使用模型时,您都会通过了解误差率来查看它与正确答案的偏差程度,从而来回迭代,直到获得一个足够好的模型。每一次,您都是根据具有某些模式或特征的数据创建模型。

这个过程在深度学习中也是相同的,但深度学习的一个关键区别在于模型的深度——数据中的模式或特征主要由深度学习算法通过所谓的特征学习或特征工程,在一个分层系统中自动提取。以下是一个展示其工作原理的图示:

image.png

我们将在第3章详细介绍各种使用的算法,因为它们有一些细微差别。随着您对不同类型的机器学习的理解不断加深,您也会开始将构成这些主要AI领域(即ML和DL)的各种模型进行分类。出于营销目的,您大多数时候会看到诸如ML、DL/神经网络或更广泛的AI总称等术语,尤其是在使用DL算法的情况下。

了解这些术语在实践和模型层面的含义以及它们如何被非技术利益相关者传达非常重要。作为AI产品经理(PM),我们在两个世界之间架起桥梁:工程团队正在构建的内容和营销团队对外沟通的内容。如前所述,每当您听到“黑箱模型”这个术语时,它指的是一个神经网络模型,即深度学习(DL)。这是因为深度学习工程师通常无法确定他们的模型是如何得出某些结论的,这使得模型的行为变得不透明。这种不透明性对于工程师和技术人员来说是一个方面的问题,而对于下游的客户和用户来说则是另一个方面的问题,因为他们体验到的是模型的效果,但并不知道模型是如何做出某些决定的。

对于AI产品经理而言,深度学习带来了可解释性的挑战,因为我们几乎无法理解模型是如何及为何得出结论的。根据产品的上下文,可解释性的重要性可能会有所不同。销售团队可能面临的最大反对意见之一是客户不愿意购买黑箱模型产品;这一点在我们自己的工作经历中也经常遇到。另一个固有的挑战是这些模型本质上是自主学习的,因为它们不需要等待工程师为其选择数据中最相关的特征;神经网络本身执行特征选择。它们的学习过程需要非常少的工程师输入。可以将模型视为“是什么”,而接下来的学习范式部分则解释了“怎么做”。

机器学习中的学习范式

在本节中,我们将介绍监督学习、非监督学习、半监督学习和强化学习之间的区别以及这些学习类别如何应用。再次强调,学习类型涉及到您是否对数据进行标注(即结构化数据)以及您用来奖励模型良好表现的方法。最终目标是理解哪种学习模型能为您提供所需性能和可解释性,以便在考虑是否将其用于您的产品时做出明智的选择。

监督学习

如果人类对数据进行了标注(也称为结构化数据),并且机器也在尝试正确标注当前或未来的数据点,这就是监督学习。因为我们人类知道机器试图得出的答案,所以我们可以看到它们离正确答案有多远,并持续训练和重新训练模型,直到我们找到满意的模型性能水平为止。

监督学习模型的应用包括分类模型(如垃圾邮件过滤器)、回归模型(寻找变量间的关系以预测未来事件和趋势)。请记住,所有模型都有其局限性,因此需要不断的训练和更新,AI团队通常会使用集成建模或尝试各种模型并选择表现最佳的一个。无论哪种方式都不会完美,但通过足够的调优,它将使您越来越接近真相。

以下是一些常见的监督学习模型/算法,您可能会在各种产品的生产环境中使用:

  • XGBoost:用于分类和回归任务,此模型因采用“极端”梯度提升而得名,意味着它使用多种模型来纠正前一个模型的错误。它通过尽可能优化地最小化每个模型的损失函数,成为许多监督学习应用的流行选择。常用于预测客户流失或检测欺诈。
  • 朴素贝叶斯分类器:此算法天真地认为数据集中的每个特征都是独立变量。因此,它本质上是在没有对数据做任何假设的情况下,尝试概率性地找到关联。它是较为简单的算法之一,这种简单性使其在分类方面非常成功。常用于二元值判断,例如区分垃圾信息或理解情感。
  • 支持向量机 (SVM) :该算法主要用于分类问题,试图将您的数据集分为两类,以便您可以根据这些主要分割来分组数据并预测未来数据点的位置。如果数据之间看不到有说服力的分组,SVM允许您添加更多维度以更轻松地查看分组。常用于图像或文本分类。
  • 线性回归:这些模型自20世纪50年代以来就存在了,是我们拥有的最简单的回归问题模型,例如预测未来数据点。它们基本上使用数据集中的一个或多个变量来预测您的因变量。线性部分是指尝试找到最适合您数据的直线,这条线决定了它的预测方式。这里我们再次看到一个相对简单的模型因其多功能性和可靠性而被广泛应用。常用于价格预测或销售预测。
  • 逻辑回归:这个模型与线性回归类似,因为它也有独立变量和因变量,但它不是预测数值;而是预测未来的二元分类状态,例如某人是否会拖欠贷款。常用于疾病诊断或客户行为分析。
  • 决策树:该算法既适用于预测分类(颜色或组别)也适用于数值预测(年龄或收入),因此用于这两种类型的ML问题,如预测未来状态(分类)或未来价格(数值),这促成了它的受欢迎程度。它被称为树是因为节点和分支有效地像流程图一样工作。模型从过去数据的流动中学习以预测未来值。常用于自动化贷款审批或基于历史行为的客户细分。
  • 随机森林:该算法建立在之前的决策树基础上,也用于分类和数值问题。它的工作原理是将数据分成不同的随机样本,为每个样本创建决策树,然后根据是分类还是数值预测采取平均值或多数投票。随机森林的结论难以理解,因此如果可解释性不是特别重要,可以使用它。常用于数据集中特征选择或评估贷款申请的信用度。
  • K近邻(KNNs) :该算法专门用于分类和数值预测,因此它预测的是未来状态,并以群组形式提供结果。群组中的数据点数量由工程师/数据科学家设定,模型通过分组数据,确定数据与其邻居共享的特征,并基于这些邻居对未来值作出最佳猜测。常用于图像识别和推荐系统。

请注意,监督学习对于所有AI/ML团队来说可能并非总是可行。您可能听说过“弱监督”,这是一种机器学习模型从其他AI系统标注的数据中学习的方法。这种方法在高质量标注数据稀缺或获取成本高昂的情况下越来越具有可行性和实用性。

既然我们已经讨论了监督学习,接下来让我们讨论非监督学习。

非监督学习

如果数据是未标注的(也称为非结构化数据),并且我们使用机器来对数据进行标注和发现我们尚未知晓的模式,这就是非监督学习。实际上,我们人类要么知道正确答案,要么不知道,这是我们区分ML算法属于哪一类的方法。可以想象,我们对非监督学习模型的结果持一定的谨慎态度,因为它可能找到的是无用或不准确的组织结构。非监督学习模型还需要大量的数据来进行训练,因为如果试图从小样本数据中找出模式,结果可能会非常不准确。随着它们摄取的数据越来越多,其性能将随着时间的推移而提高和完善,但同样,这里没有“正确”的答案,而是不同程度的正确性。例如,随着时间的推移,我们可能能够创建区域或聚类,以寻找数据;或者可能是我们在寻找某些边界内的数据接近度。

非监督学习模型的应用包括以下几种:

  • 聚类模型:将数据分割或分组到特定区域。在聚类的情况下,您是在以某种方式分组相似的数据,目的是随着时间的推移,能够根据相似性识别出数据中的不同聚类或组别。这可以用于诸如在医疗试验或药物发现中寻找模式,因为您正在寻找可能存在连接和数据组的地方,而在这些地方可能没有明显的答案。
  • K均值聚类:这是一种常见的非监督学习算法,它会将数据点分组在一起以更好地看到模式(或聚类),但它也在寻找最优数量的聚类。这是非监督学习,所以模型试图找到可以从中学习的模式,因为它没有从工程师那里获得任何信息(或监督)。此外,分配的聚类数量是一个超参数,您需要选择最佳的聚类数量。K均值的常见用途包括市场细分(分组客户群体和画像)和文档聚类(将新闻文章归类为主题或类别)。
  • 降维:本质上是从您的数据集中去除对所需性能贡献较小的特征,并简化数据,以便最重要的特征能最好地提升性能,从而分离真实信号与噪声。在高维数据情况下,您可能有太多的特征,因此您希望找到一种方法,在保持原始数据方差或结构的同时减少特征数量。
  • 主成分分析 (PCA) :这是一种常用于降维的非监督学习模型。通常,使用非监督ML处理非常大的数据集时最大的问题是存在太多无关的数据,难以找到有意义的模式。这就是为什么PCA经常被使用的原因,因为它是一种在不丢失或丢弃太多信息的情况下减少维度的好方法。这对于大规模数据集特别有用,如基因测序或药物发现试验中的模式查找。PCA的常见用途包括数据可视化(将高维数据缩减为2D或3D景观)以及减少数据集中的特征以提高其他ML模型的性能和效率。

我们总是使用术语“超参数”来定义模型优化,因为“参数”指的是模型用来做预测的训练数据范围内的界限。当涉及到模型调整及其功能时,术语始终是“超参数”。

接下来,让我们跳到半监督学习。

半监督学习

在一个完美的世界里,我们将拥有巨大的标注数据集,以创建不会过拟合的最佳模型。过拟合是指您创建并调整一个模型以适应您拥有的数据集,但它贴合得过于紧密,这意味着它针对特定数据集进行了优化,但在未见过的数据上无法泛化。过拟合问题是数据科学中的常见问题,适用于本章讨论的所有模型。我们生活在一个不完美的世界中,可能会发现自己处于没有足够标注数据或根本没有数据的情况。例如,假设您的公司推出了一款新产品或服务,几乎没有用户行为、销售趋势或性能指标的历史数据来训练模型。在这种情况下,半监督学习就显得非常有用。我们提供一些标注的数据集,并包含未标注的数据集,以基本指导模型在其尝试自行找到模式的过程中朝正确的方向前进。虽然它不像监督学习那样具有绝对真理的级别,但它确实为模型提供了有助于组织其结果的一些线索,使其更容易找到正确答案的路径。

例如,假设您正在寻找一个试图在Google Photos中标记宠物的模型。您可以标记其中的一部分,然后看性能如何随着时间的推移通过您未标注的例子得到改善。在半监督学习中,您可以使用多个模型。这个过程很像监督学习,后者通过标注数据集进行学习,因此确切知道离正确答案有多远。监督学习和半监督学习之间的主要区别在于,您正在预测一部分新的未标注数据,然后基本上将其准确性与标注数据进行对比。您将未标注的新数据点添加到训练集中,以便它基于正确获取的数据进行训练。

半监督学习技术较少见,并且需要专门的培训和专业知识才能正确执行,这是由于多种因素造成的。正确标注数据的可用性、实现复杂性、对数据质量问题和噪声的敏感性以及性能变化都是团队可能抗拒半监督学习的原因。相比监督和非监督学习,半监督学习的工具、库和解决方案也较少。

最后,为了总结这一节,让我们简要了解一下强化学习。

强化学习

这个领域的机器学习通过试错来有效学习,因此它是从过去的行为中学习并自行调整方法以找到最佳性能。强化学习有一个序列,并且实际上是一个基于权重和奖励的系统,用以强化正确结果。最终,模型试图优化这些奖励,并随着时间推移变得更好。我们经常看到强化学习被用于机器人技术,例如,机器人被训练理解如何操作以及适应现实世界的参数,尽管现实世界充满不可预测性。例如,像驱动ChatGPT这样的模型最初是通过监督学习进行训练的,但随后通过来自人类反馈的强化学习(RLHF)进行了优化。

在强化学习中,您是从一个大的状态空间内的交互中学习。由于这里没有标签,这些模型是从一系列的动作、状态和奖励中学习。这种状态空间通常非常大,因此很难探索所有可能的状态和动作;引入某种形式的人类反馈有助于管理由该状态空间带来的潜在指数级规模。相反,强化学习模型是在寻找基于所接收反馈的最优学习路径。在训练过程中给予的反馈越多,它们学得越快。

以下是对所有学习范式的简要总结:

  • 监督学习:模型是在标注数据集上进行训练。常见任务包括分类(如垃圾邮件检测、图像识别)和回归(如房价预测)。
  • 非监督学习:模型是在未标注的数据集上进行训练。常见任务包括聚类和降维。
  • 半监督学习:模型是在混合数据集上进行训练,通常是较小部分的标注数据与较大部分的未标注数据相结合。常见任务类似于监督学习,但最常用于数据稀缺或难以获取的情况,如转录音频。
  • 强化学习:学习是在一个环境中进行,根据输出的准确性给出奖励和惩罚。常见任务包括游戏玩法、机器人技术和自动驾驶汽车等自主系统。

既然我们已经讨论并理解了不同的机器学习类型,接下来让我们转向近年来受到广泛关注的一个AI领域:大型语言模型(LLMs)和生成式AI。

LLMs、NLP、GANs 和生成式AI

正如“AI”是一个总称,“生成式AI”同样如此。从其名称可以推断,生成式AI是AI的一个领域,专注于生成新的内容,无论是文本、图像还是代码。驱动生成式AI的机器学习模型创建的输出与它们所学习的训练数据非常相似。

当您想到生成式AI时,主要应考虑先进的深度学习(DL)模型;这些模型可以分为三大类:

  • 潜在变量模型:这些模型试图从给定的训练数据中解析出隐藏因素(潜在变量)。从接收到的可见数据中,它们尝试理解数据中隐藏的决定因素。潜在变量模型的例子包括变分自编码器(VAEs)和基于能量的模型(EBMs)。使用这类模型构建的工具例子包括Artbreeder、NSynth(Google Magenta)、AutoCAD的生成设计和DeepLog。Netflix的推荐系统也部分由VAEs支持。
  • 对抗模型:这些模型更像是一场游戏,其中两个对抗模型并行“战斗”,以达到最佳结果。一个模型生成数据,而另一个模型评估生成的数据,确保其足够好以作为输出。对抗模型的例子包括生成对抗网络(GANs)和对抗性的EBMs。使用这类模型构建的工具例子包括DeepArt、Jukebox(OpenAI)、Adobe Photoshop(内容感知填充)、DALL-E、GANimation、GameGAN(NVIDIA)、FaceApp和Prisma。
  • 序列模型:这些模型在预测序列中的输出方面表现出色,并能够根据上下文使用先前的元素。它们为长篇文本生成铺平了道路,因为它们可以通过考虑所有之前的内容来逐个步骤地生成输出。序列模型的例子包括自回归模型、Transformer模型和扩散模型。使用这类模型构建的工具包括驱动ChatGPT的GPT模型(OpenAI)、Smart Compose(Google)、MuseNet(OpenAI)、PixelCNN和Google Translate。

最著名的生成式AI模型之一是2022年11月由OpenAI训练并推出的ChatGPT,在此之前,它经历了几乎十年的工作,由一个庞大的开源社区的开发者和科学家共同完成。现在它已经发布,许多科技巨头正试图用类似的产品在市场上竞争。尽管他们在创造真正具有竞争力的产品方面遇到了困难,但一些竞争对手的产品已经出现,包括谷歌的Bard和Gemini、微软的Bing Chat以及Anthropic的Claude和Mistral。请想象一下:这些模型如此复杂,需要如此多的计算能力和数据,即使是那些比大多数国家GDP还要富有的科技公司也面临着巨大的挑战。

使这些模型特别之处在于,它们是深度学习模型,即使对AI和深度技术了解甚少的人也可以访问。原因是当它们被推向市场时,它们是由提示驱动的。这意味着您必须向它提问或给出一个“提示”才能得到结果。由于数据量庞大,大部分是书面文本、图像和网页内容,它们擅长理解用户的需求以及用户可能想阅读或查看的内容。深度学习模型理解问题并生成响应的过程称为自然语言处理(NLP)。

聊天机器人或对话AI是旨在模拟人类对话的计算机程序。它们使用NLP来理解和响应用户的文本或语音输入。可以将它们视为虚拟助手,用于处理客户服务任务,如回答问题、提供推荐或以不同方式帮助客户支持。NLP由两个组件组成:

  • 自然语言生成(NLG) :AI解释并理解接收到的文本或语音,通过识别词语背后的含义、识别已知实体以及理解用户信息的意图。
  • 自然语言理解(NLU) :AI然后根据理解到的内容,构建连贯且上下文合适的响应,如简单的确认、更详细的指令或更深入的信息。

利用这种NLP能力的模型被称为大型语言模型(LLMs)。大多数LLMs采用结合非监督学习、监督学习和强化学习的学习过程。以ChatGPT为例,该模型是在包含非结构化数据的大规模数据集上预训练的。

对于有兴趣了解在非监督预训练步骤中使用的示例数据集的人,请随时探索以下链接:The Pile

涉及的阶段如下:

  • 第一阶段是非监督学习。
  • 接下来的训练阶段是监督微调,在这个阶段中,它会经历一个人类评审员介入并告诉它何时正确的修正阶段。
  • 最后的学习阶段是强化学习,在这个阶段中,奖励系统被引入反馈循环中以进一步提升性能。

在本书的后续章节中,我们将进一步探讨生成式AI模型及其驱动的深度学习模型的相关性和细节。目前,这只是一个关于生成式AI基础的简要总结。在讨论ML过程的最佳流程之前,让我们看看成功实现AI所需的条件。

在AI中取得成功 – 管理良好的AI公司如何正确构建基础设施

机器学习系统的复杂性表明,许多重度依赖ML的大型科技公司都有专门的团队和平台专注于构建、训练、部署和维护ML模型。以下是一些建立ML/AI项目时可以选择的选项:

  • OpenAI平台:OpenAI的AI管理平台涵盖了开发、部署和管理AI模型所需的工具和系统。这包括支持像GPT-4和其他AI技术创建及运营的训练基础设施、部署管道和监控系统。

  • 来自Databricks的MLflow:MLflow是Databricks开发的一个开源平台,旨在帮助企业管理和完成整个机器学习生命周期。它允许您运行实验并使用任何库、框架或语言。主要优势包括:

    • 实验跟踪使您可以查看不同实验之间的模型表现。
    • 模型管理帮助团队成员之间管理所有版本的模型。
    • 模型部署提供了在工具中快速查看部署情况的功能。
  • 来自Google的TensorFlow Extended (TFX) :这是Google基于TensorFlow构建的最新产品,是一个用于部署生产级ML管道的端到端平台。它提供了以下优势:

    • 团队内部和团队之间的协作。
    • 为可扩展、高性能环境提供强大的功能。
  • 来自Uber的Michelangelo:Uber是一个很好的例子,展示了公司如何创建自己的ML管理工具以促进协作和部署。以前,他们使用分散的语言、模型和算法,并且团队各自为政。在实施Michelangelo后,他们能够做到以下几点:

    • 将不同的技能和能力整合到一个系统中。
    • 使用可靠、可重现和标准化的管道大规模地创建、管理、预测和部署数据。
  • 来自Meta的FBLearner Flow:Meta也为管理其众多AI项目创建了自己的系统。由于ML在其产品中占据基础地位,Meta需要一个平台来实现以下目标:

    • 让每个实现过的ML算法都能在未来被其他人重用。
    • 让每位工程师都能够编写可以重用的训练管道。
    • 简化和自动化模型训练。
    • 让每个人都能轻松搜索过去的项目和实验。
    • 实质上,Meta创建了一个易于使用的知识库和工作流,以集中管理所有的ML操作。
  • 来自Amazon的SageMaker:这是亚马逊的产品,允许您使用其全托管的基础设施工具和工作流来构建、训练和部署ML模型和程序。这个产品的理念是:

    • 它使亚马逊能够在客户所在的地方与他们会面,并提供低代码或无代码的用户界面,无论他们是雇佣了ML工程师还是业务分析师。
    • 如果您已经在使用亚马逊的服务作为云基础设施,那么使用他们的基础设施也非常好,因为它可以让您进一步自动化和标准化您的ML/AI项目和操作规模。
  • 来自Airbnb的Bighead:Airbnb为了在其AI/ML组织间建立标准化和中央化,创建了自己的ML基础设施。他们使用了一系列工具,如Zipline、Redspot和DeepThought来编排ML平台,以实现与Meta和Uber相同的目标:

    • 减少错误和差异。
    • 最小化重复工作。

我们可以看到,有多个平台可以用来创建、训练和部署ML模型。现在,让我们继续讨论设置AI系统(无论是产品用途还是内部用途)的最佳流程。

流程 – 最佳流程是什么,每个过程部分应如何定位?

有兴趣通过AI/ML创造价值的公司相比那些更为犹豫的竞争者有更多收获。根据麦肯锡全球研究所的数据,“到2025年完全将AI融入其价值创造工作流的公司将在2030年的世界经济中占据主导地位,现金流增长超过120%。” 接受AI并将其生产化(无论是产品用途还是内部用途)是一项复杂、技术债务沉重且昂贵的任务。一旦选择了模型和用例,在生产环境中实现这一点就成为了一个难以管理的项目,而对于非科技行业的公司来说,开始迎接拥抱AI的挑战可能会更加困难。

操作化这个过程、更新模型、保持数据的新鲜和清洁、组织实验以及验证、测试和相关存储都是复杂的部分。为了使整个过程更易于理解,我们将以逐步的形式呈现,因为尽管复杂度不同,但基本组件是相同的。一旦您完成了简单部分,并确定了您认为对您的用例最优化的模型和算法,就可以开始精炼管理AI系统的流程。

请记住,以下步骤将在后续章节中更详细地扩展。但目前,以下部分可以作为设置和维护AI系统的参考。

第一步 – 定义

虽然本书的大部分内容将专注于与产品管理相关的AI,但您可以使用此流程来实施任何AI系统,即使它不是专门集成到您的产品中。正如任何产品经理所知,没有首先解决您试图解决的问题就不要开始寻找解决方案。无论您的AI系统的目的是什么,您都需要阐明您想要用AI解决的具体问题以及您希望通过它实现的目标。这使得您可以将该问题与潜在解决方案可能贡献的业务影响联系起来。将AI系统与业务影响对齐并说明它将如何帮助实现业务目标是第一步,因为您将要求您的组织为建立AI系统投入大量资源。

在他们批准您的请求之前,他们会有很多问题。弄清楚如何回答这些问题以及如何建立成功标准将是您的主要任务。规划大部分工作并建立需求和约束条件将是您创建AI系统的前期投资的一部分。能够识别与基础设施、数据可用性和计算能力相关的限制和需求,将确保您作为一个AI产品经理做好充分准备。您不仅需要领导层的批准,还需要利益相关者的同意。在大多数情况下,您需要咨询关键利益相关者,以便提供一个合理且周全的答案来解决您尝试解决的问题。

第二步 – 数据可用性和集中化

本质上,您需要一个中央位置来存储您的AI/ML模型和算法将从中学习的数据。根据您投资的数据库或使用的遗留系统,您可能需要一个提取、转换、加载(ETL)管道和数据工程,以使数据层和元数据对生产化的AI/ML模型可用,从而获取见解。可以将其视为创建向AI/ML系统喂送数据所需的管道。确定您训练和测试AI模型所需的数据类型和数量,以便从各种来源收集正确的数据,以建立您的集中式、集成训练数据集。

AI依赖于数据,如果您的数据传输系统笨拙或缓慢,您会在生产中遇到问题。选择您偏好的数据存储方式本身就很棘手。您不知道随着规模扩大,您的技术栈会如何演变,因此选择一个成本效益高且可靠的解决方案本身就是一项使命,同样地,清理和处理您决定使用的数据也是如此。您还想将数据集分为训练集、验证集和测试集。根据您选择的模型和目的,您还可以选择通过生成的数据点或外部数据源来扩充您的数据集。

例如,在我们之前工作的网络安全公司中,随着我们不断增加客户,我们注意到某些面向客户的仪表板加载时间滞后。部分问题是客户数量及其元数据过大,超出了我们已有的管道支持能力。

第三步 – 选择和训练模型

现在您已经掌握了要通过AI系统解决的问题以及如何收集和使用数据的方法,可以尝试构建解决方案。在这种情况下,就是您将要合作的模型类型。您的数据科学家能够选择适合所选问题性质的ML模型类,并研究适用于特定问题、数据类型、计算资源以及贵组织所能接受的透明度的良好模型。

这也是您为模型建立性能指标并了解训练和预测所需时间的地方。这取决于许多因素,并允许进行必要的实验以确定一个好的选择。您需要确保尽职调查,测试模型和配置的变体以找到最佳匹配。这是超参数调整和交叉验证发挥作用的地方,以确保您在选择驱动AI系统的模型时做出明智的选择。基于您的产品团队或组织的需求,您将确定一种平衡性能与复杂性、规模及资源的组合。

一旦确定了合适的模型或模型组合,您就需要准备所需的资源,为训练该模型准备好环境。在这个阶段,您将模型拟合到训练数据上,以理解数据中的模式和关系,并通过调整超参数优化模型性能。您定期使用验证数据集来确保模型能够很好地泛化您拥有的数据,并在训练和验证过程中维护模型版本。

第四步 – 反馈

在这个阶段,您将评估最初设定的性能指标以及这些指标在测试数据集上的表现。在整个过程中,您确保所选模型表现出色,并且足够强大,可以在验证和训练数据集上表现良好,以确保其泛化程度足以应对生产环境中的真实世界数据。请记住,您的模型总会犯错;没有一个模型是完美的。此步骤的重点在于理解并从模型犯下的错误中学习,以确立一个性能基准,当模型在生产中实时使用时进行衡量。

在这个步骤中,您需要确保调查错误的类型及其来源,以识别失败的模式和原因,从而在部署到生产环境之前确定如何改进模型。在这个阶段,您还将尽可能通过超参数调整、特征工程、模型压缩、性能优化以及边缘案例的最终测试来最小化错误。所有这些都将由与您的产品组织合作的数据科学家彻底记录下来。

第五步 – 部署

根据您的产品组织规模,您可能会有数据科学家与机器学习工程师协同工作,将所有在模型方面的工作转化为成功的生产部署。在这个阶段,部署环境将为训练好的模型被集成到已有的系统或应用程序中做准备。模型通常通过API或Web服务集成到这些系统中。此外,还将设置日志以持续跟踪模型的性能和操作状态。

如果您不使用工具来监控诸如响应时间、准确性、错误以及系统健康状况和性能等性能指标,您将无法了解模型的表现。这也是安全措施实施的地方,以确保模型及其使用的数据保持加密、安全,并且仅授权用户可以访问。

第六步 – 持续维护

此时,您已经有了模型和算法,并选择了向它们提供数据的系统。现在,您将进入不断维护这个系统的流程。在DevOps中,这被称为持续集成(CI)/持续交付(CD)。在后续章节中,我们将介绍AI用于IT运维(AIOps)的概念,但目前,以下是一个针对AI管道持续维护的阶段列表。持续维护过程的四个主要组成部分如下:

  • CI:测试/验证代码和组件,连同数据、数据模式和模型。
  • CD:代码更改或对模型的更新会连续传递,以便一旦做出更改,它们就会被安排出现在测试环境中,然后再进入生产环境,无需停顿。
  • CT:我们提到了持续学习对于ML的重要性,而持续训练将这一过程生产化,因此随着您的数据源刷新,模型能够持续从新数据中进行训练和学习。
  • CM:我们不能让ML/AI模型在没有持续监控的情况下连续运行,以确保不会出现严重的问题。

如果不经常迭代您的过程,或者不认真记录每个步骤,您就无法负责任地管理一个AI项目。您的模型和超参数将会过时,数据也会过时,当像这样的迭代过程停滞不前时,它将不再有效。文档本身也会变得陈旧。性能是您需要不断跟进的事情,因为性能不足的问题无论是否面向客户都会显而易见。话说回来,事情也可能会出错。

专注于正确的AI系统管理有着严重的伦理原因。根据产品及其用途,性能滞后或模型刷新频率不足可能导致人们失去工作、无法获得有竞争力的抵押贷款利率,甚至得到不公平的监狱判决。由于不当的模型维护,下游效应可能引发重大后果。我们建议探索本章末尾的“附加资源”部分,以获取更多关于停滞的AI系统如何对环境和人造成破坏的例子和信息。

存储和管理数据

AI/ML 产品依赖于数据运行。您如何存储以及在哪里存储数据是一个重大考虑因素,这会影响您的 AI/ML 性能。在本节中,我们将介绍一些最流行的存储解决方案来存放您的数据。找到最优的数据存储、访问和训练方式本身是一门专业技能,但如果您从事的是 AI 产品管理工作,最终您需要理解使您的 AI 产品运作的基本构建块。简而言之,是数据决定了这一切。

由于AI需要处理大数据,这对您的产品和业务来说将是一个重要的战略决策。如果您的系统不够流畅,您会遇到阻碍,从而影响模型的性能,进而影响到产品本身。掌握最适合您特定产品的最具成本效益和性能驱动的解决方案,并在这几个方面之间找到平衡,将有助于您作为产品经理的成功。是的,您将依赖技术主管来做很多这些决定,但您也会参与其中帮助做这些决定,因此对这里有一定的了解是必要的。根据您组织的目标和预算,您将以某种方式在数据湖、数据库和数据仓库之间集中化您的数据,甚至可能会考虑一个新选项:数据湖库(lakehouse)。让我们来看看为 AI/ML 产品存储数据的一些不同选择。

数据库

如果您刚开始接触这个领域,可能只是将数据存储在一个关系型数据库中,以便您可以轻松访问和查询它。如果您有一个相对简单的设置,数据库是一种很好的方法。如果数据库的主要用途是查询以访问数据,并且只使用公司数据的某些子集来进行一般趋势分析,那么关系型数据库可能是足够的。使用关系型数据库时,如果要将这些数据与其他数据库中的数据结合,则需要遵循特定的模式。然而,之后可能会遇到这些模式对齐的问题。因此,如果您希望结合来自不同业务领域的多个数据集,并完成更高级的分析、仪表板或 AI/ML 功能,您需要继续阅读以下内容。

数据库常见的挑战是它们可以创建数据孤岛,导致数据在不同的系统或业务区域中变得碎片化。结合这些数据可能既耗时又困难。我曾工作过的公司仅使用数据库,但由于这些限制,无法充分利用其数据。直到我在一家正在向使用数据仓库转型的新公司工作时,我才真正看到了建立数据仓库所能为公司提供的全部潜力。如果您计划查询数据并发现趋势,特别是如果您使用历史数据来预测未来趋势,您需要一种方法来集中化所有存储在操作数据库中的数据。为此,您需要一个数据仓库。

数据仓库

如果您想将数据整合到一个位置进行集中化,并且有大量的结构化数据流入,那么您更有可能使用数据仓库。这是成熟度的第一步,因为它可以让您快速利用跨各种业务单元的见解和趋势。如果您希望以多种方式而不是单一专门的方式利用 AI/ML,这将为您服务得很好。

例如,假设一家电子商务公司从其网站、销售交易、客户行为、库存和营销活动中收集了广泛的数据。为了该公司能够充分理解过去、现在和未来的趋势并报告这些趋势,他们需要找到一种方法来使用这些丰富的数据。数据仓库允许他们从各种来源提取数据,如销售系统、客户关系管理 (CRM)、库存管理系统和营销工具。它还允许他们清理和转换这些分散来源的数据,使它们都处于相同的标准化格式和标签系统中。最后,这种新的标准化数据会被加载到数据仓库中,在那里它们被妥善组织和存储,供分析师使用。中央存储库的重要性不容低估,尤其是当您想要使用高级分析来预测趋势、预测客户行为、为产品或业务应用AI,甚至是正确使用商业智能工具或工作台时。

然而,数据仓库确实需要前期投资来规划和设计数据结构。它们还需要昂贵的投资,因为它们让数据可供即时分析,所以您为保持这些数据随时可用支付了溢价。根据内部用户的先进程度,您可以选择更便宜的选项,但对于大多数业务用户寻找易于消化的数据分析方式的组织来说,这一选项是最优的。无论怎样,数据仓库都将允许您为内部用户和利益相关者团队创建仪表板。

数据湖(和湖仓一体)

如果您有大量的原始、非结构化数据,并且想要一个更具成本效益的地方来存储它们,那么您会考虑数据湖。在这里,您可以存储非结构化、半结构化和结构化数据,这些数据可以被更懂技术的内部用户轻松访问。例如,数据科学家和 ML 工程师能够使用这些数据,因为他们会创建自己的数据模型,实时转换和分析数据,但这并不是大多数公司的常态。

如果您有很多数据,而业务用户并不立即需要,将数据保存在数据湖中会很便宜,但您永远不能完全用数据湖替代数据仓库或数据库。对于拥有大量“大”数据的公司来说,这是一个“锦上添花”的功能。在前一节中,我们介绍了数据仓库的优势。简单来说,数据仓库能够获取原始数据并将其精炼到可使用的程度。公司不使用数据湖作为替代的原因在于,数据湖优化用于存储大量的原始数据,而不是已转换的数据。此外,如果您需要即时数据,数据湖可能会太慢。

许多数据湖采用“读时模式”的方法,即在观察数据时才应用结构,而不是预先定义模式。再次强调,因为数据是原始的,所以不会应用任何模式。这就是为什么它非常适合存储但不太适合访问数据的原因。即使您想访问它,最好实践是将其加载到数据仓库中进行分析。如果您有一个包含历史数据的巨大数据湖,并希望将来用于分析,您需要考虑另一种存储方式来获取这些洞察。

您也可能会遇到术语 lakehouse。虽然有许多数据库、数据仓库和数据湖,但我们所知唯一推广 lakehouse 的是一家名为 Databricks 的公司,它提供类似数据湖的东西,但具有一些数据仓库的功能,特别是展示数据的能力,使其对非技术人员内部用户可用和可摄入,并用它创建仪表板。这里最大的优势在于,您存储数据并提前支付存储费用,同时能够在下游访问和操作这些数据。

数据管道

无论您使用何种技术来维护和存储数据,您仍然需要建立数据管道,以确保数据按照业务需求及时流动、仪表板能够按需刷新,以及数据按所需方式流通。数据的处理和传递也有多种方式。您可能会以批处理的方式(batch processing)在不同时间间隔移动大量数据,或者通过实时管道在数据生成后立即获取实时数据。如果您希望利用预测分析、启用报告或建立一个系统来移动、处理和存储数据,那么数据管道通常就足够了。然而,根据您的数据用途及所需的转换程度,您可能既会使用数据管道,更具体地说,还会使用ETL(提取、转换、加载)管道。

image.png

ETL 代表提取(extract)、转换(transform)和加载(load),因此您的数据工程师将为更高级的系统创建特定的数据管道,例如将所有数据集中到一个地方、添加或丰富数据、连接数据与CRM工具,甚至在系统之间转换数据并为其添加结构。这是因为当使用数据仓库或数据库时,这是一个必要的步骤。如果您专门使用数据湖,则会拥有所有所需的元数据,以便能够按照您的需求分析数据并获得见解。在大多数情况下,如果您正在处理AI/ML产品,您将会与数据工程师合作,由他们来驱动使您的产品成功所需的数据流,因为您可能会同时使用关系型数据库和数据仓库。为了启用AI/ML功能所需的分析,很可能需要数据工程师专注于ETL管道来提供支持。

管理和维护这个系统的任务也将由您的数据工程师承担,我们鼓励每位产品经理与其产品的支持数据工程师建立密切的关系。ETL管道通常是以批处理方式更新而非实时更新。例如,如果您使用ETL管道来更新有关客户如何使用您产品的历史每日信息,以在平台上提供面向客户的见解,那么每天两次的批处理更新可能是最优选择。然而,如果需要为内部业务用户使用的仪表板提供实时见解,而这些用户依赖这些数据来做日常决策,那么您可能需要采用持续更新的数据管道。

现在我们了解了存储数据的不同选项以及如何为业务选择正确的选项,接下来让我们讨论如何管理我们的项目。

管理项目 – 基础设施即服务(IaaS)

如果您希望在组织中创建一个AI/ML系统,您需要将其视为一个您必须不断维护的独立生态系统。随着时间的推移,我们将看到越来越多的托管服务和基础设施即服务(IaaS)产品出现,特别是在公司内部实施AI以优化运营以及优化产品的需求日益增长的情况下。行业已经转向像Determined AI和Google的AI Platform Pipeline工具这样的公司,以满足市场需求。这种需求的核心在于希望通过这些服务减轻公司在开始构建AI系统这一巨大任务时所面临的困惑。

正如DevOps团队随着大规模软件开发而流行起来一样,这是数十年错误经验的结果,我们也将看到类似的趋势出现在MLOps和AIOps中。开发解决方案和将其投入运行是两个不同的关键领域,它们需要协同工作。对于AI/ML系统来说,这一点尤为重要。当前的趋势集中在IaaS上。根据Gartner的研究,“由于生成式AI和应用程序现代化的原因,IaaS预计将在2024年实现最高的最终用户支出增长,达到25.6%”,并且预计2025年将增长29.1%。这是一个重要的概念,因为刚开始接触AI的公司往往不了解进行AI所需的成本、存储、计算能力及投资,特别是对于需要大量数据训练的深度学习(DL)AI项目。

人工智能运维(AIOps)专注于使用机器学习和AI来自动化和增强IT操作和基础设施,例如问题检测、预测分析以防止停机、管理事件、分析根本原因或优化系统性能。

机器学习运维(MLOps)则专注于优化和管理ML模型的生命周期,从开发和部署到监控和维护。其目标是确保模型能够高效地集成到生产环境中。

目前,大多数公司还没有运行AI/ML程序几十年的经验,也没有专门的团队。像Meta、Amazon、Apple、Netflix和Google这样的科技公司正在引领管理和实施AI/ML的文化规范,但大多数需要拥抱AI的公司并不在科技行业中,并且对于AI采用将给工程团队带来的技术债务大多没有准备。管理与整合遗留系统与新AI技术和能力、围绕AI/ML生命周期建立结构、引入足够的技术技能来实现这一切、规划计算资源和存储需求、管理云和本地服务及基础设施、以及管理成本,这些都是AI产品经理需要考虑和准备的复杂问题。

为了启动AI计划而采取的捷径将要求重构代码或改变数据的存储和管理方式,这就是为什么战略规划和AI采用计划如此关键。除了规划和成本之外,AI产品经理还需要帮助组织衡量其计划的AI项目的成功与否,特别是当这些AI项目直接支持其产品时。设置性能指标、衡量对业务的影响、建立采纳和满意度模式,并将其与投资回报率(ROI)联系起来,都是AI产品经理工作的关键方面。这也是为什么这么多IaaS服务涌现出来,以帮助工程团队在未来需要变更时保持灵活性。随着时间的推移,维持AI团队运作所需的基础设施将会发生变化,而使用IaaS提供商的优势在于您可以运行所有项目,并只为AI开发者实际使用数据训练模型的时间付费。

部署策略 – 我们如何处理这些输出?

一旦您对所选模型(包括其性能和错误率)感到满意,并且已经建立了足够的基础设施来支持您的产品及其选定AI模型的使用案例,那么就准备好进入过程的最后一步,将代码部署到生产环境中。保持一个适用于您的产品和组织的部署策略将是上一节中概述的持续维护的一部分。您需要考虑诸如重新训练模型的频率以及刷新训练数据以防止模型衰退和数据漂移的问题。此外,您还需要一个系统来持续监控模型的性能,因此这个过程将非常具体地针对您的产品和业务,特别是因为这些重新训练的时期可能会要求您的系统有一定程度的停机时间。

随着时间的推移,如果用于训练ML模型的数据中的基本模式或关系发生了变化,模型的性能可能会逐渐下降,这被称为模型衰退(model decay)。

当ML模型使用的数据发生变化或偏离了模型最初训练的数据时,它可能导致模型预测的准确性降低,因为模式已发生改变。这被称为数据漂移(data drift)。

部署将是一个动态的过程,因为您的模型主要是在尝试有效地对真实世界的数据进行预测,所以根据您数据世界的变化,您可能需要给予部署更多的关注或较少的关注。例如,当我们为一家ML房地产科技公司工作时,我们几乎每天都在更新、重新训练和重新部署我们的模型,因为我们处理的是受移民数据和房价数据快速变化影响而严重倾斜的房地产数据。如果没有工程师和业务领导者在客户端和内部两端的努力,我们可能不会注意到一些由于代表性不足的数据而导致的模型预测偏差。

还有一些著名的部署策略您应该了解,我们现在来讨论一下。

阴影部署策略

在这种部署策略(通常称为阴影模式)中,您会部署一个具有新功能的新模型,同时保留现有的模型,使得新部署的模型只是当前生产中模型的“阴影”。这意味着新的模型会像现有模型一样处理所有请求,但它不会显示该模型的结果。这种策略允许您查看阴影模型是否在同一组真实世界的数据上表现更好,而不会干扰实际在线生产的模型。一旦确认新模型表现更好且运行无误,它将成为完全部署到生产环境中的主要模型,而原始模型将退役。

例如,如果一家流媒体公司想要测试一个新的推荐系统而不影响现有用户,它可以部署一种新算法与现有算法并行运行。这意味着新算法可以处理与原算法相同的用户数据,但不会真正做出任何推荐。原有的算法将继续提供推荐,而试验中的新算法也会处理相同的信息。这样,产品团队可以看到新算法如何处理数据并与其已知有效的算法进行比较。这意味着他们可以在不破坏现有客户群用户体验的情况下测试新算法及其有效性。

A/B 测试模型部署策略

通过这种策略,我们会同时观察两个略有不同的模型,以了解它们在实时环境中并发工作的效果。这两个模型会同时设置,并优化性能以奖励转化率。这实际上就像一个实验,您正在比较一个模型相对于另一个的效果,并且从某个假设或预期开始,即一个模型比另一个表现得更好,然后测试这个假设以验证其正确性。然而,模型之间的差异必须很小,因为如果两个模型的功能差异过大,您实际上无法理解是什么因素为您创造了最大的成功。

例如,如果一家电子商务公司想要尝试一种新的定价算法,以了解它是否会对销售产生影响,它可以将用户分为两组。一组看到旧的定价模型,而另一组则体验新的定价算法。由于这两组反映了真实的定价和购买决策,因此可以在一段时间内对比两组的结果。这将使公司能够监测网站并比较两组客户之间的销售表现、用户参与度和转化率,从而了解新定价算法的真实影响。

Canary 部署策略

在这里,我们看到的是一个更为渐进的部署方法,您会创建用户子集来体验新的模型部署。这意味着随着时间的推移,受新模型影响的用户数量会逐渐增加。这样,您可以在用户组之间设置缓冲时间,以了解他们如何反应和与新模型互动。本质上,您是在使用不同组的用户作为测试者,在向新一批用户发布之前逐步捕捉可能出现的问题。如果具备耐心和勇气,这是一个缓慢但有回报的过程。

例如,如果一款照片分享社交媒体应用想要测试新的照片编辑功能,它可能会仅将此新功能部署给一小部分测试组。“Canary”小组可以监控性能、采用情况和反馈,从而在面向整个用户群推出前识别出该功能或能力可能存在的更大问题。能够在较小的群体中测试功能可以最小化更广泛推广时可能出现的风险。在初次实验成功后,他们有机会根据反馈进行更改或改进,然后再向更广泛的受众开放。

选择这些策略时需要考虑以下因素:

  • 您产品的性质
  • 预算,即对客户和用户最重要的是什么
  • 您的指标和性能监控
  • 您的技术能力和知识
  • 时间线

除了部署之外,您还需要帮助您的业务理解应该多频繁地进行代码重构和分支管理。

例子

让我们以一家食品配送服务为例,该公司希望为其应用程序推出一项改善配送时间预测的新功能。他们在canary部署、A/B测试和阴影部署方法之间进行了考量,以下是各自的优缺点:

  • 阴影部署:新的配送时间功能与当前的配送时间功能并行运行。新功能会收集关于用户交互的数据,但只有当前的配送时间功能会实际输出可见的配送时间给用户。

    • 优点:产品团队可以在不影响用户的情况下用真实条件测试新功能。
    • 缺点:由于用户实际上不会与新的配送时间功能互动,产品团队无法知道它会如何影响用户参与度或用户行为。
  • A/B 测试:产品团队将用户分为两组,第一组使用当前的配送时间功能,第二组使用新的配送时间功能。

    • 优点:产品团队可以比较当前和新功能在预测配送时间上的有效性,以及它们如何影响用户、他们的行为和参与度。
    • 缺点:测试功能需要仔细考虑和设计,以确保两个组可以公平对比。同时,产品团队还需注意不要意外重叠用户。
  • Canary:产品团队可以用5%的用户测试新的配送时间功能,并监测他们的反应。

    • 优点:这使产品团队可以在更多用户受到影响之前监控任何对用户行为和参与度的不利反应,并修复任何问题。
    • 缺点:小群体用户可能不能代表整个客户群。不在canary组的一些用户细分市场可能对新功能更加敏感。

最终,产品团队决定采用A/B测试部署策略,因为他们不想承担来自canary组的未知风险,也不希望像在阴影部署策略中那样没有任何用户直接体验到变化。他们希望能够一次性获得新功能对用户参与度、用户行为和配送准确性的影响的明确、可比的测量结果。观察推广如何在现实场景中影响用户,并与现有功能进行直接比较是至关重要的。因为公司有足够的基础设施来适当地处理A/B测试,也有手段全面分析结果,所以他们继续进行了配送时间预测功能的A/B测试。

现在我们讨论了不同的部署策略,让我们从宏观角度来看一看AI将带我们走向何方。

AI 的承诺 – AI 将带我们走向何方?

那么,这个AI实施的时代将走向何方,这对所有行业意味着什么?在这个阶段,我们看到的是一个地缘政治影响力下的产业,这是一个伴随着大量责任、成本和机遇的技术性显而易见的选择。只要公司和产品经理意识到运行一个AI程序所需的风险、成本和投资水平,将其作为好奇心的来源,并将AI/ML应用于能够早期取得成功的项目并从这些知识中积累,那些投资于AI的人将会体验到AI的承诺。这一承诺根植于量化预测和优化。以下是一些例子:

  • 亚马逊35%的销售额来自于其个性化推荐引擎,因为该引擎在根据用户行为、偏好和过往购买记录建议产品方面非常有效。这占其总收入的35%,对AI投资的ROI以及收入产生了重大影响。
  • Netflix的内容推荐引擎通过个性化推荐提升了用户参与度和留存率,每年带来约10亿美元的价值。通过减少流失率和提高客户留存率,公司能够降低获取新客户的成本以及因客户流失而导致的收入损失。
  • Shopify使用AI检测和预防交易中的欺诈行为,帮助其整个卖家和商家社区在其平台上感到安全。这些工具帮助公司避免了拒付和损失,显著降低了欺诈成本,超过2000万次欺诈授权被他们的干预阻止。

当三分之一的收入来自一个AI算法时,几乎没有任何争论的空间。无论您在AI/ML上的任何投资,确保通过适当的规划和策略来最大化利用它,找到了解这个领域及其潜在风险的有能力的人才,并选择合适的可扩展基础设施以限制重构的需求。

只要您的AI/ML项目直接与影响成本节约或收入的结果相结合,如果您负责监督这些项目,您很可能会在自己的职业生涯中取得成功。从小处着手,将其应用于明确的业务目标,跟踪该目标,并展示其有效性,这是一种明智的策略,因为本章详细介绍了维护AI程序的许多领域,以及可能遇到障碍的地方。如果无法向最犹豫不决的高管传达AI的力量和能力,那么为时间、人力资源的投资和基础设施费用辩护将具有挑战性。

对于您的技术资源(数据科学家、数据工程师和机器学习工程师)以及业务利益相关者来说,这也是重要的。了解您将使用的ML算法或获得一些关于如何最佳存储数据的建议是一回事,但如果您不通过自己的项目迭代并从中积累哪些方法最有效的知识,您将不会具备真正成为组织变革推动者的亲密度和流利度。我们通过迭代学习,并随着任务的成功完成而建立信心。对于作为产品经理的您来说也是如此。

在本节前面讨论的例子中,Shopify通过预测欺诈防止了未来的瓶颈,Netflix减少了流失率同时增加了忠诚度,而亚马逊则通过机器学习扩大了其收入。当我们思考AI的承诺以及它将带我们去哪里时,这些例子说明了一个观点,即这是最新工业革命的家园。它不仅仅是为公司提供益处,而是同时为所有人提供益处。由于最终是那些投资于这项技术的公司将寻求实现最高回报,因此收益分配可能不会完全平等,但消费者和企业都将从AI中受益这一点依然成立。

总结

在本章中我们涵盖了很多内容,但请记住,这一章只是作为介绍我们在本书中将要讨论的许多术语和领域的入门。后续章节将会对这里提出的许多概念进行更深入的讨论。几乎无法过分强调AI/ML所需的基础设施对于成功的重要性,因为很多性能都取决于我们如何交付数据以及如何管理部署。我们介绍了ML和DL的基本定义、它们可以采用的学习范式,以及生成式AI。我们也探讨了一些设置和维护AI管道的基础知识,并包括了几个其他公司如何管理这类操作的例子。

构建利用AI/ML的产品是一项雄心勃勃的事业,本章旨在为整体设置AI程序的过程提供足够的基础,以便我们可以在接下来的章节中建立在这个过程的各个方面上,而无需在书的后期引入过多的新概念。如果您感到有些不知所措,这仅意味着您正在理解使用AI所需的规模。这是一个很好的迹象!在第二章中,我们将深入探讨本章简要介绍的ML模型的使用和维护。

额外资源

如需更多信息,您可以参考以下资源:

  • 《数学杀伤性武器》(Cathy O’Neil):链接
  • 《看不见的女人:揭露设计男性的世界中的数据偏见》(Caroline Criado Perez):链接
  • 《伦理算法:社会意识算法设计的科学》(Michael Kearns 和 Aaron Roth):链接
  • 《人工不智能:计算机如何误解世界》(Meredith Broussard):链接
  • 《压迫算法:搜索引擎如何强化种族主义》(Safiya Umoja Noble):链接
  • 《技术之后的种族:新吉姆代码的废除工具》(Ruha Benjamin):链接
  • 《监控资本主义时代:在权力新前沿为人类未来而战》(Shoshana Zuboff):链接
  • 《自动化不平等:高科技工具如何描绘、警察和惩罚穷人》(Virginia Eubanks):链接
  • 《数据女权主义》(Catherine D’Ignazio):链接

参考资料

  • Canva上的机器学习分类:链接
  • 模型部署策略:链接
  • Duolingo使用AI改进教育的三种方式:链接
  • GGWP平台:链接
  • Hazy概述:链接
  • AI–50美国最有前途的人工智能公司:链接
  • Shein基于AI的扩展及其日益增长的可持续性挑战:链接
  • 产品主导增长,Wes Bush
  • 注意差距 – 如果不在生产中,就不是AI/ML:数据策略系列第四部分:链接
  • Airbnb端到端ML平台:链接
  • Amazon SageMaker:链接
  • 引入FBLearner Flow: Facebook的AI骨干:链接
  • 从预测到生成 – Michelangelo如何加速Uber的AI之旅:链接
  • TFX是一个用于部署生产ML管道的端到端平台:链接
  • 管理MLflow:链接
  • 使用Lakehouse确保您的数据策略面向未来:链接
  • 计算机与智能:链接
  • MLOps基础的关键要求:链接
  • TikTok如何使用机器学习?:链接
  • 通用人工智能的火花:GPT-4早期实验:链接
  • 世界科技巨头与经济体量的比较:链接
  • 2024年人工智能指数报告:链接