#聊一聊 AIGC# AIGC就是用人工智能的算法去生产一些内容,而AI为什么能够自己去生产内容?
这里头其实关键的一个信息叫做GPT,它其实就像我们大脑里头的神经元这样的一个东西。我们大脑里头有数以亿计的神经元组合在一起共同的作用,让我们去具备了一个人类的智能。而机器,它其实就用了GPT的东西,让机器产生了一个智能。GPT,我们也可以分别拆开它的每个字母来理解,代表就是生成式这样的一个概念,跟传统的积极学习会有一些区别。像我们传统做人工智能算法的时候,它基本上是我传进去一个文本或图像,最后会给以分类或者是以回归的方式给你一个准确的判断。

而生成是模型会有一些不太一样,它基本上是我文本输入会输出文本或者是文本输入生成一个图片。它更像是我不同模态之间信息的一个预测。而这个技术可以用到我们比如像问答系统、机器翻译,还有文本生成这样的一些任务。而第二个单词p,它所代表的就是预训练。预训练在这个作过程中,其实作用是非常非常大的。因为像我们人类有很深,通过几千年的演变,我们把所有的知识全部沉淀到了书本里头,然后我们去进行学习。而机器其实也是同样的道理,但是我们会用一个巧妙的方式,就是我们让机器通过理解上文,他预测下一个单词,这样一个简单的任务,人工智能的算法。利用刚才我说的那个就是要介绍的这个GPT的单元,就能够学习到文本底下的知识。这个我们就怎么去理解它,其实会有一个游戏,我们不知道聚会的时候,大家有没有玩过,我们围了一桌人。每个人会说一个字,第二个人会基于第一个人的字去接下一个,最后的话就一圈一圈这样轮下来以后,大家每人说一个字,最后它能够组成一个完整的故事。
其实机器去预训练或者学习人类知识也是同样的道理,他就是通过把文本的上文去预测下文,通过这样的一个过程,虽然是非常简单的,但是这个过程中他却能学习到大量知识底下所隐含到的那些潜在的信息。

而最后的话其实就是那个t是transformer,我们就理解成就是人类大脑中最小的记忆单元,就是那个神经元。而机器对于另一就是机器的神经元,用来存储信息和相互作用。最后能够产生智能。主要就是用LSTM。后面是他们推出以后,主要是迁移到了transformer,这样的一个最小的神经元。
展开
评论