1,GPT思维简介
其本身是通过数据分析思维来塑造GPT更好的回答,提高其回答结果的准确性,从而可以更好的利用这个工具来为我们当下的生活解决问题。而数据思维本身的价值是保持自己独立的判断能力,从越来越多令人困惑的现象中,看清楚事物的本质。
《教父》里有句话影响了很多人 —— “花半秒钟就看透事物本质的人,和花一辈子都看不清事物本质的人,注定是截然不同的命运。”
(1),基本思维
当你给 GPT 安排任务的时候,把相关背景说得越清楚,具体要求提得越明确,它执行起来也会越符合你的期待。
(2),地基-看见差距
1),目标思维★★★
正确的定义问题,合理的分解问题,抓住关键的问题。提问的质量,决定了GPT回答的质量,也决定了GPT能产生多大的价值。
利用目标思维,提出一个基本的好问题。在基本问题的基础上,再进行优化提示,当然要建立在实际情况的基础之上,对 提示词(Prompt)进行适当的优化。
- 你想让它扮演一个什么角色的人?
- 这个人当下正处于什么样的环境?
- 这个人接下来会做些什么?
- 这件事儿有什么难点或者要求?
当一个人心中有了明确的目标之后,就算遇到再大的困难,也会选择更加从容的应对。
2),对比思维
对比思维体现,往往体现在方方面面,比如对比不同的提问方式、对比不同的环境假设、对比不同的角色、对比不同GPT问答工具(ChatGPT3.5、ChatGPT4、Google的Claude、文心一言、通义千问)等等。
例如:
- 如果我是一个计算机专业的人员,请用100个字左右来介绍一下什么是数据结构?
# 专业名词
数据结构是计算机科学中研究数据组织、存储和管理的一门学科。数据结构不仅关注数据本身的特性,也着重于数据之间的关系和操作方法。通过合理地选择和设计数据结构,可以达到高效地存储和访问数据的目的,从而提高程序的运行效率和性能。
常用的数据结构包括数组、链表、堆栈、队列、树和图等,它们各有特点,可以应用于不同的场景和问题。
- 但是如果我是一个普通人,你会怎么解释计算机专业的一个名词:“数据结构”呢?请用100个字左右进行表述?
# 会使用简单类别的语言来解释专业名词
数据结构是计算机中用来存储和组织数据的方式。类似于人们用抽屉、书架、衣柜等来整理自己的物品一样,计算机也需要一些特定的方法来存储和访问数据。
常见的数据结构包括数组、链表、树、图等,不同的数据结构适合不同的应用场景和问题。通过合理地选择和设计数据结构,可以提高程序的效率和性能。
3),细分思维
细分思维的核心便是分而治之的思想,不仅仅体现在此处,在面对比较复杂的大问题,通过分而治之的思想可以将采用逐个击破的方式,将大问题拆分成几个比较简单的小问题,然后利用GPT来逐步进行解决。
在分而治之的思想中,通过分段生成想要的内容,往往比直接采用GPT直接生成的内容要更加的完善,可以在其中添加更多的自己的思考的内容,从而体现自己的想法和感悟,包括自己的实践和经验。
(3),支柱-分析原因
1),溯源思维
溯源思维的核心还是如何提问,即溯源思维是如何锻炼如何提问的一种很好的方式,当你不断的刨根问底,去找到问题背后真正的原因,那么你就会把问题聚焦,而也是只有聚焦了才方便更好的解决问题。通过把问题聚焦,从而可以将问题进一步的描述清楚、具体,从而更好的优化提示词,从而保证GPT的回答更加的完善,也将会是我们所需要的东西。
2),相关思维
相关思维的核心在给GPT提供具体的问题时,同时给一些相关的事物,也可以理解成更宽泛的对比思维,即不仅仅是问题的对立面,而是只要与问题本身的相关的事物都可以作为提示词的一部分出现,从而让GPT可以生成类似的结果,增加结果的相关性,从而使得我们可以更多、更好的灵感。
3),假设思维
假设思维的核心是驾驭在第一性原理的基础之上,对现有的问题进行合理的猜想和假设,并在后续的数据分析中验证这些假设和猜想。同时,我们可以结合细分思维,将复杂的问题拆分成小的问题,通过假设的方式,做进一步的简化处理,从而更快的找到解决问题的方法。当然,假设应该基于逻辑、经验和尝试,同时还需要注意避免偏见和主观臆断的干扰。
在这里我们可以实践一下假设思维:我们既然知道提出一个好的问题,就可以得出一个好的答案,但我们不知道该如何提出,那么我们可以假设已经提出了一个问题,尽管它怎么好,接下来可以给到GPT,让GPT给出几个好的问题方向,如果还是不够清楚明白,那么可以让GPT通过类比、举例等方式进行讲解。
(4),屋顶-预见未来
1),逆向思维
成功的道路因人而异,因为每个人的情况各不相同。但在失败的人身上,却有很多共同的特点和规律。如果我们能从失败中吸取教训,避免犯类似的错误,就能增加成功的概率。
沃伦·巴菲特建议:列出自己最想实现的 25 件事,按重要性进行排序,然后安排时间去做排名前 5 的事情,并不惜一切代价极力避免去做剩下的 20 件事,因为这 20 件事其实不够重要,却又有很大的诱惑力,让你无法专心做最重要的那 5 件事。
以上都是逆向思维的体现。
2),演绎思维
演绎思维的核心是基于已有的预设条件或事实,运用逻辑推理和数学模型来分析问题并得出结论的思维方式。这种思维方式可以帮助我们理顺问题,明确分析步骤,并得到可靠的结论。
在数据分析中,演绎思维用于建立统计模型、数据建模等方面,通过已知的事实和数据导出新的结论,从而对数据进行预测和解释。演绎思维需要非常严谨的逻辑推理和良好的数学基础,同时还需要对数据所在的领域有深入的了解,以保证结论的准确性和可靠性。
3),归纳思维
“归纳思维”的核心是基于已有的数据和实际经验,通过总结概括共性和规律性,推广到更广泛的情况下,进行思考和分析的思维方式。这种思维方式可以帮助我们从大量的复杂数据中提取出有效信息,并作为新问题的解决方案。
在数据分析中,归纳思维常用于数据挖掘、模式识别和分类等方面,通过对大量数据的分析总结,发现规律和特征,从而得出新的结论和预测。归纳思维需要对数据所在领域有深入的了解,同时还需要注重数据的质量和可靠性,以保证结论的准确性和可信度。
2,GPT工具的原理
(1),GPT
当提到GPT时,通常是在指代"Generative Pre-trained Transformer" ,即预训练生成式转换器。
- "Generative"表示GPT具有生成内容的能力,可以基于已有的信息生成全新的文本内容;
- "Pre-trained"表示GPT是一种预训练模型,经过大规模的无监督学习,掌握了自然语言的基本特性,包括语义、语法、句法等方面的知识,而且不需要在使用之前再进行针对性的训练;
- "Transformer"则是表示GPT所采用的编码解码框架,它是一种由Google提出的基于注意力机制的神经网络结构,可以帮助更好地处理自然语言处理问题,特别是在长文本生成等方面取得了很好的效果。
(2),Transformer中的注意力机制是什么?
这里所说的注意力机制是基于模型本身的,Transformer模型中的注意力机制,是一种让模型能够自动关注输入数据不同部分,从而更好地识别和理解文本内容的技术。 简单来说,就是让模型知道该去“关注”哪些输入数据中的信息,并且根据需要对其进行加权,使得在输入序列中对当前输出的影响更大。
举个例子,假设模型正在处理一篇文章的翻译,而该文章包含多个句子。在传统的神经网络中,每个输出单元都仅仅与输入序列的相应单元有连接,但是在使用注意力机制后,模型可以在处理每个输出时自动关注输入序列中更相关的部分。比如,在翻译某句话时,模型会关注文章中与该句子相关的其他句子,将重点放在其中,从而更好地进行翻译。
(3),GPT隶属于机器学习的哪一种方式?
GPT(Generative Pre-trained Transformer)是一种基于深度学习的自然语言处理模型。它属于机器学习中的一种,准确来说是一种监督学习和无监督学习相结合的方法。
- 首先,GPT通过大规模的无监督学习,在海量的文本数据上进行预训练,从而掌握了自然语言的基本规律、语义和语境等方面的知识,这部分属于无监督学习。
- 其次,在针对具体的自然语言处理任务时,如文本分类、机器翻译等,GPT使用有标注的数据对模型进行fine-tune微调,并采用监督学习方式来进行训练和优化,这部分属于监督学习。
(4),BERT模型与GPT模型的关系?
BERT(Bidirectional Encoder Representations from Transformers)是Google在2018年提出的一个自然语言处理模型,它是一个基于Transformer编码器的双向建模的预训练模型。与GPT类似,BERT也是通过大规模无监督训练获取了语言知识,然后再在具体任务上进行fine-tune微调,使模型具备特定的语言处理能力。
- 与GPT相比,BERT的最大区别在于其采用的是双向编码器,即同时考虑文本中前向和后向的序列信息。这种方法可以更好地处理语言中的复杂关系和歧义,尤其在一些需要对上下文进行深入理解的任务中,如问答、语义搜索等方面表现的效果更好。
- 而GPT是一种单向建模的预训练模型,擅长语言生成任务。
(5),AI模型中的两个重要的范畴:生成式AI和分析式AI
(1),生成式AI
- 生成式AI(Generative AI)指的是一类模型,其主要目标是能够生成出与人类或现实世界类似的内容。例如,生成图片、音乐、文本等。生成式AI通常采用概率模型来表示输出的数据分布,并通过采样的方式来生成内容。
- ChatGPT正是一种典型的生成式AI模型,它能够通过预训练学习自然语言处理的知识,从而可以生成连贯、自然的对话,并且在应用场景中具有很高的灵活性和可用性。
(2),分析式AI
- 分析式AI(Analytic AI)则是指一类模型,其主要目标是使用给定的信息和规则进行推理和分析,以解决特定的问题。例如,图像分类、语音识别等应用均属于分析式AI。
- 与生成式AI不同,分析式AI通常更依赖于规则和特定的数据集,模型的输出也更多的是给出已知信息的分析结果。然而,在现代的深度学习技术的支持下,一些分析式AI模型也开始逐渐向生成式AI模型靠拢,并尝试自主地从数据中学习规则。
(6),什么是大语言模型,GPT、BERT和大语言模型有什么联系呢?
- 大语言模型(Large Language Model)是指使用深度学习技术训练的具有数十亿或更多参数的自然语言处理模型。这些模型通常使用Transformer等深度神经网络结构,并预训练于大规模未标记的文本数据上,以学习通用的语言表示和模式,从而能够在特定任务中进行fine-tune微调。
- GPT、BERT和其他大型语言模型都致力于提高自然语言处理的效率和准确性,通过大规模数据预训练来获取通用的语言知识,然后在具体任务上进行优化和微调,以提供更加准确和自然的语言处理结果。