「每日一学」轻轻敲开GPT的大门🚪(纯科普,内附黑科技)

1,404 阅读8分钟

本文为纯科普向,较少涉及代码,主要是为不清楚GPT的小伙伴做科普,文章最后会附有一些黑科技,感兴趣的小伙伴可以去看看或者使用,仅供学习与交流使用,不做商业用途。

前言

近日公司内部需要做一个月会技术分享,故写下此文章记录。

导读

  • 简介
    • 什么是GPT
    • GPT的历史背景
    • OpenAI 的历史背景
    • GPT的重要性和应用领域
  • 工作原理
    • 预训练和微调
    • 注意力机制的作用
    • Transformer架构该书
  • GPT对我们的好处有什么,为什么要用GPT
  • 相关文章
  • GPT的实际应用
    • 例子
    • 实战
  • 黑科技

I.📝 简介

A.什么是GPT

生成预训练转换器(Generative Pre-trained Transformer,简称GPT)是一种基于深度学习的自然语言处理模型,通过预先在大规模语料库上进行训练,从而能够理解和生成人类语言。

B.GPT的历史背景

GPT的起源可以追溯到2018年,由OpenAI提出。自那时以来,它经历了多个版本的发展,不断提升模型规模和性能。

C.OpenAI 的历史背景

下载.png

OpenAI(开放人工智能研究中心)是一个美国人工智能研究实验室,由非营利组织OpenAI Inc,和其营利组织子公司OpenAI LP所组成。 成立于2015年,总部位于美国加州旧金山。它最初由伊隆·马斯克(Elon Musk)、山姆·阿尔特曼(Sam Altman)、格雷格·布洛克曼(Greg Brockman)、伊尔·古德费洛(Ilya Sutskever)等人共同创立。OpenAI 的目标是推动人工智能技术的发展,致力于开发具有先进智能水平的系统,并将相关技术和研究成果开放给社会,以促进人工智能的全球范围内的积极应用。OpenAI 进行AI 研究的目的是促进和发展友好的人工智能,使人类整体受益。 OpenAI 系统运行在微软基于Azure 的超级计算平台上。

D.GPT的重要性和应用领域

GPT在自然语言处理领域引起了广泛关注,因为它在各种任务上表现出色,包括文本生成、翻译、对话、代码生成等。其强大的语言理解和生成能力使其在人工智能、科研、商业等领域都具有重要应用价值。


II.🤖 工作原理

A. 预训练和微调

GPT的工作过程分为两个主要阶段:预训练和微调。预训练阶段通过大规模语料库的无监督学习,使模型学习语言的结构、语法和语义。微调阶段则通过在特定任务上的有监督学习来调整模型参数,使其适应特定任务。

B. 注意力机制的作用

GPT的核心是Transformer架构,其中的注意力机制允许模型在处理输入序列时分配不同权重给不同位置的信息。这使得模型能够在生成文本时考虑上下文的关联,从而产生更加连贯和准确的输出。

C. Transformer架构概述

Transformer架构由编码器和解码器组成,但在GPT中,只使用了编码器部分。编码器由多层自注意力机制和前馈神经网络组成,它们协同工作以对输入序列进行编码和抽象表示。


III.💡 GPT的各个版本

A. GPT-1

GPT-1(Generative Pre-trained Transformer 1)是第一个版本的GPT系列模型,于2018年由OpenAI发布。它拥有1.17亿个参数,采用了12层的Transformer架构。虽然在当时已经取得了一定的成就,但相对于后续版本,GPT-1的规模较小,生成的文本可能在连贯性和语义上存在一些限制。

B. GPT-2

GPT-2于2019年发布,引起了广泛的关注。这个版本的模型规模更大,拥有1.5亿至15亿个参数可供选择。GPT-2以其出色的文本生成能力和语境理解而闻名。然而,由于担忧其被滥用生成虚假信息,OpenAI最初选择了不完全公开发布,后来逐渐提供了更大规模的模型供研究和应用。

C. GPT-3

GPT-3是目前(截至2021年9月)为止最新的版本,于2020年发布。这个版本的模型规模巨大,最大的版本拥有1750亿个参数。GPT-3在多个任务上展现出令人惊叹的通用性,能够执行文本生成、翻译、对话等任务,而无需针对特定任务进行微调。

D. 各版本的改进和区别

随着版本的升级,GPT系列模型在模型规模、训练数据、生成能力和性能方面都有显著的改进。每个版本都尝试解决前一个版本的局限性,提高了生成文本的质量和多样性,以及对上下文的理解能力。GPT-3特别引人注目,因为它推动了预训练模型的极限,并在广泛的任务中表现出色,但也引发了关于其潜在风险和伦理问题的讨论。


IV. 👨‍💻 GPT的应用场景

A. 自然语言生成

  1. 文本创作: GPT系列在生成文章、故事和诗歌方面具有广泛应用。模型可以根据给定主题和风格生成高质量的文本内容。

image.png

  1. 代码生成: GPT模型还可以生成程序代码,从简单的代码段到复杂的算法实现,为开发人员提供了帮助。

image.png

  1. 对话生成: GPT可用于生成自然流畅的对话,用于聊天机器人、虚拟助手等。

image.png

B. 语言翻译与理解

GPT系列在语言翻译和理解方面也有广泛应用。它们能够将文本从一种语言翻译成另一种语言,并能够推断上下文中的隐含意思。

C. 智能助手和客服

GPT模型可以用作智能助手和客服系统,回答用户的问题、提供建议和解决问题,为用户提供个性化的支持。

D. 数据处理与分析

GPT系列可以帮助处理和分析大量的文本数据,从中提取有用的信息、趋势和模式,为决策制定提供支持。

E. 医疗领域应用

在医疗领域,GPT可以辅助医生分析医疗文档、研究报告和病历,帮助提供更准确的诊断和治疗建议。

F. 创新的可能性与潜在风险

虽然GPT系列为各种领域带来了许多创新应用,但也带来了一些风险,如虚假信息生成、隐私问题以及人类失业等。因此,合理的使用和监管变得至关重要。之前在掘金内有阅读到讲解的很好的文章,推荐大家看一看,(提示词破解:绕过 ChatGPT 的安全审查),本章节不过多讲解。


VI.🕶️ 市面上的GPT实际应用

A.ChatGPT「官网地址,点击跳转」

ChatGPT是由OpenAI开发的一种人工智能语言模型,基于GPT(Generative Pre-trained Transformer)系列架构。它被训练用于生成自然语言文本,可以用于回答问题、进行对话、生成文本等多种任务。ChatGPT使用大量的文本数据进行预训练,从而学会理解语言的语法、语义和上下文,并能够生成流畅、连贯的文本。

ChatGPT的一个重要特点是,它可以根据输入的提示或问题来生成合适的回答。它在广泛的主题上都有一定程度的知识,并可以进行聊天式的对话。然而,需要注意的是,ChatGPT的知识截止日期是2021年9月,因此它可能不会了解在此日期之后发生的事件。

OpenAI已经发布了几个版本的GPT模型,每个版本都在之前版本的基础上进行了改进和优化。ChatGPT是其中的一个版本,旨在更好地处理对话和交流任务。

image.png

B.GitHub Copilot「官网地址,点击跳转」

image.png

C.New Bing「官网地址,点击跳转」


VII.ChatGPT的使用技巧

A.什么是Prompt

Prompt直意为提示词,简单易懂地讲就是用户提的问题就是Prompt,很大程度上ChatGPT 对话中使用的提示语(Prompt)的质量可以大大影响对话的成功。定义明确的提示可以帮助确保对话保持在正轨上,并包含用户感兴趣的话题,从而带来更有吸引力和信息量的体验。

image.png

参考博客:juejin.cn/post/721553…


VIII.自己编写代码

参考博客:juejin.cn/post/724324…