首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
ChatGPT与大模型研究
数据智能老司机
创建于2023-05-22
订阅专栏
生成式AI探索和研究,场景落地。
等 130 人订阅
共460篇文章
创建于2023-05-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
精通 PyTorch——深度卷积神经网络架构
在本章中,我们将首先简要回顾卷积神经网络(CNN)架构的发展历程,然后详细研究不同的CNN架构。我们将使用PyTorch实现这些CNN架构,并通过此过程深入探索PyTorch在构建深度CNN时提供的工
精通 PyTorch——使用 PyTorch 的深度学习概述
深度学习是一类机器学习方法,它彻底改变了计算机/机器在现实生活中构建自动化解决方案的方式,以前的技术难以实现这些效果。深度学习利用大量数据来学习输入与输出之间的复杂非线性关系,如图1.1所示,这些输入
构建基于LLM的应用程序——使用LLM的搜索和推荐引擎
在上一章中,我们介绍了构建对话应用程序的核心步骤。我们从一个基础的聊天机器人开始,然后逐步添加了更复杂的组件,例如记忆、非参数化知识和外部工具。借助LangChain的预构建组件以及Streamlit
构建基于LLM的应用程序——为您的应用程序选择合适的LLM
在上一章中,我们探讨了如何在应用程序中正确协调大型语言模型(LLM)及其组件的重要性。事实上,我们还了解到,并非所有的LLM都是相同的。接下来的关键决策是实际选择使用哪些LLM。不同的LLM可能具有不
使用 LlamaIndex 进行索引
本章深入探讨了 LlamaIndex 中不同类型的索引。我们将解释索引的工作原理、关键功能、定制选项、底层架构和应用场景。总体来说,本章将作为一个指南,帮助利用 LlamaIndex 的索引功能来构建
使用 LlamaIndex 构建聊天机器人和智能体
本章深入探讨了使用 LlamaIndex 的功能实现聊天机器人和智能体。我们将探索各种聊天引擎模式,从简单的聊天机器人到更高级的上下文感知和问题精简引擎。接着,我们将深入分析智能体架构,包括工具、推理
使用 Ray 的 MLOps——MLOps 采纳策略与案例研究
毫无疑问,我们正处于人工智能(AI)/机器学习(ML)运营化的蓬勃发展时期。根据Gartner的一篇文章《IT预算在增长。资金流向何处》,AI/ML在技术列表中名列前茅,几乎一半的首席信息官(CIO)
精通Transformer——参数高效微调
微调已经成为AI中的一种流行建模范式,尤其是在迁移学习中。本书中到目前为止的所有实验都基于更新所有参数的方式。因此,从现在开始,使用“全量微调”这个术语更为准确(也称为全模型微调或全参数微调)。 在本
精通Transformer——提升模型性能
到目前为止,我们已经使用常见的方法解决了许多任务,并取得了一些成功。然而,通过利用特定的技术,我们可以进一步提高任务的性能。在文献中有几种方法可以提高Transformer模型的性能。在本章中,我们将
精通Transformer——文本表示
到目前为止,我们已经使用 transformers 库解决了分类和生成问题。文本表示是现代自然语言处理(NLP)中的另一个关键任务,尤其适用于无监督任务,如聚类、语义搜索和主题建模。本文将介绍如何使用
精通Transformer——为标记分类微调语言模型
在本章中,我们将学习如何为标记分类任务微调语言模型。诸如命名实体识别(NER)、词性标注(POS)和问答(QA)等任务将在本章中进行探讨。我们将学习如何在这些任务上微调特定的语言模型,重点将放在BER
精通Transformer——自解释人工智能(XAI)在NLP中的应用
大型语言模型(LLMs)的日益普及将模型输出的准确性与可解释性之间的权衡摆到了前台。可解释人工智能(XAI)研究中的最大挑战是处理深度神经模型中存在的大量层和参数。那么,我们如何解决这个问题呢?我们能
精通Transformer——微调语言模型用于文本分类
在本章中,我们将学习如何配置一个预训练模型以进行文本分类,并如何微调它以适应任何文本分类的下游任务,例如情感分析、多类分类或多标签分类。我们还将讨论如何处理句子对和回归问题,并提供一个实现示例。我们将
精通Transformer——从生成模型到大型语言模型
在本章中,您将学习生成语言模型(GLMs)和大型语言模型(LLMs)。接下来,您将学习如何在自己的文本上预训练任何语言模型,例如生成预训练变换器2(GPT-2),并将其用于自然语言生成(NLG)等任务
精通Transformer——自动编码语言模型
在上一章中,我们研究了如何使用 Hugging Face 的 Transformers 来应用典型的 Transformer 模型。到目前为止,本书的所有章节都包括了如何使用预训练或预构建模型的说明,
精通Transformer——从词袋模型到Transformer模型
在过去的二十年里,自然语言处理(NLP)领域取得了显著的进展。我们经历了各种不同的范式,如今已经进入了Transformer架构的时代。这些进步帮助我们能够更有效地表示单词或句子,从而解决NLP任务。
对抗性AI攻击、缓解和防御策略——构建我们的对抗游乐场
在第一章中,我们介绍了人工智能(AI)和机器学习(ML)的核心概念,以帮助奠定使用对抗性AI的基础。在本章中,我们将提供ML开发的实际操作演练,展示如何创建和管理您的开发环境,使用算法,并导航我们描述
Elastic 中的模型管理与向量考虑
在本章中,我们将提供 Hugging Face 生态系统、Elasticsearch 的 Eland Python 库以及在 Elasticsearch 中使用嵌入模型的实用策略概览。我们将首先探索
Elastic 中的向量搜索
欢迎来到《在 Elastic 中开始学习向量搜索》。在本章中,我们将了解在 Elastic 中搜索的基本范式,以及向量搜索如何成为实时、上下文感知和准确信息检索的强大工具。 在本章中,我们将涵盖以下主
将数据摄取到我们的RAG工作流中
我们已经从整体上了解了LlamaIndex的结构。现在是时候深入了解这个框架的细节了。随着我们的深入,技术性将会增加,但也会变得更加有趣。 准备好深入探索了吗?跟我来! 在本章中,我们将学习以下内容:
下一页