首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
ChatGPT与大模型研究
数据智能老司机
创建于2023-05-22
订阅专栏
生成式AI探索和研究,场景落地。
等 113 人订阅
共327篇文章
创建于2023-05-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
低代码AI:在Python中训练自定义机器学习模型
在本章中,你将学习如何使用Python构建分类模型来预测客户流失,使用两个流行的机器学习库:scikit-learn和Keras。首先,你将使用Pandas探索和清理数据。然后,你将学习如何使用sci
低代码AI:使用自动机器学习(AutoML)来检测欺诈交易
在本章中,您将构建一个Vertex AI AutoML模型,用于预测金融交易是否为欺诈交易。在创建托管数据集之前,您将在Google Colab笔记本环境中对数据集进行清洗和探索,就像在第三章中所做的
低代码AI:使用BigQuery ML训练线性回归模型
在本章中,您将学习如何从头开始构建一个线性回归模型和一个神经网络模型,用于预测发电厂的产量。您将使用SQL进行数据分析,使用Jupyter Notebook进行数据探索,并使用BigQuery Mac
低代码AI:使用AutoML预测广告媒体渠道的销售额
在这一章中,您将使用AutoML构建一个模型,以预测广告媒体渠道的销售额。首先,您将使用Pandas探索数据。然后,您将学习如何使用AutoML来构建、训练和部署一个机器学习模型,以进行销售额的预测。
低代码AI:机器学习库和框架
本章介绍了简化机器学习(ML)模型开发的ML框架。通常情况下,您需要了解数学、统计和ML的基本工作原理,才能构建和训练ML流程。这些框架通过自动化许多耗时的ML工作流任务,如特征选择、算法选择、代码编
低代码AI:数据是第一步
本章概述了本书中使用的用例和数据集,同时提供了有关在进一步学习和实践中找到数据源的信息。您还将了解数据类型以及批处理和流处理数据之间的区别。您将通过使用Google的免费基于浏览器的开源Jupyter
低代码AI:数据如何在机器学习中推动决策制定
本章探讨了数据在企业中的作用以及其对业务决策制定的影响。您还将了解机器学习(ML)工作流程的组成部分。您可能已经看到许多书籍、文章、视频和博客在讨论ML工作流程时都会从数据收集开始。然而,在收集数据之
生成式人工智能技术的产业影响
一些核心观点 从技术推动产业发展的角度,我们认为生成式人工智能技术是一项具有通用型技术潜力的软件技术。 产业应用方需要清晰的认识到其作为一项软件技术的定位与局限性,但同时认识到它是一项具有操作 系统级
AIGC构建的未来智能银行展望
引言 自2022年底ChatGPT-3.5发布起,生成式AI(Generative AI)的话题热度持续走高。 该技术并非只停留于概念阶段 ,而是已开始加速影响着各行各业 ,无论是技术本身还是应 用演
《Transformers for Natural Language Processing》第三章:BERT模型的微调
在第二章中,我们开始了对Transformer模型体系结构的探讨,其中我们定义了原始Transformer体系结构的构建模块。可以将原始Transformer视为使用LEGO®积木构建的模型。这个构建
LLMOps:大型语言模型的MLOps
迁移学习和大语言模型 大型语言模型(LLMs)如ChatGPT已经引起了公众的关注,许多公司正在寻找机会将类似的功能整合到其产品中,但可能会加入更多的领域专业知识和关注点。 这可以通过迁移学习实现,即
有关LLMOps的思考
什么是LLMOps? 大型语言模型运营(LLMOps)包括在生产环境中操作管理大型语言模型所使用的实践、技术和工具。 最新的LLM进展,如OpenAI的GPT、Google的Bard和Databric
《Transformers for Natural Language Processing》第二章:开始学习变换器模型的架构
语言是人际交流的本质。如果没有构成语言的词序,文明就不会诞生。我们现在生活在数字化语言功能的世界中。我们的日常生活依赖于NLP数字化语言功能:网络搜索引擎、电子邮件、社交网络、帖子、推文、智能手机短信
《Transformers for Natural Language Processing》第一章:什么是Transformers?
变换器是为超级计算机上的并行计算而设计的工业化、同质化的深度学习模型。通过同质化,一个变换器模型可以在不需要微调的情况下执行各种任务。变换器可以在数十亿条未标记的原始数据记录上进行自监督学习,具有数十
LangChain系列教程:使用会话代理赋予LLM超能力
大型语言模型(LLMs)非常强大,但它们缺乏一些“最笨”的计算机程序可以轻松处理的特定能力。逻辑、计算和搜索是计算机通常擅长的领域,但LLMs则表现不佳。 计算机可以解决非常复杂的数学问题,然而,如果
LangChain系列教程:使用知识库修复幻觉
大型语言模型(LLMs)存在数据新鲜度问题。即使是像GPT-4这样最强大的模型,也不了解最近的事件。 根据LLMs的视角,世界仿佛停滞在某个时间点。它们只知道世界是如何在它们的训练数据中呈现的。 这对
LangChain系列教程:使用Langchain的LLMs进行对话记忆
对话记忆是指聊天机器人如何以对话方式响应多个查询。它使对话连贯,并且如果没有它,每个查询都将被视为完全独立的输入,而不考虑过去的交互。 这种记忆使得大型语言模型(LLM)能够记住与用户之前的互动。默认
LangChain系列教程:提示工程和Langchain中的LLMs
在机器学习中,我们过去总是依赖不同的模型来完成不同的任务。随着多模态和大型语言模型(LLMs)的引入,这种情况发生了变化。 过去,我们需要为分类、命名实体识别(NER)、问答(QA)和许多其他任务使用
LangChain系列教程:介绍和入门
大型语言模型(LLMs)在2020年OpenAI发布GPT-3后进入了世界舞台[1]。从那时起,它们在人气上稳步增长。 直到2022年底。对LLMs和更广泛的生成式人工智能学科的兴趣飙升。这可能是因为
《特征工程训练营》——自然语言处理:社交媒体情感分类
我们过去的两个案例研究专注于完全不同的领域,但有一个共同的重要组成部分:我们处理的是结构化表格数据。在接下来的两个案例研究中,我们将看到特殊情况,需要采用特定的特征工程技术来实现机器学习。在这个案例研
下一页