首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
大模型
YBCarry_段松啓
创建于2023-10-17
订阅专栏
大模型相关技术
等 23 人订阅
共53篇文章
创建于2023-10-17
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
微软在人工智能领域的华丽转身
本文将深入剖析微软在人工智能领域的最新举措,从硬件创新到平台构建,再到数据平台的核心角色,揭示微软如何通过技术创新和战略规划,持续保持在人工智能领域的领导地位。
OpenAI GPT模型演进之路(二)
自 2015 年 OpenAI 成立以来,它已经成为了人工智能领域的一股强大力量。本系列文章将回顾 GPT 模型的发展历程,分析其关键的技术突破和创新,以及探讨其对未来人工智能发展的影响。
OpenAI GPT模型演进之路(一)
自 2015 年 OpenAI 成立以来,它已经成为了人工智能领域的一股强大力量。本系列文章将回顾 GPT 模型的发展历程,分析其关键的技术突破和创新,以及探讨其对未来人工智能发展的影响。
BERT:从理解语言到产生语言
尽管 BERT 模型在今天很少以原始形式使用,但这种模型架构仍有很多值得借鉴的地方。本文介绍其中具有代表性的 BERT 模型,探讨 BERT 的工作原理及在 NLP 中的应用。
A Structured Self-Attentive Sentence Embedding:自注意力机制
A Structured Self-Attentive Sentence Embedding 提出了一种新的结构化自注意力句子嵌入模型,旨在通过引入自注意力机制来提高句子嵌入的精度和可解释性。
Sequence to Sequence Learning with Neural Networks:序列到序列学习方法
在机器学习领域,序列到序列的学习任务一直是一个巨大的挑战。然而,随着神经网络的发展,尤其是深度神经网络(DNNs)和长短期记忆网络(LSTM)的出现,让我们看到了解决这一问题的希望。
Neural Machine Translation by Jointly Learning to Align and Translate:输入输出注意力机制
注意力机制是当下深度学习中的后起之秀,了解强大的注意力技术的起源有助于我们掌握许多基于其延伸出的发展,本文将介绍这个注意力机制背后的逻辑。
部署 ChatGLM3:从0开始实现聊天机器人
智谱AI在2023中国计算机大会(CNCC)上推出了全自研的第三代基座大模型ChatGLM3,本文将介绍如何基于 ChatGLM3 搭建客户端,从0开始实现一个聊天机器人。
LangChain 与 Chroma 的大模型语义搜索应用
本文探索如何使用 LangChain 和 Chroma DB 进行语义搜索,讨论索引文档、检索语义相似的文档、实现持久化、集成大语言模型 (LLM) 以及使用问答和检索器链。
Attention Is All You Need:Transformer 模型
Attention Is All You Need最初被提出作为自然语言处理中 RNN 网络的替代品,是注意力机制使用方面的一大进步,是对Transformer 模型的主要改进。
Chroma:构建高性能向量数据库
Chroma 是一个备受欢迎的向量数据库,它具有出色的性能和灵活性,可用于各种应用,从自然语言处理(NLP)到计算机视觉(CV)。本文帮助入门并开始构建属于自己的向量数据库。
LangChain:自然语言处理新范式
随着大语言模型 (LLM) 的引入,自然语言处理已成为互联网上的热门话题。LangChain 是一个开源框架,使开发人员能够开发由大语言模型支持的应用程序,本文将将带您走进 LangChain 的世界
Prompt:掌握AI生成文本的关键工具
Prompt是使用AI 技术的关键工具,本文将深入探讨 Prompt 的基本概念和使用方法,帮助更全面地了解这个强大的AI生成工具。