首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
【2023签约计划】掘金AI签约作者专栏
Conqueror712
创建于2023-07-16
订阅专栏
本专栏主要以人工智能方向的论文解读为主。
等 4 人订阅
共14篇文章
创建于2023-07-16
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
LLM具有幻觉?FST可能是解药!丨论文解读
📕当 LLM 出现生成的文本在语法、结构或上下文连贯性方面可能存在的不准确或不符合预期的问题时,我们就称 LLM 出现了幻觉。
RankVicuna,开源LLM Reranking的一大步丨论文解读
📕RankVicuna,能够在zero-shot情况下执行高质量的列表Reranking,通过使用LLM进行Reranking可以利用其强大的语言理解和生成能力,对搜索结果进行更准确和个性化的排序。
目前地表最大的训练数据量——百川2丨论文解读
📕3.6万亿token!目前地表开源LLM的最大训练数据量,本文介绍了百川2系列多语言LLM,包括百川2-7B和百川2-13B,拥有大规模的参数和训练数据。
当LLM面对囚徒困境,阁下又该如何应对?丨论文解读
📕本文研究了三种LLM:GPT-3.5、GPT-4和LLaMa-2在博弈论框架下的战略决策能力。作者利用四个经典的双人博弈游戏——囚徒困境、狩猎野鹿、雪堆和囚徒的喜悦。
解决LLM在对抗攻击中乱说话的方法——UAT几何化丨论文解读
📕本篇论文的研究提出了一种新的,基于几何的视角,解释了LLM上的通用对抗攻击。并通过实验,即攻击GPT-2模型找到了支持这一假设的证据。并基于此采取相应的缓解和避免模型乱说话的措施。
思维骨架SoT如何提升LLM的速度?丨论文解读
📕SoT是一项以数据为中心的优化工作,展示了推动语言模型更像人类思考以提高答案质量的潜力。SoT旨在减少大型语言模型的生成延迟。通过引入思维骨架的概念来实现。
文本生成音乐音频的开源利器AudioCraft丨论文解读
📕AudioCraft是一个用于音频生成的PyTorch库,包含三种最先进的人工智能生成模型的推理和训练代码,可以产生高质量的音频,通过文本输入进行生成。
LLM也能用小黄鸭调试法?丨论文解读
📕本文提出了SELF-DEBUGGING,一种能够使LLM自我调试生成的代码的方法。实验结果表明,SELF-DEBUGGING能够显著提高模型在代码生成任务中的性能,并且能够提高样本效率。
LLM和婴儿的学习路径竟然如此相似?丨论文解读
📕语言模型学习语言现象的顺序竟然与儿童如此相似?这表明它们在语言技能习得方面存在相似性。这种情况可能受到两个因素的影响:语言现象在自然语言中的频率和它们的内在复杂性...
2023了,再来看看NLP经典之作 - BERT丨论文解读
📕Q:2023年了,我是人工智能小白,该如何入门学习呢? A:不妨从一些经典的论文开始看起吧?本篇介绍NLP领域的划时代之作——BERT,简单易懂,生动有趣!
NLP的林子大了,什么「大鸟」都有 - BigBird丨论文解读
📕Q:既然上次我们知道了ELMo、BERT都是芝麻街的东西,那还有什么吗?我觉得这样的命名好有趣! A:当然!不妨来看看2020年的一篇大鸟,呃不对,是论文——BigBird吧!
再回首划时代的技术 - Transformer丨论文解读
📕Transformer模型的提出,不仅仅是一种新的神经网络模型,更是一种全新的思路和范式,它开创了自注意力机制的新时代,成为NLP领域的一股强劲推动力量,就如几年前的CNN之于CV一样。
2023年LLM如何入门?请看这篇综述!丨论文解读
📕我们重点关注大型模型,同时排除早期预训练语言模型的内容,特别是,我们的调查讨论了LLM的四个重要方面,即预训练、适应调整、利用和评估。
CV还有新东西吗?有!Slide-Transformer丨论文解读
📕在本文中,我们重新审视了Local Attention机制,并通过提出一种仅使用常规卷积操作的新型Slide Attention模块来解决其效率开销问题。