首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
人工智能
Q同学
创建于2022-01-21
订阅专栏
人工智能相关博客、笔记、论文整理
等 22 人订阅
共233篇文章
创建于2022-01-21
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
强化学习笔记(二):基于价值函数的强化学习(Value-based Reinforcement Learning)
本文正在参加「金石计划」 导语 本系列笔记为b站Shusen Wang老师的强化学习课程笔记,整体按照老师讲课的思路来记录。本节课主要介绍DQN和利用TD算法来训练DQN。 Action-Value
强化学习笔记(一):强化学习基础(Deep Reinforcement Learning Basic)
本文正在参加「金石计划」 导语 本系列笔记为b站Shusen Wang老师的强化学习课程笔记,整体按照老师讲课的思路来记录。本节课介绍强化学习中的一些基础概念和一个标准的实验库Gym。 概率论复习 随
论文笔记:Enhancing Multi-modal and Multi-hop Question Answering via Structured Knowl
导语 会议:Arxiv 2022 链接:https://arxiv.org/abs/2212.08632 1 简介 多模态和多跳问答(Multi-modal and Multi-hop Questio
论文笔记:DS-1000: A Natural and Reliable Benchmark for Data Science Code Generation
导语 DS-1000是专注于数据科学领域的NL2Code数据集,也是最近发布的新文章,这里简要记录。 会议:Arxiv 2022 链接:https://arxiv.org/abs/2211.11501
论文笔记:When Neural Model Meets NL2Code: A Survey
导语 最近调研到一篇NL2Code领域比较全面的综述文章,是上个月挂到Arxiv的,总结了很多最新的内容,这篇论文涉及的方面还算是比较广,然而文章稍有冗余,给人感觉像是在凑字数撑篇幅,很多关键的地方又
论文笔记:The Pile: An 800GB Dataset of Diverse Text for Language Modeling
导语 会议:Arxiv 2020 链接:https://arxiv.org/abs/2101.00027 1 简介 随着NLP领域不断扩大语言模型训练规模,对高质量海量文本数据的需求将持续增长。大多数
论文笔记:The Stack: 3 TB of permissively licensed source code
导语 本文介绍了Text-to-Code领域最近的一篇数据集文章,这是由Huggingface发布的一个拥有30种编程语言的3.1TB数据规模的代码预训练语料。 会议:Arxiv 2022 链接:ht
论文笔记:CodeSearchNet Challenge Evaluating the State of Semantic Code Search
导语 本文记录了GitHub 团队在2019年发布的CodeSearchNet 语料库论文的学习笔记,该语料库旨在为代码搜索领域提供基准数据集,提升代码搜索结果的质量。 会议:Arxiv 2019 链
论文笔记:CodeGen: An Open Large Language Model for Code with Multi-Turn Program
导语 会议:ICLR 2023在投 链接:https://arxiv.org/abs/2203.13474 1 简介 程序合成(program synthesis)的目标是使编码过程自动化,并生成满足
Text-to-SQL学习整理(三十):BINDER模型
导语 Binder模型是最近借助Codex进行自然语言到SQL/Python等转换的方法,它仅需少量标注就可以适配多种不同的编程语言。 链接:https://arxiv.org/abs/2210.02
论文笔记:InCoder: A Generative Model for Code Infilling and Synthesis
导语 会议:ICLR 2023在投 链接:https://arxiv.org/abs/2204.05999 1 简介 最近,大型的语言模型在代码生成等相关领域取得了令人印象深刻的进展。然而,这些lef
论文笔记:A Systematic Evaluation of Large Language Models of Code
导语 会议:MAPS 2022 链接:https://arxiv.org/abs/2202.13169 关键词 code language model, evaluation, pretraining
论文笔记:CodeT5: Identifier-aware Unified Pre-trained Encoder-Decoder Models for Code
导语 会议:EMNLP 2021 链接:https://arxiv.org/abs/2109.00859 1 简介 最近,很多研究尝试将NLP领域的PLM模型引入到编程语言领域,如CodeBERT等,
论文笔记:CodeXGLUE: A Machine Learning Benchmark Dataset for Code Understanding and
导语 会议:Arxiv 2021 链接:https://arxiv.org/abs/2102.04664 关键词 program understanding, machine learning, na
论文笔记:CodeBERT: A Pre-Trained Model for Programming and Natural Languages
导语 会议:EMNLP 2020 Findings 链接:https://arxiv.org/abs/2002.08155 1 前言 随着NLP大型预训练语言模型的广泛应用,越来越多的多模态PLM出现
DeepMind AlphaCode模型学习笔记
导语 AlphaCode是DeepMind在CodeX发表后紧随其后发表的一篇工作,该工作相比于CodeX可以接收更加长的输入和程序竞赛级别的题目难度,并在在线评测中打败了一半的人类参赛者。 会议:
GPT-3 Codex模型学习笔记
导语 OpenAI在去年曾经使用Github上所有公开的Python代码训练了一个code版本的GPT-3,在当时曾引发广泛争议,本文简要记录对该模型的学习笔记。 会议: arxiv 链接: http
GPT、GPT-2和GPT-3概览
本文正在参加「金石计划 . 瓜分6万现金大奖」 导语 本文简要总结了GPT、GPT-2和GPT-3的一些发展和对比。 GPT: Improving Language Understanding by
Text-to-SQL学习整理(二十九):STAR--SQL导向的上下文相关Text-to-SQL解析的预训练
持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第31天,点击查看活动详情 导语 STAR是目前CoSQL排行榜上的SOTA模型,该模型从改进预训练角度出发,弥补了之前SCORE
Text-to-SQL学习整理(二十八):RASAT--将关系结构集成到T5模型中
持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第30天,点击查看活动详情 导语 直接Fine-tune T5可以在Text-to-SQL任务上取得不错的表现,之前有工作尝试对T
下一页