首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Weekly Papers
叶子的技术碎碎念
创建于2024-02-18
订阅专栏
每周AI论文速递,来源于Huggingface的Daily Papers,选择其中比较热门的论文。
等 21 人订阅
共61篇文章
创建于2024-02-18
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
每周AI论文速递(240722-240726)
Internal Consistency and Self-Feedback in Large Language Models: A Survey 大语言模型中的内部一致性与自反馈:一项调查 大语言模
每周AI论文速递(240715-240719)
SpreadsheetLLM: Encoding Spreadsheets for Large Language Models SpreadsheetLLM:优化大语言模型处理电子表格的能力 电子表格
每周AI论文速递(240708-240712)
Unveiling Encoder-Free Vision-Language Models 无编码器视觉-语言模型的探索 当前的视觉-语言模型(VLMs)主要依赖视觉编码器提取视觉特征,并结合大语言模
每周AI论文速递(240701-240705)
Scaling Synthetic Data Creation with 1,000,000,000 Personas 利用 10 亿角色扩展合成数据创建 我们提出了一种新颖的以角色驱动的数据合成方法
每周AI论文速递(240624-240628)
LongRAG: Enhancing Retrieval-Augmented Generation with Long-context LLMs LongRAG: 使用长上下文大语言模型增强检索增强生
每周AI论文速递(240617-240621)
XLand-100B: A Large-Scale Multi-Task Dataset for In-Context Reinforcement Learning XLand-100B: 一个大规模
每周AI论文速递(240610-240614)
Mixture-of-Agents Enhances Large Language Model Capabilities Mixture-of-Agents 增强大语言模型能力 最近在大语言模型 (L
每周AI论文速递(240603-240607)
Transformers are SSMs: Generalized Models and Efficient Algorithms Through Structured State Space Du
每周AI论文速递(240527-240531)
Meteor: Mamba-based Traversal of Rationale for Large Language and Vision Models Meteor: 基于 Mamba 的大型
每周AI论文速递(240429-240503)
PLLaVA : Parameter-free LLaVA Extension from Images to Videos for Video Dense Captioning PLLaVA:图像至视
每周AI论文速递(240422-240426)
AutoCrawler: A Progressive Understanding Web Agent for Web Crawler Generation AutoCrawler: 一个为 Web 爬
每周AI论文速递(240415-240419)
Pre-training Small Base LMs with Fewer Tokens 使用更少的 Token 对小型基础 LMs 进行预训练 我们研究了一种简单方法来开发一个小型基础语言模型 (
每周AI论文速递(20240408-20240412)
Direct Nash Optimization: Teaching Language Models to Self-Improve with General Preferences 直接纳什优化:教
每周AI论文速递(240401-240405)
Jamba: A Hybrid Transformer-Mamba Language Model Jamba:混合 Transformer-Mamba 语言模型 我们推出了 Jamba,这是一种基于创
每周AI论文速递(240325-240329)
Can large language models explore in-context? 大语言模型能进行上下文探索吗? 我们研究了当代大语言模型(LLMs)在多大程度上能够进行探索,这在强化学习和
每周AI论文速递(240318-240322)
Uni-SMART: Universal Science Multimodal Analysis and Research Transformer Uni-SMART: 通用科学的多模态分析研究 Tr
每周AI论文速递(240311-240315)
Gemini 1.5: Unlocking multimodal understanding across millions of tokens of context Gemini 1.5:跨数百万T
每周AI论文速递(240304-240308)
VisionLLaMA: A Unified LLaMA Interface for Vision Tasks VisionLLaMA: 视觉任务的统一 LLaMA 接口 大语言模型基于 Transf
每周AI论文速递(240226-240301)
MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases MobileLLM: 针对移动设
每周AI论文速递(240219-240223)
Linear Transformers with Learnable Kernel Functions are Better In-Context Models 具有可学习核函数的线性 Transfo
下一页