首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
芝士AI吃鱼
掘友等级
算法工程师
走别人的路,让别人无路可走
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
21
文章 14
沸点 7
赞
21
返回
|
搜索文章
最新
热门
ScholarCopilot:使用精确引用彻底改变学术写作
ScholarCopilot:使用精确引用彻底改变学术写作 简介 学术写作对人工智能系统提出了独特的挑战,尤其是在准确且在上下文中适当整合引文方面。虽然大型语言模型(LLM)可以生成流畅的学术文本,但
Paper2Code:自动从机器学习科学论文生成代码
Paper2Code:自动从机器学习科学论文生成代码 引言 可重复性是科学进步的基石,但在机器学习研究中,存在一个明显的差距:许多已发表的论文缺乏相应的代码实现。这阻碍了结果的验证,并减缓了科学的进步
多模态检索增强生成基准测试:动态 VQA 数据集和自适应规划代理
多模态检索增强生成基准测试:动态 VQA 数据集和自适应规划代理 介绍 多模态大型语言模型 (MLLM) 在理解和生成跨文本和图像的内容方面取得了令人印象深刻的能力。然而,与纯文本模型一样,MLLM
持续学习与灾难性遗忘
持续学习是智能的关键方面。它指的是从非平稳数据流中增量学习的能力,对于在非平稳世界中运作的自然或人工智能体来说是一项重要技能。人类是优秀的持续学习者,能够在不损害先前学习技能的情况下增量学
基于Transformer的自监督学习在NLP中的前沿应用
1. 引言 自然语言处理(NLP)领域正经历一场由自监督学习(Self-Supervised Learning, SSL)和Transformer架构共同驱动的革命。自监督学习通过巧妙地利用未标注数据
大规模语言模型在NLP中的应用与挑战
1. 引言 自然语言处理(NLP)领域正经历着一场由大规模语言模型(Large Language Models, LLMs)引发的革命。这些模型凭借其惊人的规模和复杂性,正在重新定义我们对机器理解和生
如何更加淡定的面对滚滚大模型的潮流
大模型出现的时候,有一种说法是程序员要被淘汰了,一年多的时间,程序员没有被淘汰,被淘汰的好像是没有用好AI的程序员。希望找到志同道合的朋友,一起在大模型的潮流下,保持提升,更有勇气去面对不确定性的未来
Token预测的未来:大型语言模型的预训练后操作
大型语言模型 (LLMs) 例如 GPT-4,经常被简单地描述为仅靠概率预测下一个单词的模型。过去我也曾分享过这种观点,以降低人们对这类模型的高期望值。然而,这种看法低估了现代大型语言模型的真正复杂性
无限长的上下文,也干不掉的RAG
概述 本文《Lost in the Middle: How Language Models Use Long Contexts》由Nelson F. Liu等人撰写,发表于2023年11月20日。论文
当基准测试不再可靠,我们该如何寻求新的评估方法?
在过去的几年里,在迁移学习的进步的推动下,NLP中的模型变得更加强大。性能急剧提高的一个后果是现有基准被抛在后面。最近的模型“已经超过了测试它们的基准”,在SuperGLUE和SQuAD等标准基准上迅
下一页
个人成就
文章被点赞
8
文章被阅读
12,604
掘力值
535
关注了
8
关注者
14
收藏集
0
关注标签
5
加入于
2020-12-08