首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
论文翻译
_山海
创建于2023-11-22
订阅专栏
养成研读论文的好习惯
暂无订阅
共10篇文章
创建于2023-11-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
大语言模型之LlaMA系列-LlaMA 2及LlaMA_chat(下)
有用性、安生性、RHLF、SFT等是LlaMA一直调用的几个点。LlaMA最近出了一款代码生成的LlaMA,都是以LlaMA1为基础构,并在此基础上更新迭代。
通用人工智能的能力评估框架-Levels of AGI: Operationalizing Progress on the Path to AGI
AGI能力评估等级包括:无AI能力,新兴,熟练、专家、大师、超人类六级,以及现阶段所达到的水平。 该文中:AlphaFold,lphaZero, StockFish已经是超人了。
大语言模型之ICL(上下文学习) - In-Context Learning Creates Task Vectors
大模型显著特点是可以从少量的示例集合(demonstrations)中就学到新规则。例如,我们向模型输入`苹果->红色, 青柠->绿色 , 玉米 -> ` 就得到`玉米`对应的`黄
多模态大语言模型综述(下)-任务实用指南
图像字幕、手语识别、情感分析、视频处理、更聪明的数字人、数据集等场景:模态的发展为AI开辟了新途径,使二进制数据能够理解并处理各种类型的数据。多模态模型将在不久的将来更全面和智能化的系统。
多模态大语言模型综述(中)-算法实用指南
基础模型:transformer、VIT、BEiT 大模型:ChatGPT、MM_REACT、Froen、Blip、LLaMa、MiniGPT、LLaVA、PICa、PNP-VQA等
多模态大语言模型综述(上)-摘要与技术要点
本文是Multimodal Large Language Models: A Survey的译文:技术要点有:知识表示、学习目标、模型结构、信息融合、提示(prompt)使用
深度学习模型之BERT的24个小模型源码与预训练紧凑模型的重要性
本文是 BERT作者24个预训练的微小BERT模型并阐述了预训练在紧凑型模型中的重要性 的论文的内容翻译。 原始信息 论文: Well-Read Students Learn Better: On t
用链式安全模式(CSM)框架作为6LoWPAN与RPL的安全集成
本文翻译了Integrating 6LoWPAN Security with RPL Using The Chained Secure Mode Framework论文的摘要、介绍部分, 并对涉及的主
物联网(IoT):系统架构、协议和应用
基本信息 原文:Internet of Things: Architectures, Protocols, and Applications 中文:物联网(IoT):系统架构、协议和应用 地址:htt
ipv4与ipv6网络互通方案-NAT64野外部署初探
基本信息 原文:A First Look At NAT64 Deployment In-The-Wild 中名:NAT64部署初探 地址:https://arxiv.org/pdf/2311.0418