首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
人工智能
silicon
创建于2024-05-04
订阅专栏
更少的人工, 更多的智能。
等 1 人订阅
共25篇文章
创建于2024-05-04
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
适用于Transformer的图像编码/解码技术探索 浅探本质
在上一篇《适用于Transformer的图像编码/解码技术探索 ViT/VAE》中,我门开始了一项非常有挑战性的工作,接下来会陆续发布实验测试结果 实验1: 实验1希望尽可能从本质出发,分析ViT图像
适用于Transformer的图像编码/解码技术探索 ViT/VAE
在之前的文章中,我们花了一年左右的时间对Transformer技术本身进行了较全面的测试,包括: 1、逻辑运算 为何简单的乘法ChatGPT会算错? 大型语言模型(LLM)为什么连数数都做不好? 2、
多模态大模型入门:多行文本识别
在使用ChatGPT等语言模型进行对话时,常常会输入带文字的图片,此时需要模型能准确地识别图片中的文本内容,再进一步理解文本内容。识别是基础,对算力要求比较低,本文重点关注文本识别部分 首先是合成训练
AIGC文生图技术入门:Rectified Flow字体生成
最近看了篇文章《生成模型大道至简|Rectified Flow基础概念》,看上去很简单的,决定自己做个实验测试下 很多人喜欢拿MNIST数据集来做入门实验,个人不建议,主要是MNIST图片太小,不便于
基于深度学习的机器人智能控制算法 笔记
正解/逆解 求正解/逆解有现成的库,参考https://github.com/petercorke/robotics-toolbox-python,代码如下: 输出: 可视化也很方便 输出: STEP
基于深度学习的机器人智能控制算法 仿真环境1
从今天开始准备写《基于深度学习的机器人智能控制算法》 以普通的六轴机器人抓取为例,模型输入是多个摄像头采集到的图像,输出是机器人每个轴的动作或末端执行器的动作 我觉得在这个项目中,99%以上的时间都应
基于模仿学习的自动泊车运动规划算法 ResNet+BERT分类模型
本文使用ResNet+BERT分类模型来实现APA自动泊车算法 首先定义模型的输出动作类别 类别名 说明 S0 停车 S+ 直行前进单位距离 S- 直行后退单位距离 L+ 左转前进单位角度 L- 左转
大语言模型LLM:GPT模型的训练方法是否存在着缺陷?
我觉得GPT模型的训练方法本身是存在缺陷的 一般生成式任务,给定输入,会存在多个正确的解,而在一条训练样本中,只会标出一个正确的解。那一定会存在一种情况:在训练过程中,给定输入,模型已经生成了正确的答
MiniCPM:调参教科书
记得很多次模型无法收敛,最后都是通过调参来解决 调参绝不只是锦上添花,而是系统的关键之一 说调参是核心技术也不为过 再好的模型,若没有与之匹配的调参方法就没法发挥出其潜力 但调参也是最枯燥的工作之一,
基于模仿学习的决策智能:大语言模型LLM会还原三阶魔方吗?
写在前面:本项目暂无任何实用价值,仅用于测试Transformer的学习能力。为了保证测试的合理性,建议在模型的推理过程中不使用任何基于搜索的算法,例如MCTS、BFS、DFS;不利用计算机的运算速度
基于Transformer的决策智能 目录+小结
经过多天的写作与实验,今天终于把《基于Transformer的决策智能》系列文章写完了: 基于Transformer的决策智能 第一篇 Decision Intelligence初探 基于Transf
CRNN进阶篇 多行文本识别/图像识别/对话模型
CRNN论文发表于2015年,最初被设计用于单行文本的识别,因为简单有效,所以直到今天依然应用广泛。 其网络结构较为简单: $ (B, C_{in},H_{in}, W_{in}) $ -- 特征提取
Deep Learning的本质和精髓是什么?深度学习模型的分类
深度学习就是学习输入与输出之间的映射关系。 深度学习模型本质上只是个参数量很大的函数,其中函数的参数可以通过训练样本进行调整。 根据训练样本的不同,进一步可以分为以下几类: 一、给定输入以及对应的输出
基于Transformer的决策智能 第四篇 2D Transformer、调参
上一篇:基于Transformer的决策智能 第三篇 BERT模型优化 我们先看看模型的输入: 2D的状态信息 16×16的状态信息,标记了障碍物位置、当前位置、目标位置 1D的补充信息 补充信息长度
基于Transformer的决策智能 第三篇 BERT模型优化
上一篇:基于Transformer的决策智能 第二篇 BERT IS BETTER? 接上一篇,先分析一下失败的原因。随机生成10000条测试样本,错了34个,共三种错误: 1、与障碍物发生了碰撞,共
基于Transformer的决策智能 第二篇 BERT IS BETTER?
上一篇:基于Transformer的决策智能 第一篇 Decision Intelligence初探 接上一篇,相对于《基于Transformer的路径规划》中使用的GPT模型,BERT模型收敛要快很
基于Transformer的决策智能 第一篇 Decision Intelligence初探
自从特斯拉证明在自动驾驶场景端到端的深度学习模型能够替代人进行决策,一场巨大的技术变革将要到来。我想通过一些实验来建立自己对决策智能的初步认知。 说一下我对决策智能的理解: 智能体能感知到状态S(包括
基于Transformer的路径规划 - 第五篇 GPT生成策略_解码方法优化
上一篇:基于Transformer的路径规划 - 第四篇 GPT模型优化 在上一篇中,我尝试优化GPT路径生成模型,但没有成功。在随机生成的测试集上,路径规划成功率只有99%左右。而使用传统的路径规划
基于Transformer的路径规划 - 第四篇 GPT模型优化
上一篇:基于Transformer的路径规划 - 第三篇 Attention Is All You Need 在上一篇中提到:一个由7层Transformer Decoder组成的GPT路径生成模型(
基于Transformer的路径规划 - 第三篇 Attention Is All You Need
上一篇:基于Transformer的路径规划 - 第二篇 合成数据 写在前面:我又一次对这句话无法反驳:"Attention Is All You Need"。我在探究一个问题:大模型的潜力跟人相比,
下一页