20240927AI新闻无图无视频版 大家好,现在4-5级号,因为粉丝数不够1000粉丝关注,群里找会做本地AI包集成的和开源素材, 每天有几十人看,麻烦点赞关注转发,3连1下好吗,每天更新需要3个小时,这里简单总节,简单快速做成,很费时,但也比较仓促,但是里面项目还是可以的,至少叫这里关注者到1000以上,非常感谢。 1LVCD使用扩散模型进行基于参考的线条视频着色 2libcimbar颜色图标矩阵条形码,一种用于气隙数据传输的实验性条形码格式。 它只需使用计算机显示器和智能手机摄像头即可维持 850 KB/s (~106 KB/s) 的速度! 3MIMO 基于空间分解建模的可控字符视频合成 Yifang Men, Yuan Yao, Miaomiao Cui, Liefeng Bo MIMO 是一种可控视频合成的通用模型,它不仅可以合成由非常简单的用户输入提供的具有可控属性(即角色、动作和场景)的逼真角色视频,还可以同时实现对任意字符的高级可扩展性、对新颖 3D 动作的通用性以及对交互式真实场景的适用性在一个统一的框架中。 4csknow这个项目是我关于理解电子游戏中玩家行为的研究。 5InterTrack在没有对象模板的情况下跟踪人体对象交互,应用单视图重建方法来获得时间上不一致的每帧交互重建。 然后,对于人类,我们提出了一种高效的自动编码器,可以直接从每帧重建中预测 SMPL 顶点, 引入时间一致的对应。对于对象,我们引入了一个利用时间信息的姿势估计器 预测遮挡下的平滑对象旋转。为了训练我们的模型,我们提出了一种生成合成交互的方法 视频,并合成总共 10 小时的 8.5k 序列视频,具有完整的 3D 地面实况。 6SkillMimic从演示中学习可重复使用的篮球技能,使物理模拟的类人机器人能够从人机演示中学习各种篮球技能,例如投篮(蓝色)、接球(红色)和转身上篮(黄色)。一旦获得,这些技能就可以重复使用和组合来完成复杂的任务,例如连续得分(绿色),包括运球向篮筐运球、计时运球和上篮得分、取回篮板球和重复。 7Owner avatar IsaacLab更新,是一个统一的模块化机器人学习框架,旨在简化常见的工作流程 在机器人研究(如 RL、从演示中学习和运动规划)。它基于 NVIDIA ISAAC Sim 构建,以利用最新的 用于照片级真实场景的模拟功能以及快速准确的模拟。 8Monkey See, Monkey Do (MoMo)利用 Motion Diffusion 中的自我注意力进行零镜头运动传输,工作灵感来自于猴子如何密切模仿它 在保持其独特运动模式的同时看到;因此我们称它为 Monkey see, Monkey Do,并称它为 MoMo。采用我们的技术可以适应 撰写任务,例如合成 out-of-distribution motions、 Style Transfer 和 和空间编辑。此外,很少采用扩散反转 用于动议;因此,编辑工作侧重于生成的运动,从而限制 真实数据的可编辑性。 9Fine-Tuning Image-Conditional Diffusion Models is Easier than You Think微调图像条件扩散模型比 你认为,我们的方法的深度和法态预测 在野外图像。右:DDIM 调度程序的简单修复 支持对最近基于扩散的深度进行单步推理 估计;简单的端到端微调优于 More 在速度和准确性方面实现复杂的扩散基线。 10Daily Papers HN是一个基于 Python 的 Web 应用程序,它在类似 Hacker News 的界面中显示学术论文。它利用 Hugging Face Daily Papers API 在可排序的分页列表中获取和显示论文。 20240927AI新闻无图无视频版链接 luckyhzt.github.io/lvcd github.com/sz3/libcimb… github.com/menyifang/M… github.com/David-Durst… virtualhumans.mpi-inf.mpg.de/InterTrack/ ingrid789.github.io/SkillMimic/ github.com/MankaranSin… monkeyseedocg.github.io/ gonzalomartingarcia.github.io/diffusion-e… github.com/AK391/daily…