Momenta 复试(实习)

1,083 阅读4分钟

背景:985本,保研985硕,微服务与软件架构方向

自我介绍

介绍专业背景,保研情况与项目经历

项目介绍

  • 你之前做过faster-rcnn是吧,你们当时对那个网络还加了什么修改没有

    没有,我们就是用的baseline训练的

  • 你们那个雷达是怎么使用的

    我们当时用的那个叫8什么雷达,是把雷达和摄像头固定在车上,同步进行录制的

  • 是8线雷达吧,你们那个是激光雷达,那数据融合呢?

    我们没有把雷达上的点和faster-rcnn上的框结合起来,就只是人工把他们时间上统一,然后显示出来

项目的延伸拓展

  • 噢,就是一个雷达的可视化和faster-rcnn的框是吧,那如果现在让你进行一个结合,你有什么想法吗

    我首先想到的是两组数据的维度不同,雷达是三维数据,图片是二维数据,可以使用一些方法,提取图片的深度数据,再按坐标进行匹配

  • 好,你这是三维上的匹配是吧,那如果二维层面呢

    二维层面,因为车辆他不存在一个上下关系,不可能存在一个车在另外一个车上面的情况,所以用雷达数据转为二维坐标似乎也可行,按照近大远小应该可以用一些规则或者算法进行匹配。不过如果存在遮挡的情况,可能效果就不是很好,考虑到我们是一个安全场景下的应用,可以把视觉数据里最大的坐标优先进行匹配,因为近大远小嘛(上面这段持续口糊中)。

  • ok,你刚刚提到了误差,那么你想想这个误差可能哪些地方会产生,怎么减小匹配的误差

    这个,首先两组坐标相互转化的时候肯定存在误差,然后视觉数据本身也存在误差,减小误差的话,好像没有什么太好的思路,就优先匹配最近的?学长你有什么想法

  • 这个误差有几个方面,1. 视觉和雷达坐标系不一致,要归一化 2. 不同的摄像头方向,得到的坐标也不一样,所以要纠正图片的一个畸变。这个误差,我们可以用监督学习的思想,得到一个误差,通过误差来学习出算法,纠正这个误差。

    嗷,好的了解了

NLP与Transformer

  • 看你还做过nlp,你说一下这个rnn和attention的一个区别吧

    rnn主要是存在一个问题,序列很长的情况下,序列前端的语义会被忽略掉。而attention利用Q,K,V。查询解码的隐向量 与 编码过程中所有隐向量的相似度,将相似度较高的隐向量赋予较大的权值,为当前解码提供更多更有效的信息。(当时没说这么清楚,说得很乱)

  • 行,那你讲讲transformer解决了什么问题

    这个...就是刚刚说的那个序列前端语义被忽略的问题(持续口糊中)

    www.cnblogs.com/zingp/p/116…

    (1) 时间片 tt 的计算依赖 t−1t−1 时刻的计算结果,这样限制了模型的并行能力;

      (2) 顺序计算的过程中信息会丢失,尽管LSTM等门机制的结构一定程度上缓解了长期依赖的问题,但是对于特别长期的依赖现象,LSTM依旧无能为力

      Transformer的提出解决了上面两个问题:

      (1) 首先它使用了Attention机制,将序列中的任意两个位置之间的距离是缩小为一个常量;

      (2) 其次它不是类似RNN的顺序结构,因此具有更好的并行性,符合现有的GPU框架

DevOps相关

  • 看你还搞过devops,介绍一下k8s吧

    k8s相关概念介绍

  • 你讲一下service怎么和pod通信的

    介绍core-dns, iptables相关内容

  • 给你一个web端,一个深度学习模型,怎么用k8s为用户提供服务

    两个service,若干个pod,使用eureka进行服务发现注册,通过http传输数据

自由提问

  • 行,差不多,你有什么问题要问吗

    学长你让我想一分钟好不好

  • 哈哈哈,没有问题也没关系的

    emmm 有问题,但是我不知道方不方便问

  • 你问吧,没事

    学长您觉得咱们公司的竞争力在哪

  • 介绍了一些momenta 的战略,大概是用量产自动驾驶的数据支撑完全无人驾驶,形成闭环

    好的,谢谢学长

感想

自己简历中写的东西一定要了解,这里对attention和transformer的内容有些遗忘,没有答出来