Coco-LIC:紧耦合激光雷达-惯性相机里程计SOTA方案

2023-12-16

点击下方 卡片 ,关注“ 自动驾驶之心 ”公众号

ADAS巨卷干货,即可获取

>> 点击进入→ 自动驾驶之心【SLAM】技术交流群

论文作者 | Xiaolei Lang

编辑 | 自动驾驶之心

笔者个人理解

机器人在弱结构化、弱纹理环境中的状态估计是SLAM中的难点,考虑到不同传感器之间的互补,多传感器融合是必不可少的。然而这些传感器数据的频率、时间可能不一致,一种常见的解决方案是对来自不同传感器的同一时刻的测量值或估计姿态做插值处理以进行融合。连续时间轨迹表示可以避免插值,并允许在任何给定时间进行姿态查询,从而有助于融合来自各种传感器的高频率和异步观测数据。然而在许多应用中,没有关于要估计的轨迹的复杂性的先验信息。无法动态调整控制点的分布,均匀B样条易于参数化不足或过度。Coco-LIC是一种采用非均匀B样条参数化的连续时间紧耦合激光惯性相机里程计。与均匀B样条不同,非均匀B样条允许动态控制点分布,而不是固定频率。与R3LIVE 和FAST-LIVO 不同,这种方法通过在固定的时间间隔内同时融合来自三个传感器的数据,而不是分别融合激光雷达-惯性或视觉-惯性数据。代码已经开源。

原文摘要

在本文中,我们提出了一种有效的连续时间激光雷达-惯性相机里程计,利用非均匀B样条紧耦合来自激光雷达、惯性测量单元和相机的测量值。与基于均匀B样条的连续时间方法相比,我们的非均匀B样条方法在实现实时效率和高精度方面具有显著的优势。这是通过动态和自适应地放置控制点来实现的,同时考虑到运动的变化。为了能够在短滑动窗口优化内有效融合异构激光雷达-惯性相机数据,我们使用来自全局激光雷达地图的对应地图点为视觉像素分配深度,并为当前图像帧中的相关像素构建帧到地图的重投影因子。这种方式避免了视觉像素深度优化的必要性,视觉像素深度优化通常需要具有大量控制点的冗长滑动窗口来进行连续时间轨迹估计。我们在真实数据集上进行了专门的实验,以证明采用非均匀连续时间轨迹表示的优势和有效性。我们的激光雷达-惯性相机里程计系统也在传感器退化的挑战性场景和大规模场景下进行了广泛评估,并显示出与最先进的方法相当或更高的精度。

b49ef6c27b64f81327a4b1f9cbbec4bd.png
Coco-LIC在退化场景的里程计和建图结果,其中当激光雷达面向地面一段时间时,会发生严重的激光雷达退化。Coco-LIC克服了退化,成功地回到了原点。

主要贡献

  1. 我们提出了一个激光雷达-惯性相机里程计系统称为Coco-LIC,采用了非均匀B样条参数化的连续时间轨迹。与基于均匀B样条的方法相比,这里的控制点是通过我们提出的简单而有效的分布策略动态放置的。

  2. 融合了激光雷达、惯性单元、相机数据,无需任何插值。基于重建的激光雷达点云地图和视觉像素的光流跟踪,我们构建了当前图像帧的帧到图重投影误差,不包括视觉像素的深度估计和优化。

  3. 在真实场景中控制点非均匀放置的必要性,并证明了控制点间距策略的有效性。此外,对整个系统在几个具有挑战性的数据集上进行了广泛的测试,证明了其实时性能和高精度。

算法详解

系统概述

0f78b5b14829b8968a2dc4880b89b0f5.png

系统输入 :激光雷点云、IMU数据、相机图像数据;初始时刻,假设系统是静止的,通过IMU观测数据初始化IMU的bias和重力向量。之后连续时间轨迹会以激光雷达的频率进行扩展。假设我们已经估计了之前的轨迹,那么一旦该时间间隔中的LIC数据准备好,将估计中的轨迹,其中。随后,新增加的控制点被初始化,并使用激光雷达平面点,IMU原始测量值和中的最新图像以因子图的方式进一步优化。。最后,在边缘化之后,我们为scan2map匹配更新局部地图,为图像和激光地图关联更新全局激光地图。

系统的优化状态量

5a4d19fcb89356a123eecb380555f91f.png

注意 :状态量中的第一项是用于非均匀B样条的控制点,第二项中的是k-1和k时刻IMU的陀螺仪bias和加速度计bias,它们服从高斯随机游走。

将时间范围内的激光雷达平面点定义为,IMU数据,最新的图像数据

非均匀连续时间轨迹生成

假设有k个控制点,连续时间轨迹在时间 的6-DoF姿态表示:

d66d5416ed37ed3a4a9717be9cfb3b8c.png

其中,表示控制点()。表示B样条中两个相邻的节点;是向量的第个元素;

是累积混合矩阵,是动态变化的,其计算公式:

dc40f69034475cb12d334dc25d18016d.png

B样条的时间导数推导公式:

bc66abea44cbcd286aaaeca418161dc9.png

自适应非均匀技术

在 中计算全局坐标系下的平均角速度和线加速度的范数:

13c65719563373ecfd27f616b470d097.png ec6b379d450d1facd55a3e41726a975c.png
图2,要添加的控制点数量取决于IMU

其中, 和 是来自IMU观测的角速度和线速度。表示IMU观测的数量。是全局坐标系下的重力向量。然后根据图2决定控制点的数量,新的控制点初始值是最近一次优化中的最后一个控制点值。它们均匀分布在中,因此可以查询任意时刻的位姿。

激光-惯性-相机优化

  • 激光帧图匹配因子

在连续时间框架中,我们估计整个激光扫描周期内的轨迹,而不是仅仅估计单个时刻的姿态,这使得能够同时进行运动失真消除和位姿估计。对于t时刻的激光雷达平面点,可以将它转到全局坐标系:

4ac4825e1f511b811d15f38371b22acd.png

激光匹配残差构建:在局部激光地图中找距离  最近的5个点,然后拟合平面,计算法向量以及点  到该平面的距离。

72ae53519a6f03ec0c27b2891cfd7127.png

注意:点到面的距离残差,其中是平面的单位法向量,是平面到原点的距离;

  • 视觉帧图匹配因子

83d8db5933e1612280432ac73382e45c.png
图3, 激光地图点在图像帧中的投影

假设在最后一帧图像中关联到了地图点 和对应的像素点,然后在 中用KLT光流追踪,得到。然后用基础矩阵RANSAC和PnP去除外点,最后得到与当前图像帧像素点成功关联的地图点。

追踪到的地图点在当前帧图像中的重投影误差公式:

4eea0772bf9cbdd8adada7b09d63c012.png

另外,在优化过程中对重投影使用了柯西鲁棒核函数进行外点剔除。基于已知深度地图点的光流跟踪的方式,可以避免视觉特征的三角测量和滑动窗口优化,从而将滑动窗口保持在[tκ1,tκ]内,以实现高效率和准确性,而不涉及大量控制点。

  • IMU因子和Bias因子

注意:这里并不是用的预积分,而是使用的原始观测数据构建的因子。

IMU因子公式:

9bb11435a11c62a5a49d9b28b725ed1a.png

Bias因子公式:

514a7768951908aa53953eb965cbe5ab.png

其中,和 是在 t 时刻IMU的原始角速度和线速度观测,和可以从连续时间轨迹的导数中计算得到:

762767cc7104d6d6c90c0b8a4330e281.png
  • 图优化和边缘化

a2843d3cbc930efde90c3610346f56ee.png

图优化最小二乘问题构建:

0bf408026562905cb597af8f8b8d2921.png

其中,是边缘化先验,是及激光匹配残差,是视觉重投影残差,是IMU因子,是Bias因子,是各自对应的协方差矩阵。

在对新增加的控制点和IMU偏差进行优化之后, 将边缘化在接下来的 内不涉及的状态,并且获得约束状态的先验因子:

911ea16adc8b118599eda07fd6a011f8.png

注意:整个优化过程是调用Ceres的LM算法进行求解的,为了加速求解,采用了解析求导的方式。

与视觉重投影相关的激光地图

为了快速查询与图像相关联的地图点,维护以体素形式存储的全局激光地图。在对中的轨迹进行优化之后,使用来自第k帧的激光雷达平面点更新全局激光地图。为了实现精准的关联,追踪到的地图点如果在第k帧图像中的重投影误差较大,则将其剔除。然后,将当前FoV中的地图点投影到第k帧图像上,并将新的成功关联的地图点添加到成功关联的地图点集合 中。同时,确保跟踪的地图点均匀分布在图像上,并优先保留更靠近相机的地图点,以缓解遮挡问题。

实验对比

  • 控制点的均匀放置和非均匀放置效果对比

使用的测试数据集介绍:

smooth case: 地面车辆在平稳的道路上行驶,清洁机器人在办公园区工作。

violent case:  四足机器人反复撞击地面,空中机器人快速躲避障碍物。

hybrid case: 手持扫描设备构建环境地图。

01ec112f689e31e2d9b0f12028a59573.png
APE结果的RMSE和不同控制点分布的LIO优化的耗时(单位:米/毫秒)。最好的结果用粗体标出。uni-x表示x个控制点,而non-uni表示动态放置控制点。fail意味着RMSE已经超过1米。

优化的时间消耗随着更多的控制点而显著增加,这可能是由于状态维数的增加。相比之下,在大多数情况下,non-uni自适应地以每秒1个的密度放置控制点,从而获得与uni-1相当的精度和计算时间。

a044ace15a8499a49f22545bebe345a6.png
混合序列上控制点非均匀分布的LIO轨迹估计。轨迹的不同颜色对应于控制点的不同密度。从蓝色到红色,控制点从稀疏到密集。

uni-1不足以精确拟合剧烈运动的轨迹段,会导致估计失败。添加足够的控制点可以提高精度,然而对于简单和平滑的运动轮廓来说,这似乎是不必要的,并且会导致额外的计算消耗。通过在剧烈运动期间增加控制点并在平滑运动期间减少控制点,non-uni以几乎最低的时间成本获得了最高的精度。

27d1ed8204f53856faf952a50d6aa8d4.png
顶部是Hybrid1中的IMU数据,中间是通过自适应技术每个时间段设置的控制点数量。底部显示了基于不同控制点分布的姿态误差曲线。由于采用了自适应非均匀技术,non-uni在整个轨迹上保持小的姿态误差。

LIC里程计的鲁棒性和精度评估

数据集 :Challenging Degenerate Dataset(来自R3LIVE和FAST-LIVO,这些序列表现出严重的退化,例如小FoV的固态激光雷达面向地面或墙壁,以及面向无纹理表面或导致相机图像模糊的剧烈运动);large-scale UrbanNav dataset(城市大尺度场景数据集)。

对比方案 :LVI-SAM, R3LIVE, FAST-LIVO, CLIC, FAST-LIO2, VINS-Mono

fd6bbe4355378fe689e877f8f307f480.png
R3LIVE和FAST-LIVO所有数据集上的起点到终点漂移误差(单位:米/度)。seq 00、seq 01和seq 02来自R3LIVE。激光雷达退化和视觉退化数据集来自FAST-LIVO。

由于强烈的运动和变化的照明,VINS-Mono不能在视觉挑战序列中工作,因为它不能稳定地跟踪视觉特征;FAST-LIO无法处理激光雷达贴近墙面的情况,R3LIVE和FAST-LIVO可以处理大部分场景,但也有都存在显著漂移的情况。然而,Coco-LIC在所有数据集上都表现出优越的性能。值得注意的是,尽管CLIC融合了所有信息,但它仍然无法在激光雷达退化的情况下工作。这是因为CLIC强制固定滑动窗口中的大多数控制点,导致没有充分利用可视范围内的数据。

eac8943b88e0c63d4d8b3bb5c2768388.png
在UrbanNav数据集上APE结果的RMSE (m)

在UrbanNav数据集上,由于运动物体引起的错误特征跟踪,VINS-Mono表现不佳。LIO和LICO在没有退化激光雷达场景的情况下取得了令人满意的结果。然而,FAST-LIVO的轨迹误差略高,可能是由于其稀疏的直接视觉对准受到移动物体和照明变化的影响。值得注意的是,在高动态的运动场景中,CLIC和CocoLIC的精度更高,这归因于它们的连续时间轨迹表示,并有效地融合了高频率IMU数据。此外,Coco-LIC重用高质量的地图点构建视觉重投影残差,因此性能比CLIC更好。

bafd3f7367a8f16a62f3462abd57645c.png
FAST-LIO2、CLIC、Coco-LIC不同模块在数据集上的平均时间消耗(毫秒)。

总结与展望

这篇文章中作者提出一种连续时间激光雷达-惯性相机里程计,使用非均匀B样条紧耦合来自激光雷达、惯性测量单元和相机的信息。该方法通过在运动剧烈的地方放置更多的控制点,在运动平稳的地方放置更少的控制点,以适中的时间消耗实现了更高的姿态估计精度。此外,它还利用激光雷达地图点来构建帧到地图的视觉残差因子,这避免了通过多个视觉关键帧进行深度估计和优化。作者还在真实数据集实验证明了非均匀控制点放置的重要性和我们的非均匀连续时间方法的有效性。鲁棒性和准确性评估表明,Coco-LIC优于其他SOTA LIC里程计,即使在严重退化的情况下。在未来,研究更有效的地图管理策略并整合事件摄像机等互补传感器应该会很有意义。

总而言之,Coco-LIC是一项从真正意义上紧耦合激光、相机、IMU数据的多传感器融合SOTA方案,值得深入研究!

参考

[1] Coco-LIC: Continuous-Time Tightly-Coupled LiDAR-Inertial-Camera Odometry using Non-Uniform B-spline

① 全网独家视频课程

BEV感知 、毫米波雷达视觉融合 多传感器标定 多传感器融合 多模态3D目标检测 点云3D目标检测 目标跟踪 Occupancy、 cuda与TensorRT模型部署 协同感知 语义分割、 自动驾驶仿真、 传感器部署、 决策规划、轨迹预测 等多个方向学习视频( 扫码即可学习

914d0554f3c3671e2330a3f112d84fc2.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球, 这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频 ,期待交流!

699aff3df5e53ed896ec679c0a6e65e6.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦 目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流 等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

68bcd4e6fa7fe710054ca512cb9897c8.jpeg

④【自动驾驶之心】平台矩阵, 欢迎联系我们!

911542f002efcb341d1876f3ba6938b2.jpeg

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Coco-LIC:紧耦合激光雷达-惯性相机里程计SOTA方案 的相关文章

  • Android相机-架构3

    目录 引言 1 Android相机的整体架构 2 相机 HAL 2 1 AIDL相机HAL 2 2 相机 HAL3 功能 3 HAL子系统 3 1 请求 3 2 HAL和相机子系统 3 2 1 相机的管道 3 2 2 使用 Android
  • 双目线扫描结构光三维重建立体视觉-OpenCV+PCL点云+MFC

    视频 双目线扫描结构光三维重建立体视觉 OpenCV PCL点云 目录 基础知识 双目标定 双目矫正 双目匹配 线激光提取 三维点坐标提取 MFC介绍 OpenCV嵌入MFC
  • uniapp项目中给相机相册图片添加水印功能。

    效果如图 废话不多说 直接上代码吧 哦多说一句 在使用下面组件时需要在uniapp项目中安装uView组件库uView官网 详细的安装流程可以看这篇文章uView安装教程 也可以去官网查看官方文档 上面介绍的很清楚 添加水印组件hpy wa
  • 三维视觉--基于Kinect2.0深度相机的点云获取方案实现(C++版)

    上一篇中使用的点云获取设备是Intel Realsense d455相机 这两天接触的相机不少 也发现很多点云检测和分割的论文中使用的都是Kinect相机 今天就再分享一篇使用Kinect2 0获取点云并使用C 实现 首先还是相机SDK的下
  • OpenHarmony3.2 beta4上照相机的使用之1--开启照相机预览画面

    随着OpenHarmony的版本更新 在3 2上已经提供了非常丰富的API来调用照相机 此处讲解的是原生的使用相机的流程 并发像Android普通应用开发一样通过一个intent直接调用系统相机应用进行拍照 根据原生的调用相机的API可以让
  • glut实现雪花动态效果

    glut实现雪花动态效果 实验题目 总体思路 3 2主要函数说明 按键操作 实验结果 实验题目 1 绘制雪花 2 在屏幕的多个随机位置绘制雪花 3 使每朵雪花绕自己的中心旋转 4 使每朵雪花下降 5 翻页键控制相机视野 按UP键增加物体与观
  • Camera.ScreenToWorldPoint方法介绍

    Camera ScreenToWorldPoint方法介绍 Camera ScreenToWorldPoint是Unity中的一个方法 用于将屏幕坐标系中的点转换为世界坐标系中的点 这个方法通常用于将鼠标点击的位置 屏幕坐标系 转换为游戏世
  • 晚上弱光拍照不够清晰,学会这几招画面清晰效果好

    很多小伙伴喜欢夜晚拍摄 然而拍摄出来的照片经常画面偏暗甚至模糊不清 这是怎么回事 弱光环境是很多人都比较头疼的拍摄场合 由于光线弱曝光不好把控 并且还很容易出现细节性问题 想要将照片拍好就非常不容易了 因为光线太弱 相机对焦识别会比较困难
  • 相机标定精度研究

    张建贺实验设计 1 外参重复性精度测试 同内参 不同外参特征点 9选择4 组合 1 外参几乎没有什么重复性误差 只要4对都正确 则刚性匹配基本正确 解释 激光点云到相机 转换本身的刚性匹配 而相机坐标系到图像坐标系是非刚性匹配 不同内参 同
  • Agisoft Metashape 坐标系选择 坐标转换

    Metashape 坐标系选择 坐标转换 文章目录 Metashape 坐标系选择 坐标转换 前言 一 软件设置 二 坐标系选择 1 有带号坐标系选择 2 无带号坐标系选择 二 坐标转换 以WGS84转CGCS2000投影坐标系为例 1 保
  • opencv图像畸变矫正:源码学习

    参考资料 相机标定 4 矫正畸变 undistort 和initUndistortRectifyMap 背景 opencv提供了直接进行畸变矫正的代码 因在项目中需要使用畸变矫正 因此研究一下opencv中畸变矫正的相关接口与代码 便于学习
  • 【Unity-Cinemachine相机】虚拟相机旋转Composer属性详解

    Look At和Aim本质是控制虚拟相机自身的旋转 并不一定非要看着 或者并不一定非要瞄着这里的游戏对象 Look At和Aim是以Look At里面的对象作为参考来旋转自身 Do nothing 表现出来的行为和Look At空出来一样
  • Unity Editor绘制时分辨率减一

    复现环境 Unity 2021 3 16 SRP 在测试FXAA时发现一个挺恶心的bug Unity Editor中渲染的CameraTarget的分辨率 和camera pixelWidth并不相同 前者比后者少1 这导致了这样的问题 因
  • 鱼眼相机标定

    分享一个最近在复习的一个鱼眼相机标定 这个大佬的链接 因为课题相关 先视觉2D检测再通过标定形成视锥然后再点云目标检测 所以先埋一个坑 刚好2D检测这块做的差不多 不过是Python版本哈 后续肯定要用C 先上一个大佬的鱼眼内参去畸变的链接
  • unity-障碍物和空气墙的设置

    文章目录 建立空气墙 建立空气墙 建个游戏对象 然后给他添加2d碰撞盒子属性 把它放到相机下面 让它成为相机的所属的子组 跟随相机一起移动通过 创建新的标签便于碰撞确认操作 判断我们游戏操控的物体是否在空气墙上 判断是否处于空气墙上面 pr
  • 单个IMU实现精确的轨迹重构

    惯性传感器 IMU 被广泛用于导航 运动状态研究 人体运动和步态分析等领域 然而 由于IMU的固有误差和测量误差 尤其是漂移误差 很少有人尝试基于IMU实现精确的轨迹重建 尤其是使用单个IMU 尽管如此 与视觉 红外线和超声波定位技术相比
  • 相机Camera:最核心没有之一的感知传感器

    作者 萧谭辉 编辑 汽车人 原文链接 https zhuanlan zhihu com p 669728398 点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 点击进入 自动驾驶之心 硬件交流 技术交流群 本文只做学
  • 0基础学习VR全景平台篇第129篇:认识单反相机和鱼眼镜头

    上课 全体起立 大家好 欢迎观看蛙色官方系列全景摄影课程 一 相机 单反和微单 这里说的相机是指可更换镜头的单反 微单数码相机 那两者有何差异呢 1 取景结构差异 两者最直观的 区别 在于 微单相机
  • 眼神矫正AI一键修改你的眼睛眼球,直视相机!

    1 系统要求 软件运行支持32位 64位window 10 11系统 硬性要求 英伟达 RTX20系列或者更高级别 其他要求无 2 下载安装 链接 百度网盘 请输入提取码 提取码 1234 复制这段内容后打开百度网盘手机App 操作更方便哦
  • 讲解SurfaceTexture BufferQueue has been abandoned

    目录 讲解SurfaceTexture BufferQueue has been abandoned 背景知识 问题描述 问题原因和解决方法 1 检查相机状态 2 检查SurfaceTexture状态 3 处理图像数据源中断 4 销毁和重建

随机推荐

  • 一份自动驾驶量产阶段的BEV自动标注系统超实用指南

    编辑 智能车情报局 点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 点击进入 自动驾驶之心 BEV感知 技术交流群 本文只做学术分享 如有侵权 联系删文 导读 本文提出了一种用于自动驾驶数据采集的自动或半自动标注系统
  • 刘强东发文检讨:京东现在臃肿低效,必须改变!

    编辑 雷峰网 点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 点击进入 自动驾驶之心 全栈算法 技术交流群 本文只做学术分享 如有侵权 联系删文 今日头条 HEADLINE NEWS 刘强东内网发声 京东组织臃肿低效
  • 相机Camera:最核心没有之一的感知传感器

    作者 萧谭辉 编辑 汽车人 原文链接 https zhuanlan zhihu com p 669728398 点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 点击进入 自动驾驶之心 硬件交流 技术交流群 本文只做学
  • Windows使用selenium操作浏览器爬虫

    以前的大部分程序都是操作Chrome 很少有操作Edge 现在以Edge为例 Selenium本身是无法直接控制浏览器的 不同的浏览器需要不同的驱动程序 Google Chrome需要安装ChromeDriver Edge需要安装Micro
  • Redis基础系列-主从复制

    Redis基础系列 主从复制 文章目录 Redis基础系列 主从复制 1 什么是 Redis 主从复制 2 主从复制有什么好处 3 如何配置 Redis 主从复制 4 主从复制的验证 4 1 如何查看主从搭建成功
  • 安卓MediaRecorder(2)录制源码分析

    文章目录 前言 JAVA new MediaRecorder 源码分析 android media MediaRecorder cpp native init MediaRecorder java postEventFromNative a
  • 【图对比学习】GACN:使用对抗网络增强图对比学习

    论文题目 Graph Contrastive Learning with Generative Adversarial Network 使用对抗网络增强图对比学习 论文地址 https dl acm org doi pdf 10 1145
  • Redis基础系列-持久化

    Redis基础系列 持久化 文章目录 Redis基础系列 持久化 1 什么是持久化 2 为什么要持久化 3 持久化的两种方式 3 1 持久化方式1 RDB redis默认持久化方式
  • 毕业设计|Python网络爬虫与推荐算法的新闻推荐平台

    作者简介 Java领域优质创作者 CSDN博客专家 CSDN内容合伙人 掘金特邀作者 阿里云博客专家 51CTO特邀作者 多年架构师设计经验 腾讯课堂常驻讲师 主要内容 Java项目 Python项目 前端项目 人工智能与大数据 简历模板
  • 针对企业数字化转型有哪些建议?

    聊起数字化转型 大部分亲历者感受都是一样的 痛 难 贵 痛在哪儿 战略部署痛 难在哪儿 能力建设难 贵在哪儿 价值显现贵 战略部署考验企业一把手的远见和魄力 能力建设考验员工的数字化素养和学习能力 价值显现则考验企业真金白金砸钱的能力 那么
  • 期末备考 |《计算机网络》期末备考资料包来啦!

    写在前面 不知不觉又到了学期的末尾 不知道各位计算机er的 专业课复习得怎么样了呢 为了帮助大家更好地 备战期末 从今天开始 岛主将持续为大家更新 计算机期末备考资料 为同学们的绩点护航 今天岛主为大家带来的是 计算机网络 期末备考资料包
  • CS保研er寒假有必要实习吗?做哪些实习比较好?

    写在前面 随着时间来到12月 也意味 离寒假已经不远了 许多计算机er忙了一学期已经开始憧憬寒假的生活 但也有一部分人没有选择放松 而是做好了规划准备实习 那么 对于计算机er 参加实习对保研吗 做哪些实习更好呢 今天岛主就来跟大家聊一聊
  • QTNet:最新时序融合新方案!点云、图像、多模态检测器全适用(NeurIPS 2023)...

    点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 gt gt 点击进入 自动驾驶之心 多传感器融合 技术交流群 论文作者 Jinghua Hou 编辑 自动驾驶之心 写在前面 个人理解 时序融合能够有效提升自动驾驶3D
  • 免费白嫖GPU算力,畅玩大模型的算力平台!

    要做深度学习 必然需要 GPU 如何构建一个弹性的 GPU 环境是很多读者关心和常问的问题 今天给大家分享 GPU 平台 趋动云 正好官方有活动 新用户 有 价值168元的赠送算力 有效期1年 数量有限先到先得 领取方式见文末 学校课题组没
  • ​NeurIPS 2023|RayDF:实时渲染!基于射线的三维重建新方法

    编辑 极市平台 点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 点击进入 自动驾驶之心 NeRF 技术交流群 本文只做学术分享 如有侵权 联系删文 导读 本论文提出一个全新的维护了多视角几何一致性的基于射线的隐式表达
  • Far3D:直接干到150m,视觉3D目标检测新思路(AAAI2024)

    点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 gt gt 点击进入 自动驾驶之心 3D目标检测 技术交流群 论文作者 自动驾驶Daily 编辑 自动驾驶之心 近来在 Arxiv 读到一篇纯视觉环视感知的新工作 它延
  • 未来之路:大模型技术在自动驾驶的应用与影响

    作者 一颗小树x 编辑 汽车人 原文链接 https zhuanlan zhihu com p 666863252 点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 点击进入 自动驾驶之心 大模型 技术交流群 本文只做
  • 年后跳槽机会多吗?什么时候准备可以实现弯道超车!

    不知不觉2023年即将迎来尾声 秋招也基本上结束了 这几个月汽车人分享了很多自动驾驶和CV方向的工作 像理想 华为的薪资更是羡煞旁人 对于秋招不是很满意的同学和年后打算跳槽的小伙伴 现在可以着手准备起来春招和年后跳槽了 这里也分享一些汽车人
  • 高质量的3D资产如何生成?X-Dreamer或是答案!

    作者 马祎炜 编辑 我爱计算机视觉 点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 点击进入 自动驾驶之心 全栈算法 技术交流群 本文只做学术分享 如有侵权 联系删文 本篇分享论文 X Dreamer Creatin
  • Coco-LIC:紧耦合激光雷达-惯性相机里程计SOTA方案

    点击下方 卡片 关注 自动驾驶之心 公众号 ADAS巨卷干货 即可获取 gt gt 点击进入 自动驾驶之心 SLAM 技术交流群 论文作者 Xiaolei Lang 编辑 自动驾驶之心 笔者个人理解 机器人在弱结构化 弱纹理环境中的状态估计