Matterport3D:室内环境RGB-D数据的深度学习

2023-11-02

Matterport3D:室内环境RGB-D数据的深度学习

Taylor Guo, 2017年9月24日

Matterport3D: Learning from RGB-D Data in Indoor Environments

Matterport3D Home Page

mpview is a C++ application for parsing and viewing houses in the Matterport3D dataset.


这里写图片描述
图1:Matterport3D数据集,包括高动态范围彩色图像,深度图,全景天空盒,材质网格,区域布局和分类,物体语义分割。

Matterport3D数据集

这里写图片描述
图2:拍摄全景的视角(绿色的球体),平均间距是2.25米。

3.1 数据获取过程

Matterport的数据获取,使用了三脚架固定的相机设备,有3个彩色相机和3个深度相机,分布在上中下。对于每个全景,它需要沿着垂直方向旋转到6个不同的方向(也就是60度拍一下),每个彩色相机都要拍高动态范围图像。当相机旋转时,3个深度相机持续拍摄数据,整合生成1280×1024的深度图像,与每幅彩色照片进行配准。每个全景图像是由18个彩色图片组成,中心点正好是拍摄人员的高度。

数据集中的每个环境,操作人员拍摄的一组全景在可行走的户型图的区域上都统一间隔2.5米。用户用iPad App标记窗户和镜子所在的位置,并把数据传给Matterport。Matterport对原始数据做以下处理:

1)拼接图片形成全景“天空盒”用于全景观看,

2)对每幅图片用全局捆集调整,估计6个自由度,

3)重建一个纹理网格多边面,包含这个环境的所有可见表面。


每个场景处理过后,会得到一组1280×1024(高动态范围色彩)分辨率的图像,每张图都带6个自由度的相机位姿估计,同一全景下的一个天空盒、每组18张图片,整个场景的纹理多边形网格面。总的来说,数据集包含90个建筑物的194,400张RGB-D图像,10,800个全景图像,24,727,520个纹理三角面;纹理网格重构算法从【21】和【25】获得。

3.2 语义标注

为了做3D实例语义标注,首先创建户型图对房子进行标注,从户型图中提取房间区域,再密集操作标注每个区域的物体。

语义标注过程的第一步是,通过指出3D空间和语义分类标签,将每个建筑的每个房间区域分解成区域模块。标注者使用一个简单的交互工具,选择一个目录,对每个区域在地面上画出一个2D多边形(如图3所示)。这个工具就会将多边形贴到合适的平面表面(墙和地板),也会贴到天花板上。

这里写图片描述
图3:标注者提供户型图。户型图定义了标注物体语义的区域。左图是带纹理网格。右图是户型图,不同区域用不同颜色区别。

第二步是对每个区域中物体标记3D表面。我们用泊松扫描表面重构【6】提取每个区域的网格。然后,使用Dai【7】Scan-net分包接口对每个区域画三角面,给这个区域中的所有物体加上名称。我们通过众包平台先收集一组初始标签,由10位专业标注者完成、确认和验证。确保了高质量的标签标准和更大的标注范围。

3D分割包含50,811个物体实例标注。众包工作人员使用自己的文本标签格式,一共有1659种文本标签。我们对他们进行后处理,构建一组40类物体,映射到WordNet。图5是物体语义目录的分布,图4是彩色网格例子。

这里写图片描述
图4:语义标注的例子。左边是:3D房间网格。中间是:物体标签。右边是:物体类别标签

3.3 数据集的特性

RGB-D全景

Matterport3D包含了配置的1280×1024彩色和深度图像,18个视图包含大约3.75sr(整个球体,除了南北极),沿着“天空盒”分布图像,外面看起来是沿着位于全景中心的立方体分布。这些RGB-D全景提供了新的机会来识别场景目录,估计区域分布,了解他们之间的关系,还有更多应用参考4.4节。

精准全局配准

尽管数据集里没有基准相机位姿,也无法客观地测量误差,但我们可以估计出对应表面点之间的平均配准误差在1厘米以内,甚至更低(如图6)。也有一些表面的不当匹配为10厘米或更大,但这些很少见。通常一对图像,他们包含的视野有好几米。

这里写图片描述
图6:点云可视化(从左到右:色彩,diffuse shading,法线)。这些图片表示根据相机位姿将像素从所有RGB-D图像上重投射回世界空间中。注意全局配准的精度和表面法线的相对低噪声,不需要深度融合技术。

更全面的视野采样

全景图像的拍摄间隔是一致的,间隔是2.25米±0.57米,全景图像中心,人的最佳视野是1.13米。

表面视图多种多样

Matterport3D提供了多个角度和距离的多个视角下的表面补丁(如图7)。每个表面补丁平均有11个相机视图(如图8)。所有像素的深度图的平均距离是2.125米,标准偏差是1.4356米;角度的平均值为42.584°,标准偏差是15.546°。这种多种多样的视图测量方式可以估计出不依赖视角的表面特性,比如材质反射【4,26】,可以通过深度学习识别出视图独立的数据表示,比如补丁描述子【45,46】和法线【9,23,3,41,48】(参考4.3节)。

这里写图片描述

图7:表面像素点的图像可视化(如红线所示)。(这张图上的网格去掉了,为了方便观察)

这里写图片描述
图8:直方图表示每个顶点有多少个图像。模型是7个,平均是11个。

4 数据深度学习

用Matterport3D的数据集特性提供更多的方法学习场景表示。

4.1 关键点匹配

这里写图片描述

预训练图像对应关系间的深度局部描述子,可以学习得到更有用的特征训练更强的描述子。我们采用了卷积神经网络(ResNet-50)【18】将输入图像映射成512维特性描述子。深度卷积神经网络训练了匹配好的图像补丁和没有匹配好的图像补丁。从世界空间和100°以内的世界法线中,在每0.02米内的SIFT关键点位置中提取特征匹配。

这里写图片描述

图9:Matterport3D中的图像匹配和图像补丁。补丁的匹配和不匹配用于训练深度局部关键点描述子。

4.2 视图重叠区域估计

识别之前扫描过的场景是许多重建问题的基本步骤,比如回环检测。

Matterport3D数据集视野重叠数量较大,主要是因为全景本身的特征和扫描过程中的全面视图采样造成的。大量的回环可以通过训练一个深度学习模型识别回环,未来可以将其整合到SLAM重构中。

我们把回环检测作为图像提取任务处理。给定待检索的图像,目的是要找到另一个表面可视区域重叠尽可能多的图像。

训练一个卷积神经网络(ResNet-50)将图像特征提取出来,特征之间用L2距离表示更高的重合度。训练这个模型的损失函数是距离比率损失函数【19】。重叠区域函数取值在0到1之间。在三联体神经网络头上添加回归损失函数可以将重叠区域 回归到 匹配的图像对上(重叠比率大于0.1)。

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述

这里写图片描述


4.3 表面法线估计

估计表面法线是场景重构和场景识别的核心问题。给定一个彩色图像,要估计每个像素的表面法线方向。RGB-D相机提供深度图噪声比较大,训练数据就会很差。

Matterport3D数据集中的法线可以用来训练更好的模型来预测法线。我们采用了【48】的模型,在NYUv2数据集上获得了更好的结果。这个模型是一个全连接的卷积神经网络,由一个编码器,( 与VGG-16的架构完全一样,从开始到全连接层,) 和一个纯对称的解码器组成。

这里写图片描述

调参好的Matterport3D视觉质量非常好,因为它捕捉了更多的小物体的细节,比如毛巾和灭火器,还能生成更平滑的表面区域。这种表面法线估计的改进表明了高质量深度图的重要性。


Screened Poisson Surface Reconstruction

ScanNet Dataset

ScanNet Home Page

3DMatch: RGB-D Local Geometric Descriptors


参考文献

[1] I. Armeni, S. Sax, A. R. Zamir, and S. Savarese. Joint 2D-3D-semantic data for indoor scene understanding. arXiv preprint arXiv:1702.01105, 2017.
[2] I. Armeni, O. Sener, A. R. Zamir, H. Jiang, I. Brilakis, M. Fischer, and S. Savarese. 3D semantic parsing of largescale indoor spaces. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 1534–1543, 2016.
[3] A. Bansal, B. Russell, and A. Gupta. Marr revisited: 2D-3D alignment via surface normal prediction. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 5965–5974, 2016.
[4] S. Bell, K. Bala, and N. Snavely. Intrinsic images in the wild. ACM Trans. on Graphics (SIGGRAPH), 33(4), 2014.
[5] S. Choi, Q.-Y. Zhou, S. Miller, and V. Koltun. A large dataset of object scans. arXiv preprint arXiv:1602.02481, 2016.
[6] M. Chuang and M. Kazhdan. Interactive and anisotropic geometry processing using the screened poisson equation. ACM Transactions on Graphics (TOG), 30(4):57, 2011.
[7] A. Dai, A. X. Chang, M. Savva, M. Halber, T. Funkhouser, and M. Nießner. Scannet: Richly-annotated 3d reconstructions of indoor scenes. http://arxiv.org/abs/1702.04405, 2017.
[8] A. Dai, M. Nießner, M. Zoll¨ofer, S. Izadi, and C. Theobalt. Bundlefusion: Real-time globally consistent 3d reconstruction using on-the-fly surface re-integration. ACM Transactions on Graphics 2017 (TOG), 2017.
[9] D. Eigen and R. Fergus. Predicting depth, surface normals and semantic labels with a common multi-scale convolutional architecture. In Proceedings of the IEEE International Conference on Computer Vision, pages 2650–2658, 2015.
[10] M. Firman. RGBD datasets: Past, present and future. In CVPRWorkshop on Large Scale 3D Data: Acquisition, Modelling and Analysis, 2016.
[11] D. F. Fouhey, A. Gupta, and M. Hebert. Data-driven 3D primitives for single image understanding. In ICCV, 2013.
[12] D. F. Fouhey, A. Gupta, and M. Hebert. Unfolding an indoor origami world. In European Conference on Computer Vision, pages 687–702. Springer, 2014.
[13] S. Gupta, P. Arbelaez, and J. Malik. Perceptual organization and recognition of indoor scenes from RGB-D images. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 564–571, 2013.
[14] S. Gupta, R. Girshick, P. Arbel´aez, and J. Malik. Learning rich features from RGB-D images for object detection and segmentation: Supplementary material, 2014.
[15] M. Halber and T. Funkhouser. Structured global registration of rgb-d scans in indoor environments. 2017.
[16] X. Han, T. Leung, Y. Jia, R. Sukthankar, and A. C. Berg. Matchnet: Unifying feature and metric learning for patchbased matching. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 3279–3286, 2015.
[17] A. Handa, V. Patraucean, V. Badrinarayanan, S. Stent, and R. Cipolla. SceneNet: Understanding real world indoor scenes with synthetic data. arXiv preprint arXiv:1511.07041, 2015.
[18] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 770–778, 2016.
[19] E. Hoffer, I. Hubara, and N. Ailon. Deep unsupervised learning through spatial contrasting. arXiv preprint arXiv:1610.00243, 2016.
[20] B.-S. Hua, Q.-H. Pham, D. T. Nguyen, M.-K. Tran, L.-F. Yu, and S.-K. Yeung. SceneNN: A scene meshes dataset with annotations. In International Conference on 3D Vision (3DV), volume 1, 2016.
[21] M. Kazhdan, M. Bolitho, and H. Hoppe. Poisson surface reconstruction. In Proceedings of the fourth Eurographics symposium on Geometry processing, volume 7, 2006.
[22] A. Knapitsch, J. Park, Q.-Y. Zhou, and V. Koltun. Tanks and temples: Benchmarking large-scale scene reconstruction. ACM Transactions on Graphics, 36(4), 2017.
[23] B. Li, C. Shen, Y. Dai, A. van den Hengel, and M. He. Depth and surface normal estimation from monocular images using regression on deep features and hierarchical CRFs. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 1119–1127, 2015.
[24] D. Lin, S. Fidler, and R. Urtasun. Holistic scene understanding for 3D object detection with rgbd cameras. In Proceedings of the IEEE International Conference on Computer Vision, pages 1417–1424, 2013.
[25] M. Nießner, M. Zollh¨ofer, S. Izadi, and M. Stamminger. Real-time 3D reconstruction at scale using voxel hashing. ACM Transactions on Graphics (TOG), 2013.
[26] K. Rematas, T. Ritschel, M. Fritz, E. Gavves, and T. Tuytelaars. Deep reflectance maps. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 4508–4516, 2016.
[27] X. Ren, L. Bo, and D. Fox. RGB-(D) scene labeling: Features and algorithms. In Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pages 2759–2766. IEEE, 2012.
[28] M. Savva, A. X. Chang, P. Hanrahan, M. Fisher, and M. Nießner. PiGraphs: Learning Interaction Snapshots from Observations. ACM Transactions on Graphics (TOG), 35(4), 2016.
[29] T. Schmidt, R. Newcombe, and D. Fox. Self-supervised visual descriptor learning for dense correspondence. IEEE Robotics and Automation Letters, 2(2):420–427, 2017.
[30] J. Shotton, B. Glocker, C. Zach, S. Izadi, A. Criminisi, and A. Fitzgibbon. Scene coordinate regression forests for camera relocalization in RGB-D images. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 2930–2937, 2013.
[31] A. Shrivastava and A. Gupta. Building part-based object detectors via 3D geometry. In Proceedings of the IEEE International Conference on Computer Vision, pages 1745–1752, 2013.
[32] N. Silberman and R. Fergus. Indoor scene segmentation using a structured light sensor. In Computer Vision Workshops (ICCV Workshops), 2011 IEEE International Conference on, 2011.
[33] N. Silberman, D. Hoiem, P. Kohli, and R. Fergus. Indoor segmentation and support inference from RGBD images. In European Conference on Computer Vision, 2012.
[34] E. Simo-Serra, E. Trulls, L. Ferraz, I. Kokkinos, P. Fua, and F. Moreno-Noguer. Discriminative learning of deep convolutional feature point descriptors. In Proceedings of the IEEE International Conference on Computer Vision, pages 118–126, 2015.
[35] S. Song, S. P. Lichtenberg, and J. Xiao. SUN RGB-D: A RGB-D scene understanding benchmark suite. In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 567–576, 2015.
[36] S. Song and J. Xiao. Sliding shapes for 3D object detection in depth images. In European conference on computer vision, pages 634–651. Springer, 2014.
[37] S. Song and J. Xiao. Deep sliding shapes for amodal 3D object detection in RGB-D images. 2016.
[38] S. Song, F. Yu, A. Zeng, A. X. Chang, M. Savva, and T. Funkhouser. Semantic scene completion from a single depth image. arXiv preprint arXiv:1611.08974, 2016.
[39] J. Valentin, A. Dai, M. Nießner, P. Kohli, P. Torr, S. Izadi, and C. Keskin. Learning to navigate the energy landscape. arXiv preprint arXiv:1603.05772, 2016.
[40] J. Valentin, V. Vineet, M.-M. Cheng, D. Kim, J. Shotton, P. Kohli, M. Nießner, A. Criminisi, S. Izadi, and P. Torr. SemanticPaint: Interactive 3D labeling and learning at your fingertips. ACM Transactions on Graphics (TOG), 34(5):154, 2015.
[41] X. Wang, D. Fouhey, and A. Gupta. Designing deep networks for surface normal estimation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 539–547, 2015.
[42] J. Xiao, K. A. Ehinger, A. Oliva, and A. Torralba. Recognizing scene viewpoint using panoramic place representation. In Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pages 2695–2702. IEEE, 2012.
[43] J. Xiao, J. Hays, K. A. Ehinger, A. Oliva, and A. Torralba. Sun database: Large-scale scene recognition from abbey to zoo. In Computer vision and pattern recognition (CVPR), 2010 IEEE conference on, pages 3485–3492. IEEE, 2010.
[44] J. Xiao, A. Owens, and A. Torralba. SUN3D: A database of big spaces reconstructed using SFM and object labels. In Proceedings of the IEEE International Conference on Computer Vision, pages 1625–1632, 2013.
[45] K. M. Yi, E. Trulls, V. Lepetit, and P. Fua. LIFT: Learned invariant feature transform. In European Conference on Computer Vision, pages 467–483. Springer, 2016.
[46] A. Zeng, S. Song, M. Niessner, M. Fisher, J. Xiao, and T. Funkhouser. 3DMatch: Learning local geometric descriptors from RGB-D reconstructions. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017.
[47] J. Zhang, C. Kan, A. G. Schwing, and R. Urtasun. Estimating the 3D layout of indoor scenes and its clutter from depth sensors. In Proceedings of the IEEE International Conference on Computer Vision, pages 1273–1280, 2013.
[48] Y. Zhang, S. Song, E. Yumer, M. Savva, J.-Y. Lee, H. Jin, and T. Funkhouser. Physically-based rendering for indoor scene understanding using convolutional neural networks. arXiv preprint arXiv:1612.07429, 2016.
[49] B. Zhou, A. Lapedriza, J. Xiao, A. Torralba, and A. Oliva. Learning deep features for scene recognition using places database. In Advances in neural information processing systems, pages 487–495, 2014.


本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

Matterport3D:室内环境RGB-D数据的深度学习 的相关文章

  • 基于 Q3DScatter 的自定义图表,QCustom3DItem 运行缓慢

    我想制作一个带条形的 3D 图表 条形颜色取决于其大小 两个都Qt 条形图和散点图类型 https doc qt io qt 5 qtdatavisualization overview html接近我正在寻找的东西 我最终创建了一个基于的
  • 给定 3D 空间中的一条线,如何找到从它到一点的角度?

    我在 3D 空间中有两组点 我想画一条穿过两组点的中心的线 然后找到从该线到每个点的角度 从那里开始 我将根据两个角度的接近程度来确定两组中的匹配点 我知道如何找到每组点的中心 只需将它们平均在一起 并且我知道如何将它们匹配 甚至考虑到它们
  • Direct3D 中的矩阵多阶

    关于在 Direct3D 中乘法矩阵以获得结果 我收到了两个相互矛盾的答案 教程确实规定从左到右相乘 这很好 但这不是我想象的方式 这是一个例子 OpenGL 从上到下阅读 GLRotatef 90 0f GLTranslatef 20 0
  • 可点击的精灵标签?

    我一直在玩精灵文本标签 更具体地说是这个例子 http stemkoski github io Three js Sprite Text Labels html http stemkoski github io Three js Sprit
  • Unity3D:在 AA 解析后绘制粒子以提高性能

    我正在尝试评估 MSAA 对 Unity 中含有大量粒子的场景的影响 为此 我需要 使用 8x MSAA 绘制场景中的所有非粒子对象 使用上一个通道中解析的深度缓冲区来渲染所有 将非遮挡粒子系统转移到较小的渲染目标上 将 2 的颜色缓冲区与
  • 简单的线框格式?

    我正在寻找一种用于线框模型的简单文件格式 我知道 VRML u3D 等 但这些对于我的需求来说似乎很重要 我的标准是 必须有明确的规格 要么是开放的 要么是非常完善 记录的 我只需要 想要 简单的模型 顶点和边 我不想处理面孔或物体 如果格
  • 我应该如何格式化 .dat 文件以便制作 3D 矢量图?

    我正在为大学做这个编程任务 我们必须写一个c 计算 3D 空间中某些线圈的磁场矢量的程序 我已经成功编写了这个程序 并且我认为它运行得很好 不过 我想添加一个特殊的东西 这是我的试卷 所以它必须特别好 我想绘制出向量 我习惯打电话gnupl
  • GL_CULL_FACE使所有对象消失

    我正在尝试在 openGL3 3 中创建一些简单的多边形 我有两种类型的对象 具有以下属性 对象 1 10 个顶点 按顺序在下面列出 存储在GL ARRAY BUFFER并使用GL TRIANGLE FAN v x y z w v 0 0
  • CSS3DObject 始终位于 WebGL Mesh 前面

    我正在混合CSS3D Renderer with WebGL Renderer to add HTML3D 空间中的元素WebGL场景 这CSS3DObject在前面WebGL网格即使WebGL Renderer具有较高的 z index
  • 改变for循环的顺序?

    我遇到一种情况 我需要根据用户输入以不同的顺序循环遍历 xyz 坐标 所以我是 3D 空间中的一个区域 然后是一组像这样的 for 循环 for int x 0 x lt build getWidth x for int y 0 y lt
  • 如何在不使用 Kinect SDK 函数的情况下将深度空间中的点转换为 Kinect 中的颜色空间?

    我正在做一个增强现实应用程序 将 3D 对象叠加在用户的彩色视频之上 使用 Kinect 1 7 版本 虚拟对象的渲染在 OpenGL 中完成 我已经成功地在深度视频上叠加了 3D 对象 只需使用 NuiSensor h 标头中深度相机的固
  • 为什么 OpenGL 有远裁剪平面,以及使用什么惯用法来处理这个问题?

    我一直在学习 OpenGL 持续困扰我的一个话题是远裁剪平面 虽然我可以理解近剪裁平面和侧剪裁平面 它们永远不会产生任何实际效果 因为它们之外的对象无论如何都不会被渲染 背后的推理 但远剪裁平面似乎只是一个烦恼 由于 OpenGL 背后的人
  • WPF 3D - 在复杂几何体上映射渐变画笔

    我想问是否有人知道如何在 WPF 3D 中的复杂对象上映射渐变画笔 结果应该类似于 matlab 中的 3D 图像 例如 3D 函数 假设您有一些想要可视化的 3 维数据 并且想要通过颜色区分某些级别的值 给定一个 GradientBrus
  • 使用开源 3D 引擎从 Openstreetmap 数据渲染地图? [关闭]

    Closed 这个问题正在寻求书籍 工具 软件库等的推荐 不满足堆栈溢出指南 help closed questions 目前不接受答案 从 Openstreetmap 数据渲染 3D 地图可能会很漂亮麻烦的 https gis stack
  • 求截头棱锥体/截棱锥体横截面的边长

    如何找到横截面的边长 如图所示 下图 横截面 红色 截头锥体 截棱锥体 我知道顶部和底部的边长 以及底部的高度 截锥体和到横截面的距离 此外我还知道 顶部和底部底座平行 并且顶部和底部的中心 底部底座直接位于彼此之上 比例是线性的 因此只需
  • java3d 中的面部着色

    使用java3d 如何不在每个顶点基础上着色 而是在每个面基础上着色 我尝试学习 java3d 但我生成的 Shape3d 看起来并不符合预期 我想用不同的颜色给不同的三角形着色 但我不知道该怎么做 纹理看起来有点大材小用 而且我根本没有掌
  • 在 3d 网格中转发(绘制)线

    我需要类似 Bresenham 算法的东西 但是 对于 3d 网格空间来说不完全是这样 我需要 3d 单元网格 边缘尺寸 1 0 从 S 点开始 前进到 K 点 接触 该线接触的所有单元格 即使只有边缘 点被触摸我需要触摸所有 8 个单元
  • React-Three-Fiber:JSON 中位置 3 出现意外标记 c 错误

    我正在尝试使用 React Three Fiber 加载 glb 文件 但出现以下错误 Error Unexpected token c in JSON at position 3 我不确定我做错了什么 看来此问题最常见的解决方案是将 gl
  • 如何在 R 中导入并绘制三角形网格?

    我想在 R 中绘制我的模型输出 它是格式为的三角形网格 x1 y1 z1 x2 y2 z2 x3 y3 z3 value 每行代表一个三角形 我想用以下方法绘制这些三角形value作为规模 mymesh lt structure c 0 9
  • 关于Marching Cubes算法的澄清

    关于Marching Cubes 我对其算法和实现有一些疑问 我已经阅读了 Marching Cubes 的 Paul Bourke 优秀文章以及网站上可用的源代码 但是 我在理解以及如何以自己的方式实现算法方面仍然遇到了一些问题 问题如下

随机推荐

  • Aircrack-ng设置监听模式异常

    Aircrack ng设置监听模式异常 aircrack ng 在某些情况下 用户使用Aircrack ng工具集中的airmon ng命令 将无线网卡设置为监听模式时 会出现异常 如SIOCSIFFLA65 Name not unique
  • fiddler中设置Before断点修改请求

    Fiddler最强大的功能莫过于设置断点了 设置好断点后 你可以修改httpRequest的任何信息包括host cookie或者表单中的数据 设置断点有两种方法 第一种 打开Fiddler 点击Rules gt Automatic Bre
  • 一文搞懂MySQL架构设计,再也不用担心面试官问得太深

    很多开发同学对SQL优化如数家珍 却对MySQL架构一知半解 岂不是只见树叶 不见森林 终将陷入细节中不能自拔 今天就一块学习MySQL分层架构 深入了解MySQL底层实现原理 以及每层的作用 我们常见的SQL优化到底在哪一层做了优化 1
  • 西门子PLC1500大型程序fanuc机器人汽车焊装

    西门子PLC1500大型程序fanuc机器人汽车焊装 包括1台西门子1500PLC程序 2台触摸屏TP1500程序 9个智能远程终端ET200SP Profinet连接 15个Festo智能模块Profinet通讯 10台Fanuc发那科机
  • Python OpenCV学习总结Day 3.1 图像处理(上篇) 颜色处理与二值化,滤波去噪,形态学腐蚀膨胀,边缘检测

    目录 前言 Day3 1 OpenCV图像处理核心技术 上篇 颜色处理与二值化 颜色空间转换 阈值二值化 颜色阈值筛选 滤波去噪 形态学操作 腐蚀膨胀 开运算与闭运算 边缘检测 Sobel算子 Roberts算子 Prewitt算子 Can
  • FPGA功耗估计

    1 背景 quad 资源 速度 功耗是FPGA设计中的三大关键因素 温度与功耗成正相关性 功耗大必然会导致温度高 高温最常见的问题是系统重启 温度高对FPGA内部的时序不利 导致可靠性下降 2 功耗分类 1 芯片静态功耗 quad FPGA
  • Unity3D教程:fbx动画

    Unity3D教程fbx动画 在官方提供的例子 可以找到主角的fbx文件 将此文件放到自己的Assets文件夹下 Unity3D中的Project面板会将其刷新出来 但是如下图所示 动作信息是没有经过分割的 一定要注意 不要选择Hierar
  • line 1-19/19(END)怎么解决?

    在Linux中经常会遇到下图这种现象 其实这是一种很正常的现象 我们只需要按一下Q键就可以正常输入命令了
  • 笔记本电脑开启电脑卓越性能-将CPU拉到最满仅需一条指令

    在Windows的PowerShell工具组中运行下面代码 powercfg duplicatescheme e9a42b02 d5df 448d aa00 03f14749eb61 然后打开电源选项 就会看到比原来多出一个卓越性能选项 保
  • windows下各调试器条件断点实例

    0x00 前言 发现网上很多关于ollydbg和windbg的条件断点的设置是错误的 所以这里总结下 0x01 字符串条件断点 ollydbg unicode字符串 bp kernel32 CreateFileW UNICODE esp 4
  • SQL-labs的第34关——报错注入 宽字节注入(POST)

    1 尝试进行注入 输入语句 账号 1 密码 1 返回页面如下 发现该关还是会向危险字符自动添加斜杠 2 中和干扰符 输入语句 id 1 df 返回页面如下 我们发现无法中和反斜杠 3 使用burp工具进行注入 截取数据包 进行注入 输入语句
  • 列表和元组元素的增加

    对于列表 元素是可以改变的 可以直接用内置函数来实现 l t for i in range 50 l append i t i print l print t 元组元素可以拼接但是不能增删 对于元组 其元素是不可以直接增加 但是可以通过元组
  • 网络编程之基础与接口函数

    一 网络编程 1 网络基础 相关历史 第一阶段 ARPANET 阿帕网 是网络基础协议的雏形 第二阶段 第一份IP协议说明书 协议 两者之间需遵守的约定 第三阶段 TCP IP 网络程序框架 C S B S C S 表示客服端 服务器设计框
  • X86和X64运行环境下C++调用汇编函数源码和解释

    备注 这里给出的代码是在Win10系统中VS2022开发环境下编译测试通过的 X86环境下C 调用汇编函数 c 代码 include
  • 【以太网硬件十三】SGMII和1000base-X有什么异同?

    个人主页 highman110 作者简介 一名硬件工程师 持续学习 不断记录 保持思考 输出干货内容 目录 MII接口类型 MII GMII RGMII SGMII SGMII与1000base X的异同 通过前面的文章我们已经知道了100
  • 十分淫霸的Mooege&MadCow,你懂得。

    支持伟大的暴雪 支持正版 更支持热心的Mooege组织 Just can t waiting for it 纯粹为了体验 Contents hide 1 Must Have Requirements 2 Requirements 3 Qui
  • C++11 类的六大基本成员函数默认生成,default字段的含义

    总览 核心 编译器会为一个类按需自动生成成员函数 C 98 构造 析构 拷贝构造 拷贝赋值 C 11 有了右值 就多了两个 移动构造和移动赋值 功能 构造 无参构造 T 析构 调用成员变量析构 T 拷贝构造 同类型对象初始化 T a b a
  • Redis源码分析(一)--Redis结构解析

    从今天起 本人将会展开对Redis源码的学习 Redis的代码规模比较小 非常适合学习 是一份非常不错的学习资料 数了一下大概100个文件左右的样子 用的是C语言写的 希望最终能把他啃完吧 C语言好久不用 快忘光了 分析源码的第一步 先别急
  • 调用bat执行planning规则/规则集

    示例 c cd C Oracle Middleware user projects epmsystem1 Planning Planning1 echo begin run 规则集测试 echo 规则集测试开始时间 DATE time gt
  • Matterport3D:室内环境RGB-D数据的深度学习

    Matterport3D 室内环境RGB D数据的深度学习 Taylor Guo 2017年9月24日 Matterport3D Learning from RGB D Data in Indoor Environments Matterp