ArUco----一个微型现实增强库的介绍及视觉应用(二)

2023-05-16

很重要的一点就是这个

转载自:https://www.cnblogs.com/shawn0102/p/8039439.html

ArUco----一个微型现实增强库的介绍及视觉应用(二)

ArUco----一个微型现实增强库的介绍及视觉应用(二)

一、第一个ArUco的视觉应用

  首先介绍第一个视觉应用的Demo,这个应用场景比较简单,下面具体介绍:

1. 应用场景

  主线程:通过摄像头检测环境中的视觉标志,看到ID为100的标志后在图像中圈出标志,在标志上绘制坐标系,得到视觉标志相对于相机坐标系的位置和姿态参数;

  子线程:将得到的视觉标志进一步转换成需要的数据类型并发送给机器人。

2. 编程环境

  Ubuntu14.04(安装有OpenCV以及ArUco)

3. 编译工具

  Cmake

 4. 源码下载地址

  https://github.com/Zhanggx0102/Aruco_Blog_Demo.git

 5. 源码处理

  下载完成后重新编译即可。

  cd Aruco_Blog_Demo-master

  rm -r build/

  mkdir build

  cd build

  cmake ..

  make 

二、源码解读

 源码中已经做了比较详细的注释,这里主要讲解程序框架。

程序流程图如下所示:

 

程序流程图

执行后的效果如下图所示:

下面是源码截取的两个主要的函数。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93

94

95

96

97

98

99

100

101

102

103

104

105

106

107

108

109

110

111

112

113

114

115

116

117

118

119

120

121

122

123

124

125

126

127

128

129

130

131

132

133

134

135

136

137

138

139

140

141

142

143

144

145

146

147

148

149

150

151

152

153

154

155

156

157

158

159

160

161

162

163

164

165

166

167

168

169

170

171

172

173

174

175

176

177

178

179

180

181

182

183

184

185

186

187

188

189

190

191

192

193

/*******************************************************************************************************************

main function

********************************************************************************************************************/

int main(int argc,char **argv)

{

 

    int thread_return;

    pthread_t Message_Send_Thread_ID;

    //init thread lock

    pthread_mutex_init(&IK_Solver_Lock, NULL);

    //creat new thread

    thread_return = pthread_create(&Message_Send_Thread_ID,NULL,Thread_Func_Message_Send,NULL);

     

    //import the camera param (CameraMatrix)

    float camera_matrix_array[9] = { 1.0078520005023535e+003, 0., 6.3950000000000000e+002,

                                  0.0, 1.0078520005023535e+003, 3.5950000000000000e+002,

                                  0.0, 0.0, 1.0 };

    cv::Mat Camera_Matrix(3,3,CV_32FC1);

    InitMat(Camera_Matrix,camera_matrix_array);

    cout << "Camera_Matrix = " << endl << "" << Camera_Matrix << endl ;

    //import the camera param (Distorsion)

    float Distorsion_array[5] = {-4.9694653328469340e-002, 2.3886698343464000e-001, 0., 0.,-2.1783942538569392e-001};

    cv::Mat Distorsion_M(1,5,CV_32FC1);

    InitMat(Distorsion_M,Distorsion_array);

    cout << "Distorsion_M = " << endl << "" << Distorsion_M << endl ;

 

    CameraParameters LogiC170Param;

    //LogiC170Param.readFromXMLFile("LogitchC170_Param.yml");

    LogiC170Param.CameraMatrix = Camera_Matrix.clone();

    LogiC170Param.Distorsion = Distorsion_M.clone();

    LogiC170Param.CamSize.width = 1280;

    LogiC170Param.CamSize.height = 720;

 

    float MarkerSize = 0.04;

    int Marker_ID;

    MarkerDetector MDetector;

    MDetector.setThresholdParams(7, 7);

    MDetector.setThresholdParamRange(2, 0);

 

    CvDrawingUtils MDraw;

 

    //read the input image

    VideoCapture cap(0); // open the default camera

     if(!cap.isOpened())  // check if we succeeded 

        return -1;

    cv::Mat frame;

    cv::Mat Rvec;//rotational vector

    CvMat Rvec_Matrix;//temp matrix

    CvMat R_Matrix;//rotational matrixs

    cv::Mat Tvec;//translation vector

 

    cap>>frame;//get first frame

    //LogiC170Param.resize(frame.size());

 

    printf("%f, %f\n",cap.get(CV_CAP_PROP_FRAME_WIDTH),cap.get(CV_CAP_PROP_FRAME_HEIGHT)); 

    cap.set(CV_CAP_PROP_FRAME_WIDTH, 1280); 

    cap.set(CV_CAP_PROP_FRAME_HEIGHT, 720); 

    //cap.set(CV_CAP_PROP_FPS, 10); 

    printf("%f, %f\n",cap.get(CV_CAP_PROP_FRAME_WIDTH),cap.get(CV_CAP_PROP_FRAME_HEIGHT));  

 

    while(1)

    {

        //get current frame

        cap>>frame;

        //Ok, let's detect

        vector< Marker >  Markers=MDetector.detect(frame, LogiC170Param, MarkerSize);

        //printf("marker count:%d \n",(int)(Markers.size()));

 

        //for each marker, estimate its ID and if it is  100 draw info and its boundaries in the image

        for (unsigned int j=0;j<Markers.size();j++)

        {

            //marker ID test

            Marker_ID = Markers[j].id;

            printf("Marker ID = %d \n",Marker_ID);

 

            if(Marker_ID == 100)

            {

                //cout<<Markers[j]<<endl;

                Markers[j].draw(frame,Scalar(0,0,255),2);

 

                Markers[j].calculateExtrinsics(MarkerSize, LogiC170Param, false);

                //calculate rotational vector

                Rvec = Markers[j].Rvec;

                cout << "Rvec = " << endl << "" << Rvec << endl ;

                //calculate transformation vector

                Tvec = Markers[j].Tvec;

                cout << "Tvec = " << endl << "" << Tvec << endl ;

 

                //lock to update global variables: Rotat_Vec_Arr[3]  Rotat_M[9]  Trans_M[3]

                pthread_mutex_lock(&IK_Solver_Lock);

 

                //save rotational vector to float array

                for (int r = 0; r < Rvec.rows; r++) 

                

                    for (int c = 0; c < Rvec.cols; c++) 

                    {    

                        //cout<< Rvec.at<float>(r,c)<<endl; 

                        Rotat_Vec_Arr[r] = Rvec.at<float>(r,c);

                    }    

                }

                printf("Rotat_Vec_Arr[3] = [%f, %f, %f] \n",Rotat_Vec_Arr[0],Rotat_Vec_Arr[1],Rotat_Vec_Arr[2]);

 

                //save array data to CvMat and convert rotational vector to rotational matrix

                cvInitMatHeader(&Rvec_Matrix,1,3,CV_32FC1,Rotat_Vec_Arr,CV_AUTOSTEP);//init Rvec_Matrix

                cvInitMatHeader(&R_Matrix,3,3,CV_32FC1,Rotat_M,CV_AUTOSTEP);//init R_Matrix and Rotat_M

                cvRodrigues2(&Rvec_Matrix, &R_Matrix,0);

                printf("Rotat_M = \n[%f, %f, %f, \n  %f, %f, %f, \n  %f, %f, %f] \n",Rotat_M[0],Rotat_M[1],Rotat_M[2],Rotat_M[3],Rotat_M[4],Rotat_M[5],Rotat_M[6],Rotat_M[7],Rotat_M[8]);

                 

                //save transformation vector to float array

                for (int r = 0; r < Tvec.rows; r++)

                

                    for (int c = 0; c < Tvec.cols; c++) 

                    {

                        Trans_M[r] = Tvec.at<float>(r,c);

                    }

                }

                printf("Trans_M[3] = [%f, %f, %f] \n",Trans_M[0],Trans_M[1],Trans_M[2]);

 

                //unlock

                pthread_mutex_unlock(&IK_Solver_Lock);

 

                // draw a 3d cube in each marker if there is 3d info

                if (LogiC170Param.isValid() && MarkerSize != -1)

                {

                    MDraw.draw3dAxis(frame,LogiC170Param,Rvec,Tvec,0.04);

                }

            }

        }

        //*/

        cv::waitKey(150);//wait for key to be pressed

        cv::imshow("Frame",frame);

    }

    //wait for the IK solver thread close and recover resources

    pthread_join(Message_Send_Thread_ID,NULL);

 

    pthread_mutex_destroy(&IK_Solver_Lock); //destroy the thread lock

    return 0

}

/**********************************************************

function: new thread to send messages

input: void

return :null

***********************************************************/

void * Thread_Func_Message_Send(void *arg)

{

    printf("IK solver thread is running!\n");

    //original pose and position

    float P_original[4];

    float N_original[4];

    float O_original[4];

    float A_original[4];

    //final pose and position

    float P[3];

    float N[3];

    float O[3];

    float A[3];

 

    P_original[3] = 1;

    N_original[3] = 0;

    O_original[3] = 0;

    A_original[3] = 0;

 

    while (1)

    {

        //get the spacial pose

        pthread_mutex_lock(&IK_Solver_Lock);

        //memcpy(P_original, Trans_M, sizeof(Trans_M));

        for(int i=0;i<3;i++)

        {

            P_original[i] = Trans_M[i];

            N_original[i] = Rotat_M[3*i];

            O_original[i] = Rotat_M[3*i+1];

            A_original[i] = Rotat_M[3*i+2];

        }

        pthread_mutex_unlock(&IK_Solver_Lock);

        //debug printf

        ///*

        printf("N_original[4] = [%f, %f, %f, %f]  \n",N_original[0],N_original[1],N_original[2],N_original[3]);

        printf("O_original[4] = [%f, %f, %f, %f]  \n",O_original[0],O_original[1],O_original[2],O_original[3]);

        printf("A_original[4] = [%f, %f, %f, %f]  \n",A_original[0],A_original[1],A_original[2],A_original[3]);

        printf("P_original[4] = [%f, %f, %f, %f]  \n",P_original[0],P_original[1],P_original[2],P_original[3]);

        //*/

 

        printf("I send the message to robot here! \n");

        /*

        add message send function here!

        */<br>

        //uodate every 5 s

        sleep(5);

    }

    //kill the message send thread

    pthread_exit(0); 

}

 

<-- 本篇完-->

 

欢迎留言、私信、邮箱、微信等任何形式的技术交流。

作者信息:

名称:Shawn

邮箱:zhanggx0102@163.com

微信二维码:↓

          

标签: ArUco, 增项现实, 视觉应用

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

ArUco----一个微型现实增强库的介绍及视觉应用(二) 的相关文章

  • ARUCO marker的解释(ARUCO二维码的含义说明)

    转载自 xff1a https blog csdn net qq 38288618 article details 78241456 utm medium 61 distribute pc relevant t0 none task blo
  • python下使用aruco标记进进行三维姿势估计(转载)

    转载自 xff1a https www it610 com article 1291934151255072768 htm python下使用aruco标记进进行三维姿势估计 视觉机器人 python3 aruco python openc
  • 二维码识别与定位-方法2-利用opencv扩展库aruco

    二维码识别作为一种快捷准确的技术已经应用与生活中的购物支付 物体识别及工业AGV导航等领域 xff0c 典型的二维码识别开源库有arcuo alvar以及OpenCV中的二维码检测API如QRCodeDetector xff0c 在本节中我
  • ArUco标定板生成与打印

    链接如下 xff1a https span class token punctuation span span class token operator span chev span class token punctuation span
  • ros使用usb摄像头追踪ArUco markers

    ros使用usb摄像头追踪ArUco markers 注意 xff1a 在通过ros使用usb摄像头追踪ArUco markers之前 xff0c 先进行相机的内参标定 xff0c 否则会出现以下问题 Error TF NAN INPUT
  • 基于ArUco的视觉定位(三)

    一 ArUco之Marker Mapper 1 Marker Mapper简介 Mapping and Localization from Planar Markers是A V A小组基于ArUco开发的一个利用二维码建图与定位的项目 论文
  • 使用电脑摄像头计算aruco marker位姿(Python)

    一 效果图 刚做了一些尝试 xff0c 算两个aruco之间的距离 先算x方向 xff0c 用ID 61 12减去ID 61 13 xff0c tvec的三个坐标依次是Z Y X 所以 xff0c ID 61 12和ID 61 13的x距离
  • 使用Aruco二维码实现定位

    首先使用cv aruco estimatePoseSingleMarkers 函数后得到两个很重要的数据revc和tevc xff0c 分别是旋转向量和平移向量 通过这两个数据就可以得到相机在世界坐标系下的坐标 此处需要了解solvePnP
  • 【OpenCV3.2】Detection of ArUco Markers

    姿态估计 xff08 Pose estimation xff09 在 计算机视觉 领域扮演着十分重要的角色 xff1a 机器人 导航 增强现实以及其它 这一过程的基础是找到现实世界和图像投影之间的对应点 这通常是很困难的一步 xff0c 因
  • ARUCO marker的解释

    markers for ARUCO 一种汉明 海明 码的格子图 如图 百度百科解释汉明码规则概要 使用奇偶校验 具有一位纠错能力 校验位在2的次幂位置1 2 4 8 16 32 具体参看 https baike baidu com item
  • opencv_contrib aruco源码

    https github com opencv opencv contrib tree master modules 最近使用了aruco模块 想看看aruco的源码是怎样实现的 在opencv源码中一直没找到aruco 原来 他隐藏在op
  • OpenCV学习——ArUco模块

    前提介绍 xff1a ArUco模块是OpenCV的contrib拓展库中一个模块 xff0c 需要安装OpenCV的 contrib拓展库 才能正常使用 ArUco标记 xff1a ArUco 标记是由 宽黑色边框 和 确定其标识符 xf
  • Aruco检测

    来自 xff1a https blog dgut top 2020 07 15 python aruco 检测ID span class token keyword import span numpy span class token ke
  • 源码实现 Aruco检测

    以下为实现aruco检测并读取id的代码 xff0c 直接复制粘贴即可 相信看到这篇博客的伙伴应该知道aruco xff0c 我就不解释了 opencv3 0以上有实现aruco的库 一 cmake编译信息 Cmakelist txt cm
  • aruco板_基于arucoTag的简单slam

    include include include include include include include include include include include include include 34 g2o types sla
  • Ros下Aruco模块的使用

    生成ARUCO ROS MARKER 链接 http chev me arucogen 首先启动ros roscore 打开相机节点 xff0c 在此提供usb相机与Realsense D435i的启动方法 xff1a roslaunch
  • 使用Realsense测试aruco_ros包

    01 准备工作 安装realsense ros安装aruco ros span class token builtin class name cd span ur ws src span class token function git s
  • 如何获得相机旋转? (阿鲁科图书馆)

    我一直在尝试了解下载 Aruco 库时包含的 aruco test cpp 程序的输出 输出具有以下格式 22 236 87 86 4296 422 581 78 3856 418 21 228 032 261 347 228 529 Tx
  • 详细了解 openCV aruco 标记检测/姿态估计:亚像素精度

    我目前正在研究openCV的 aruco 模块 特别关注ArUco标记和AprilTags的poseEstimation 在研究子像素精度时 我遇到了一种奇怪的行为 如下代码所示 如果我确实提供了 完美 校准 例如 cx cy 等于图像中心
  • Aruco 标记与 openCv,获取 3d 角坐标?

    我正在使用 opencv 3 2 检测打印的 Aruco 标记 aruco estimatePoseSingleMarkers corners markerLength camMatrix distCoeffs rvecs tvecs 这将

随机推荐