根据相机外参实现单应矩阵计算的理论与实践

论文阅读模块将分享点云处理,SLAM,三维视觉,高精地图相关的文章。公众号致力于理解三维视觉领域相关内容的干货分享,欢迎各位加入我,我们一起每天一篇文章阅读,开启分享之旅,有兴趣的可联系微信dianyunpcl@163.com。

单应矩阵介绍

单应性在计算机视觉领域是一个非常重要的概念,它在图像校正、图像拼接、俯视图生成,相机位姿估计、视觉SLAM等领域有非常重要的作用。

单应性(Homography)变换是将一幅图像中的点映射到另一幅图像中相应点的变换关系:

单应矩阵是一个3x3矩阵,具有8个自由度,通常为归一化后表达式,其尺度为1。

下面展示了不同类型的变换,但都与两个平面之间的变换有关。

(1)真实平面和图像平面

(2)由两个相机位置拍摄的平面

(3)围绕其投影轴旋转的相机采集的图像进行拼接

所以单应性矩阵主要用来解决两个问题:

一是表述真实世界中一个平面与对应它图像的透视变换

二是从通过透视变换实现图像从一种视图变换到另外一种视图

外参求解单应矩阵理论

这里将主要讲解以下已知两个相机的位姿如何实现图像的拼接,主要公式就是根据外参计算H矩阵。

单应性将两个平面之间的变换联系起来,这样就可以计算出从第二个平面视图转到第一个平面视图下相应相机位移,在已知内外参的情况下有

使用齐次坐标系表达式将三维世界点转转到相机坐标系下:

使用矩阵乘法可以轻松地将一图像帧中表示的点转换为另一帧图像中:c1Mo是第一帧的位姿,c2Mo是第二帧的位姿。要将相机1中表示的三维点变换为相机2帧的坐标下,其变换公式为:

以上公式对应的是:同一平面两个不同相机坐标系的单应矩阵。如果要同一平面计算出两个图像间的单应矩阵H,则需要内参,此时左边乘以K,右边乘以K的逆矩阵。

为了更好的理解,这里写了一个demo,并与上述的理论对应(注意这里是将第二帧转到第一帧的坐标系下)。

代码语言:javascript
复制
Mat cameraMatrix = (Mat_<double>(3, 3) << 700.0, 0.0, 320.0,
                       0.0, 700.0, 240.0,
                       0, 0, 1);
Mat R1 = c1Mo(Range(0, 3), Range(0, 3));
Mat R2 = c2Mo(Range(0, 3), Range(0, 3));
 //c1Mo * oMc2
Mat R_2to1 = R1*R2.t();//同一平面两个不同相机坐标系的单应矩阵
// [compute-homography]
Mat H = cameraMatrix * R_2to1 * cameraMatrix.inv();//同一平面计算出两个图像间的单应矩阵H
H /= H.at<double>(2, 2);//归一化
cout << "H:\n" << H << endl;

根据求解的单应矩阵实现两个视图的拼接实例显示如下

拼接的结果如下:

代码语言:javascript
复制
warpPerspective(img2, img_stitch, H, Size(img2.cols * 2, img2.rows));
               Mat half = img_stitch(Rect(0, 0, img1.cols, img1.rows));

完整代码如下:

代码语言:javascript
复制
void basicPanoramaStitching(const string &img1Path, const string &img2Path)
{
 Mat img1 = imread("Blender_Suzanne1.jpg");
 Mat img2 = imread("Blender_Suzanne2.jpg");
 //! [camera-pose-from-Blender-at-location-1]
 Mat c1Mo = (Mat_<double>(4, 4) << 0.9659258723258972, 0.2588190734386444, 0.0, 1.5529145002365112,
         0.08852133899927139, -0.3303661346435547, -0.9396926164627075, -0.10281121730804443,
         -0.24321036040782928, 0.9076734185218811, -0.342020183801651, 6.130080699920654,
         0, 0, 0, 1);
 //! [camera-pose-from-Blender-at-location-1]
 //! [camera-pose-from-Blender-at-location-2]
 Mat c2Mo = (Mat_<double>(4, 4) << 0.9659258723258972, -0.2588190734386444, 0.0, -1.5529145002365112,
         -0.08852133899927139, -0.3303661346435547, -0.9396926164627075, -0.10281121730804443,
         0.24321036040782928, 0.9076734185218811, -0.342020183801651, 6.130080699920654,
         0, 0, 0, 1);
 //! [camera-pose-from-Blender-at-location-2]
 Mat cameraMatrix = (Mat_<double>(3, 3) << 700.0, 0.0, 320.0,
         0.0, 700.0, 240.0,
         0, 0, 1);
 Mat R1 = c1Mo(Range(0, 3), Range(0, 3));
 Mat R2 = c2Mo(Range(0, 3), Range(0, 3));
 //c1Mo * oMc2
 Mat R_2to1 = R1*R2.t();
 //! [compute-homography]
 Mat H = cameraMatrix * R_2to1 * cameraMatrix.inv();
 H /= H.at<double>(2, 2);
 cout << "H:\n" << H << endl;
 //! [compute-homography]
 //! [stitch]
 Mat img_stitch;
 warpPerspective(img2, img_stitch, H, Size(img2.cols * 2, img2.rows));
 Mat half = img_stitch(Rect(0, 0, img1.cols, img1.rows));
 img1.copyTo(half);
 //! [stitch]
 Mat img_compare;
 Mat img_space = Mat::zeros(Size(50, img1.rows), CV_8UC3);
 hconcat(img1, img_space, img_compare);
 hconcat(img_compare, img2, img_compare);
 imshow("Compare images", img_compare);
 imshow("Panorama stitching", img_stitch);
 waitKey();
        }

以上是根据外参实现了同一相机不同位姿采集的图像的拼接,其主要原理主要是根据外参计算出单应性矩阵,将第二帧采集的图像变换到第一帧视角下的结果,最终实现拼接。这里我想到了前视图转换俯视图的方法,同样也是变换视角的问题,只是这里的俯视图的虚拟相机的参数需要自己设置,有时间再更新。