一种水下动态场景光学混合三维成像方法与流程

    专利2022-07-08  104


    本发明涉及到一种水下动态场景光学混合三维成像方法,可广泛用于水下目标识别、水下管线及设备监测、水下生物研究、水下文物探测以及水下潜航器定位导航等领域。



    背景技术:

    随着各国对海洋探索研究和资源开发的重视,水下三维成像已成为国内外海洋探测研究的热点。研究发现,声纳探测范围大,但存在分辨率低、边缘不清晰等局限;激光线扫描可以提高分辨率,但测量时需要不断移动、不适合动态场景探测;双目视觉近年发展迅速,测量精度高,然而只适合小范围测量。

    为满足水下动态场景近距离高精度三维成像的要求,本发明将线激光扫描法和双目视觉方法相结合,提出一种水下动态场景的光学混合三维成像方法,以克服常用水下三维成像方法的局限,对于水下无人潜航器的三维成像感知具有直接应用价值,并可以与探测距离更远(>10m距离)的声学成像手段相互补充,对于提升我国水下信息三维感知能力具有重要意义。



    技术实现要素:

    要解决的技术问题

    为解决水下动态场景的高精度三维成像的难题,本发明提供一种水下动态场景的光学混合三维成像方法。

    技术方案

    一种水下动态场景光学混合三维成像方法,其特征在于包括1个多线束激光器、n个ccd相机和1个控制器,所述的n个ccd相机等间距排布,n个ccd相机和多线束激光器均与控制器连接,控制器对其进行供电和控制,所述的多线束激光器和距离其最远的ccd相机组成线激光三维扫描系统,两两相邻的ccd相机组成双目视觉系统;步骤如下:

    步骤1:多线激光测量全局点

    采用多线激光等间距覆盖测量区域扫描一次,将得到的三维点云作为全局控制点;

    步骤2:被测区域划分

    根据全局控制点将被测区域划分为n-1个子区;

    步骤3:双目视觉重建子区点云

    采用各个双目视觉系统分别对n-1个子区进行测量,获得n-1幅局部三维点云;

    步骤4:利用全局控制网将重建的各个分块子区的重建结果进行拼接

    假设第i个分块区域与全局控制网有n个公共参考点,假设这些公共点在全局坐标系下的坐标值为而在分块局部坐标系下的坐标值为则局部坐标系相对于全局坐标系的旋转矩阵ri和平移矩阵ti可采用奇异值svd分解法计算:

    首先,求解坐标集合的重心,即:

    然后,引入三阶矩阵对h进行奇异值分解,可得:

    h=uλvt(2)

    旋转矩阵ri和平移矩阵ti通过下式进行计算,则

    求出旋转矩阵和平移矩阵后,即可将第i个分块区域中所有测量点的局部三维坐标pi,s统一到全局坐标系下,得到其在全局坐标系下的坐标值pi,g为:

    pi,g=ripi,s-ti(4)

    所述的多线束激光器为2线。

    所述的相机为4个。

    有益效果

    本发明提出的一种水下动态场景光学混合三维成像方法,利用了线激光扫描单次测量快速、测量范围大以及双目视觉小范围测量精度高的优势,采用全局控制与局部扫描相结合的思想来提高大范围三维重建的精度,同时克服激光线扫描进行三维点云测量时需要相对移动,难以测量动态场景的缺陷。

    附图说明

    图1图像采集单元组成示意图

    图2光学混合三维重建流程

    图3分块子区拼接示意图

    1-多线束激光器、2-第一ccd相机、3-第二ccd相机、4-第三相机、5-第四相机、6-控制器、7-被测目标、8-第一分块子区、9-第二分块子区、10-第三分区、11-全局点、12-局部测量点、13-全局控制网。

    具体实施方式

    现结合实施例、附图对本发明作进一步描述:

    本发明利用线激光单次投射扫描建立被测量区域的全局控制点,然后利用这些点建立全局控制网将被测量区域划分为若干子区,对每个子区分别采用双目视觉技术进行三维重建,最后通过全局控制网将测得的局部子区三维点云拼接到一起实现大范围成像。所述发明方法借助图像采集单元实现水下场景的图像采集,该单元主要由1个多线束激光器、多个ccd相机、1个控制器以及线缆线束组成。

    本发明解决其技术问题所采用的技术方案:基于激光扫描和双目视觉的光学混合三维成像方法,其特点是包括下述步骤:

    (a)采用多线激光等间距覆盖测量区域扫描一次,将得到的三维点云作为全局控制点;

    (b)根据全局控制点将被测区域划分为多个子区,由于分块测量是对每个子区分别测量后再进行整体拼接;

    (c)采用双目视觉技术分别对各个子区进行测量,得到三维点云;

    (d)利用全局控制网将重建的各个分块子区的重建结果进行拼接。

    实施例:

    本发明图像采集单元如图1所示,由1个多线束激光器、4个ccd相机、1个控制器以及线缆线束若干组成,4个ccd相机等间距排布,1个多线束激光器位于最左端,1个多线束激光器、4个ccd相机均与控制器连接,控制器对多线束激光器进行供电和开关控制,控制器对4个ccd相机进行供电和同步触发控制。其中,多线束激光器1和第四相机组成一个线激光三维扫描系统,单次测量可实现被测目标全局框架点的重建,第一相机和第二相机、第二相机和第三相机、第三相机和第四相机又分别组成双目视觉系统,用于被测目标局部三维形貌的测量,两种系统相结合从而实现大范围被测目标的动态三维重建。每次测量急需激光器投射一次,四相机同步拍摄一次,并引入图像并行加速处理,在保证测量精度的同时,实现快速三维成像,以满足动态场景测量要求。

    本发明技术方案的基本流程如图2所示,其特点是包括下述步骤:

    1.多线激光测量全局点

    第一步,采用多线(以2线为例说明)激光等间距覆盖测量区域扫描一次,得到如图3所示的2束三维点云,作为全局控制点。

    2.被测区域划分

    根据全局控制点将被测区域划分为3个子区,由于分块测量是对每个子区分别测量后再进行整体拼接,因此每个子区内的点云分辨率更高。

    3.双目视觉重建子区点云

    利用相机-1和相机-2、相机-2和相机-3、相机-3和相机-4分别组成的双目视觉系统,对三个子区同时进行测量,获得三幅局部三维点云。

    4.子区点云拼接

    假设第i个分块区域与全局控制网有n个公共参考点(n应大于3),假设这些公共点在全局坐标系下的坐标值为而在分块局部坐标系下的坐标值为则局部坐标系相对于全局坐标系的旋转矩阵ri和平移矩阵ti可采用奇异值(svd)分解法计算。

    首先,求解坐标集合的重心,即:

    然后,引入三阶矩阵对h进行奇异值分解,可得:

    h=uλvt(2)

    旋转矩阵ri和平移矩阵ti可通过下式进行计算,则

    求出旋转矩阵和平移矩阵后,即可将第i个分块区域中所有测量点的局部三维坐标pi,s统一到全局坐标系下,得到其在全局坐标系下的坐标值pi,g为:

    pi,g=ripi,s-ti(4)


    技术特征:

    1.一种水下动态场景光学混合三维成像方法,其特征在于包括1个多线束激光器、n个ccd相机和1个控制器,所述的n个ccd相机等间距排布,n个ccd相机和多线束激光器均与控制器连接,控制器对其进行供电和控制,所述的多线束激光器和距离其最远的ccd相机组成线激光三维扫描系统,两两相邻的ccd相机组成双目视觉系统;步骤如下:

    步骤1:多线激光测量全局点

    采用多线激光等间距覆盖测量区域扫描一次,将得到的三维点云作为全局控制点;

    步骤2:被测区域划分

    根据全局控制点将被测区域划分为n-1个子区;

    步骤3:双目视觉重建子区点云

    采用各个双目视觉系统分别对n-1个子区进行测量,获得n-1幅局部三维点云;

    步骤4:利用全局控制网将重建的各个分块子区的重建结果进行拼接

    假设第i个分块区域与全局控制网有n个公共参考点,假设这些公共点在全局坐标系下的坐标值为而在分块局部坐标系下的坐标值为则局部坐标系相对于全局坐标系的旋转矩阵ri和平移矩阵ti可采用奇异值svd分解法计算:

    首先,求解坐标集合的重心,即:

    然后,引入三阶矩阵对h进行奇异值分解,可得:

    h=uλvt(2)

    旋转矩阵ri和平移矩阵ti通过下式进行计算,则

    求出旋转矩阵和平移矩阵后,即可将第i个分块区域中所有测量点的局部三维坐标pi,s统一到全局坐标系下,得到其在全局坐标系下的坐标值pi,g为:

    pi,g=ripi,s-ti(4)。

    2.根据权利要求1所述的一种水下动态场景光学混合三维成像方法,其特征在于所述的多线束激光器为2线。

    3.根据权利要求1所述的一种水下动态场景光学混合三维成像方法,其特征在于所述的相机为4个。

    技术总结
    本发明涉及一种水下动态场景光学混合三维成像方法,属于三维成像技术领域。利用线激光单次投射扫描建立被测量区域的全局控制点,然后利用这些点建立全局控制网将被测量区域划分为若干子区,对每个子区分别采用双目视觉技术进行三维重建,最后通过全局控制网将测得的局部子区三维点云拼接到一起实现大范围成像。本发明利用了线激光扫描单次测量快速、测量范围大以及双目视觉小范围测量精度高的优势,采用全局控制与局部扫描相结合的思想来提高大范围三维重建的精度,同时克服激光线扫描进行三维点云测量时需要相对移动,难以测量动态场景的缺陷。

    技术研发人员:胡浩;樊黎明;赵维娜;王惠刚
    受保护的技术使用者:西北工业大学青岛研究院;西北工业大学
    技术研发日:2020.11.25
    技术公布日:2021.03.12

    转载请注明原文地址:https://wp.8miu.com/read-16209.html

    最新回复(0)