日韩成人黄色,透逼一级毛片,狠狠躁天天躁中文字幕,久久久久久亚洲精品不卡,在线看国产美女毛片2019,黄片www.www,一级黄色毛a视频直播

一種基于圖像序列的三維重建方法

文檔序號(hào):9524818閱讀:1180來源:國知局
一種基于圖像序列的三維重建方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及圖像處理技術(shù)領(lǐng)域,具體而言,涉及一種基于圖像序列的三維重建方法。
【背景技術(shù)】
[0002]二維圖像序列是指表示物體位置截面信息的一系列二維圖像,他們的大小、分辨率、顏色均相同,而且圖像所表現(xiàn)的位置在空間上是相鄰的,所以二維圖像中含有物體部分的三維空間信息。但是,要真正在計(jì)算機(jī)中利用這些信息并進(jìn)行下一步的應(yīng)用處理,就必須采用三維重建技術(shù)從二維圖像中合理地提取并表達(dá)這些三維信息。
[0003]計(jì)算機(jī)視覺的目的是從圖像中建立物體形狀和位置的描述,它把視覺過程主要規(guī)定為從二維圖像信息中定量地恢復(fù)出圖像所反映場景中的三維物體的形狀和空間位置,即立體重建或3D重建。計(jì)算機(jī)視覺的最終目的是實(shí)現(xiàn)對(duì)三維場景的感知、識(shí)別和理解。三維重建技術(shù)能夠從二維圖像出發(fā)構(gòu)造具有真實(shí)感的三維圖形,為進(jìn)一步的場景變化和組合運(yùn)算奠定基礎(chǔ)。
[0004]基于圖像的三維重建方法充分利用計(jì)算機(jī)視覺和計(jì)算機(jī)圖形學(xué)的相關(guān)知識(shí),從實(shí)際拍攝的單幅或多幅圖像中恢復(fù)出物體的三維模型。目前基于圖像的三維重建方法存在需要重建的點(diǎn)數(shù)量多,計(jì)算量大,重建精度不高等弱點(diǎn)。

【發(fā)明內(nèi)容】

[0005]為解決上述問題,本發(fā)明的目的在于提供一種基于順序方法的序列圖像三維重建新方法,有效避免了誤差累積。
[0006]本發(fā)明提供了一種基于圖像序列的三維重建方法,包括:
[0007]步驟1,攝像機(jī)獲取目標(biāo)對(duì)象的二維圖像序列;
[0008]步驟2,兩幅圖像重建:
[0009]分別對(duì)所述二維圖像序列中相鄰兩幅圖像之間利用SIFT特征匹配算法提取特征點(diǎn)并進(jìn)行匹配,對(duì)得到的特征點(diǎn)進(jìn)行基于兩幅圖像的三維重建,得到兩幅圖像間的重建三維點(diǎn)以及投影矩陣;
[0010]步驟3,從第一幅圖像開始計(jì)算相鄰三幅圖像之間的公共匹配點(diǎn);
[0011 ] 步驟4,坐標(biāo)變換和比例變換:
[0012]對(duì)相鄰三幅圖像中的第一幅圖像、第二幅圖像以及第二圖像、第三幅圖像對(duì)由步驟3得到的公共匹配點(diǎn)進(jìn)行基于兩幅圖像的三維重建,將第一圖像、第二幅圖像重建三維點(diǎn)的重建結(jié)果變換到第二圖像、第三幅圖像所在坐標(biāo)系下,由第二幅圖像、第三幅圖像重建三維點(diǎn)的重建結(jié)果與變換后的第一幅圖像、第二幅圖像的重建結(jié)果求出射影深度,由公共匹配點(diǎn)求出射影深度后,即可將步驟2中得到的所有重建三維點(diǎn)進(jìn)行坐標(biāo)變換以及比例變換;
[0013]步驟5,消除累積誤差:
[0014]利用簡化迭代最近點(diǎn)算法ICP,先由公共匹配點(diǎn)的重建結(jié)果計(jì)算步驟4中兩組重建三維點(diǎn)間的旋轉(zhuǎn)矩陣Ricp和平移向量Ticp,再利用所求得的旋轉(zhuǎn)矩陣Ricp和平移向量Ticp,將由步驟4執(zhí)行坐標(biāo)變換和比例變換的所有重建三維點(diǎn)的重建結(jié)果變換到第二幅圖像、第三幅圖像所選取的坐標(biāo)系下,從而將前三幅圖像的重建結(jié)果進(jìn)行疊加;
[0015]步驟6,依次增加新的圖像,重復(fù)執(zhí)行步驟3-5直至整個(gè)二維圖像序列。
[0016]作為本發(fā)明進(jìn)一步的改進(jìn),步驟1中獲取二維圖像序列的方法為:
[0017]在不同的角度和不同的位置,攝像機(jī)圍繞待重建物體連續(xù)拍攝圖像,對(duì)多幅連續(xù)圖像通過紋理映射,獲取待重建物體的二維圖像序列。
[0018]作為本發(fā)明進(jìn)一步的改進(jìn),步驟2中的所述投影矩陣包含兩幅圖像之間的旋轉(zhuǎn)矩陣和平移向量。
[0019]作為本發(fā)明進(jìn)一步的改進(jìn),步驟5采用基于區(qū)域增長的稠密匹配算法計(jì)算稠密點(diǎn)配點(diǎn)并利用稠密點(diǎn)進(jìn)行網(wǎng)格化所形成的三角形的平均周長剔除誤匹配。
[0020]作為本發(fā)明進(jìn)一步的改進(jìn),需對(duì)圖像劃分網(wǎng)格,網(wǎng)格越小,獲得的點(diǎn)云越稠密。
[0021]本發(fā)明的有益效果為:
[0022]1、傳統(tǒng)的順序方法采用的是一種自上而下的方式,本發(fā)明以基于兩幅圖像的重建為基礎(chǔ),在兼顧整體的同時(shí),利用已知三維點(diǎn)計(jì)算新加入圖像的投影矩陣,立足于兩幅圖像的準(zhǔn)確重建,最終將重建結(jié)果融合到同一個(gè)模型下;
[0023]2、選取相鄰三幅圖像,利用三焦點(diǎn)張量計(jì)算相鄰三幅圖像上的匹配點(diǎn),對(duì)三幅圖像中相鄰兩幅所得公共點(diǎn)進(jìn)行重建,由兩組公共三維點(diǎn)即可求出射影深度;
[0024]3、由于三幅圖像中相鄰兩幅之間的重建結(jié)果相差一個(gè)相似變換,可由初始重建過程求出此變換矩陣,通過此變換矩陣可將相鄰三幅圖像間得到的兩組重建三維點(diǎn)變換到同一坐標(biāo)系下,在進(jìn)行坐標(biāo)變換的過程中,由于累積誤差的存在,相鄰兩副圖像的重建結(jié)果無法精確重合,利用簡化迭代最近點(diǎn)算法ICP校正重建結(jié)果,從而有效避免了誤差累積;
[0025]4、利用基于區(qū)域增長的稠密匹配算法計(jì)算稠密匹配點(diǎn)并利用稠密點(diǎn)進(jìn)行網(wǎng)格化所形成的三角形的平均周長剔除誤匹配。
【附圖說明】
[0026]圖1為本發(fā)明實(shí)施例所述的一種圖像序列的三維重建方法流程示意圖;
[0027]圖2為圖1具體使用時(shí)的流程示意圖。
【具體實(shí)施方式】
[0028]下面通過具體的實(shí)施例并結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步的詳細(xì)描述。
[0029]如圖1所示,本發(fā)明實(shí)施例所述的一種本發(fā)明提供了一種基于圖像序列的三維重建方法,包括:
[0030]步驟1,攝像機(jī)獲取目標(biāo)對(duì)象的二維圖像序列;
[0031]步驟2,兩幅圖像重建:
[0032]分別對(duì)二維圖像序列中相鄰兩幅圖像之間利用SIFT特征匹配算法提取特征點(diǎn)并進(jìn)行匹配,對(duì)得到的特征點(diǎn)進(jìn)行基于兩幅圖像的三維重建,得到兩幅圖像間的重建三維點(diǎn)以及投影矩陣;
[0033]步驟3,從第一幅圖像開始計(jì)算相鄰三幅圖像之間的公共匹配點(diǎn);
[0034]步驟4,坐標(biāo)變換和比例變換:
[0035]對(duì)相鄰三幅圖像中的第一幅圖像、第二幅圖像以及第二圖像、第三幅圖像對(duì)由步驟3得到的公共匹配點(diǎn)進(jìn)行基于兩幅圖像的三維重建,將第一圖像、第二幅圖像重建三維點(diǎn)的重建結(jié)果變換到第二圖像、第三幅圖像所在坐標(biāo)系下,由第二幅圖像、第三幅圖像重建三維點(diǎn)的重建結(jié)果與變換后的第一幅圖
當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1