產(chǎn)品詳情
具有消耗功率小、機身超輕量化、體積小的特點
性價比非常高
所我們在獲取若干點對之后,就可以直接求解出相機中物體與數(shù)據(jù)庫中物體之間的單應(yīng)性矩陣。如果我們用深度相機(如Kinect)或者雙目視覺方法,確定出每個特征點的 D 位置。那么,直接求解這個 PnP 問題,就可以計算出物體在當前相機坐標系下的位姿?!?這里就放一個實驗室之前畢業(yè)師兄的成果當然,實際操作過程中還是有很多細節(jié)工作才可以讓它真正可用的,如:先利用點云分割和歐氏距離去除背景的影響、選用特征比較穩(wěn)定的物體(有時候 SIFT 也會變化)、利用貝葉斯方法加速匹配等。而且,除了 SIFT 之外,后來又出了一大堆類似的特征點,如 SURF、ORB 等。無紋理的物體好了,有問題的物體容易解決,那么生活中或者工業(yè)里還有很多物體是沒有紋理的:我們最容易想到的就是:是否有一種特征點,可以描述物體形狀,同時具有跟 SIFT 相似的不變性不幸的是,據(jù)我了解,目前沒有這種特征點。所以,之前一大類方法還是采用基于模板匹配的辦法,但是,對匹配的特征進行了專門選擇(不只是邊緣等簡單特征)。只要有了這個初步估計的物姿,我們就可以直接采用 ICP 算法(Iterative closest point)匹配物體模型與 D 點云,從而得到物體在相機坐標系下的精確位姿。當然,這個算法在具體實施過程中還是有很多細節(jié)的:如何建立模板、顏色梯度的表示等。另外,這種方法無法應(yīng)對物體被遮擋的情況。(當然,通過降低匹配閾值,可以應(yīng)對部分遮擋,但是會造成誤識別)。針對部分遮擋的情況,我們實驗室的張博士去年對 LineMod 進行了改進,但由于論文尚未發(fā)表,所以就先不過多涉及了。五.深度學(xué)習(xí)由于深度學(xué)習(xí)在計算機視覺領(lǐng)域得到了非常好的效果,我們做機器人的自然也會嘗試把 DL 用到機器人的物體識別中。首先,對于物體識別,這個就可以照搬 DL 的研究成果了,各種 CNN 拿過來用就好了。在 年的『亞馬遜抓取大賽』中,很多隊伍都采用了 DL 作為物體識別算法。然而, 在這個比賽中,雖然很多人采用 DL 進行物體識別,但在物姿估計方面都還是使用比較簡單、或者傳統(tǒng)的算法。似乎并未廣泛采用 DL。如 周博磊 所說,一般是采用 semantic segmentation network 在彩色圖像上進行物體分割,之后,將分割出的部分點云與物體 D 模型進行ICP匹配。北京惠昌偉業(yè)科技有限公司成立于2003年,專注于先進的制造技術(shù)及設(shè)備,集代理銷售、技術(shù)研發(fā)、設(shè)備生產(chǎn)于一體,致力于為客戶提供先進的生產(chǎn)設(shè)備和自動化解決方案。