在機器人和計算機視覺領域,光學 3D 距離傳感器已經(jīng)得到了廣泛應用,比如 RGB-D 攝像頭和 LIDAR 傳感器,都在 3D 環(huán)境繪制和無人駕駛等任務中扮演了重要角色。
盡管它們性能十分強大,兼具高敏感度、高精度和高可靠性等特質(zhì),但在識別透明物體上卻不盡如人意。想要破壞這些傳感器的成像效果,或者讓機械手臂無從下手,只需要在它們面前放上玻璃杯一類的透明物體就可以了,因此難以在不使用其他傳感器的情況下獨立完成特定任務。
這是因為光學傳感器的算法假設所有表面均是理想散射的 (Lambert),即物體會在各個方向和各個角度均勻地反射光線。在 Lambert 光照模型中,無論觀察者的視角如何,其表面亮度都是相同的。
現(xiàn)實中的絕大多數(shù)物體符合這一假設,除了透明物體,因為它們的表面既折射又反射光線。這樣一來,光線傳播的復雜性大幅提升,表面亮度與視角無關的假設被破壞了,基于 Lambert 模型的算法也就失效了,導致傳感器收集的透明物體的大多數(shù)深度數(shù)據(jù)都是噪聲或者無效的。
圖 | 透明物體在傳統(tǒng)算法眼中是噪聲(來源:谷歌 AI)
為了改善這一問題,讓機器可以更好地感知透明表面,谷歌 AI,Synthesis AI 和哥倫比亞大學的研究人員合作開發(fā)了一種名為 ClearGrasp 的機器學習算法,能夠從 RGB-D 圖像中估算透明物體的準確 3D 數(shù)據(jù)。
根據(jù)谷歌 AI 介紹,在設計之初,ClearGrasp 算法就考慮到了兼容性。它可以與任何標準 RGB-D 相機捕捉的數(shù)據(jù)配合使用,借助神經(jīng)網(wǎng)絡和深度學習來準確地重建透明物體的景深數(shù)據(jù)。
圖 | ClearGrasp 算法的工作原理(來源:谷歌 AI)
與目前所使用的技術不同,ClearGrasp 算法不依賴于對透明物體的先驗知識,比如預先對透明物體進行 3D 建模,還要補充觀察視角和光線數(shù)據(jù)。在神經(jīng)網(wǎng)絡的幫助下,它可以很好地泛化到從未見過的全新物體身上。
在測試過程中,研究人員將新算法集成到了一套現(xiàn)有的拾取機器人控制系統(tǒng)中,最終發(fā)現(xiàn)它對透明塑料物體的抓取成功率有了非常顯著的提升,最多可以提升 6 倍。未來有望在拾取機器人和自動駕駛等領域應用。
透明對象的可視數(shù)據(jù)集
無論是什么樣的深度學習模型,訓練時都要依賴于大量數(shù)據(jù),比如訓練自然語言模型 BERT 需要維基百科,ClearGrasp 也不例外。然而目前廣泛使用的 3D 數(shù)據(jù)集,包括 Matterport3D 和 ScanNet,都會忽略透明表面和物體,因為標記過程過于復雜和耗時。
這讓研究人員不得不自己創(chuàng)建訓練集和測試集,專門針對透明對象設計。
在訓練數(shù)據(jù)集中,他們創(chuàng)造了 5 萬多個符合真實物理原則的渲染圖,每張圖片最多包含 5 個透明物體,放置于平面上或者開放式容器中,視角、背景和光線各不相同。每個物體還有配套的表面法線(曲率)、分割蒙版、邊緣和深度等信息,用于訓練各種 2D 和 3D 物體檢測任務。
至于測試集,研究團隊選擇用真實場景創(chuàng)建圖片和數(shù)據(jù),方便最大程度上測試算法的真實表現(xiàn)。這是一個十分痛苦的過程,因為對于每個場景都要在保證視角、光線和場景布置完全一致的情況下照兩遍:第一遍用透明物體,第二遍用一模一樣的非透明物體替換它們(必須保證位置完全一樣)。
圖 | 布置真實場景(來源:谷歌 AI)
最終他們得到了 286 個真實場景測試圖,其中不僅包括透明物體本身,還有各種不同的背景貼圖和隨機不透明物體。圖片中既包含訓練集中存在的已知對象,也包括從未出現(xiàn)過的新物體。
在數(shù)據(jù)集的問題解決之后,下一步是思考如何收集透明物體的深度數(shù)據(jù)。