本發明公開了一種面向自動駕駛的多傳感器深度融合3D目標檢測方法,通過邊緣校準技術,有效解決了傳感器時空不同步的問題,通過目標中心數據增強,有效解決了標注不足時的深度估計模型訓練問題,通過不確定性估計技術、場景關聯損失函數,有效提高了深度估計模型在場景變化條件下的魯棒性和精度。通過2D?3D無損信息轉化、體素轉換為點技術、由粗到細的深度對齊、多分支監督流,有效的解決了不同模態特征空間不一致且轉換有信息損失問題,最終的架構可以在自動駕駛場景中,增強多模態信息的互補作用,降低多模態信息相互之間的干擾,在遮擋、點云稀疏、光照變化等場景下均取得良好表現。
聲明:
“面向自動駕駛的多傳感器深度融合3D目標檢測方法” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業用途,請聯系該技術所有人。
我是此專利(論文)的發明人(作者)