在本次評測過程中,泡泡機器人的評測人和傳感器廠商的技術人員進行了充分的溝通。傳感器廠商表示,在溝通過程中,為小覓雙目攝像頭提供了很多有用的建議,使得小覓雙目攝像頭在未來,能夠產出更適合vSLAM的模組,為vio的技術發展提供更好的傳感器支持。
評測前的準備工作
本次評測的型號是 D1000-IR-120/Color, 特點是 相機自帶芯片計算出深度圖,深度圖的計算不耗費計算平臺的算力。帶IR補光提升深度圖效果,120度FOV,支持輸出彩色圖。
ubuntu, windows, 以及ROS Wrapper的安裝教程在這里:[安裝教程](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/sdk/sdk_install.html)
小覓雙目攝像頭的固件和SDK迭代比較快,新的固件和SDK里往往會輸出更好的效果,因此建議在安裝完SDK,驗證相機可以正常使用后,對固件進行升級。
另外,升級固件時,最好將主處理器和協處理器都進行升級[相關文件鏈接](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/firmware/contents.html)。
經測試,imu和相機的位置關系如下:
imu采用的是bmi088,角速度和加速度的時間戳是分別輸出的。SDK中使用了插值法,對兩個時間戳進行了統一。
如果對于imu更深入的使用,可以參考[bmi088的datasheet](https://www.bosch-sensortec.com/bst/products/all_products/bmi088_1)。
IR光斑可以增強深度識別精度,但是對rgb圖像有干擾,因為測試VIO,所以關掉了IR, 在launch?件中有參數配置,可以[關掉IR](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/sdk/samples/set_open_params.html#ir)。
筆者最先使用了640x480?小的圖像,采樣不夠理想,于是改用1280x720的圖像crop,再resize使用,能夠滿?需求。
D系列支持的分辨率和幀率比較多, [詳見這里](https://mynt-eye-d-sdk.readthedocs.io/zh_CN/latest/product/support_resolutions.html)。分辨率和幀的修改可以在launch文件中做,按著支持列表的參數進行修改,就可以生效。
小覓雙目攝像頭輸出的yuyv422格式的彩色圖, 而VIO其實只需要灰度圖就夠了, 因此筆者對圖像進行了處理,輸出灰度圖后使用。
關于本模組的imu數據:
1)時間單位(stamp)是0.01ms
2)加速度計(accel)的單位是一個重力加速度
3)陀螺儀(gyro)的單位是度/s。
4) imu的頻率200hz
其中加速度計輸出的是一個norm向量值,需要自己進行轉化成m/s^2的單位, 恢復真實加速度的話,一般乘以9.8即可。
如果要嚴謹處理,則需要按當地的緯度計算一個重力加速度。
評測前的話
本次主要是從標定維度對小覓雙目攝像頭模組進行評測,并基于此模組,通過VSLAM進行初步的驗證。
VSLAM是使用uSens公司的自研sSensSLAMAR, uSensSLAMAR引擎實現了高性能的SLAM跟蹤算法,擁有更高的計算效率、穩定性、抗干擾性及精度,并在中低端手機上進行了優化。
VSLAM測試
筆者使用公司uSenseSLAMAR測試效果如下
從視頻 可以看出,穩定性、及精度都很不錯。其中紅色是camera的軌跡, 綠色是imu的軌跡。
從上面視頻中,可以看出抗干擾性好,輕拍攝像頭,雖然會對相機和imu產生一些的震蕩,相機仍舊保持正確的位姿。
(此文系轉載,文中所有文字內容和圖片之知識產權均系原作者和機構所有。)
MYNTAI(小覓智能)2014年7月成立于美國硅谷,專注立體視覺技術整體解決方案,致力于為AI打造三維視覺慧眼。核心產品和技術包括以雙目為主的多傳感器融合模組、視覺慣性導航技術、量產級的雙目標定技術、量產級的雙目自標定技術等,以及核心產品和技術在服務機器人、掃地機器人、安防機器人、無人車、無人機和輔助駕駛ADAS中的應用。
小覓智能由斯坦福大學機器人視覺專業,硅谷連續創業者龐琳勇(Leo)博士創立,在北京、無錫、和硅谷擁有100人的研發團隊。
MYNTAI(小覓智能)在開曼群島設有母公司Slightech, Inc. ,并在中國無錫設有全資子公司輕客智能科技(江蘇)有限公司,在中國北京設有全資子公司輕客小覓智能科技(北京)有限公司。
品牌理念
企業定位:專注于“立體視覺技術解決方案”的人工智能公司
企業使命:為人工智能時代應用裝上一雙導航避障的雙眼
企業精神:誠信勤奮執行協作
2025-04-29 22:24
2025-04-29 22:23
2025-04-29 22:22
2025-04-29 22:22
2025-04-29 22:21
2025-04-29 22:20
2025-04-29 22:19
2025-04-29 22:18
2025-04-29 22:17
2025-04-29 22:16