美國麻省理工學院的研究人員開發了一種采摘機器人,該機器人將視覺與射頻(RF)感測相結合,即使物體看不見也可以找到并抓住物體。該技術可以幫助實現電子商務倉庫中的貨物。
近年來,機器人獲得了人工視覺,觸摸甚至氣味。麻省理工學院副教授Fadel Adib說:
“研究人員一直在給機器人類人的感覺。”在一份新論文中,阿迪布(Adib)的團隊正在進一步推動這項技術的發展。他說:“我們正在努力使機器人具有超人的感知能力。”
研究人員開發了一種使用無線電波的機器人,該無線電波可以穿過墻壁,以檢測被遮擋的物體。這款名為RF-Grasp的機器人將這種強大的感應功能與更傳統的計算機視覺相結合,可以定位和抓取原本可能無法看見的物品。這一進展可能有一天可以簡化倉庫中的電子商務實現,或者幫助一臺機器從混亂的工具箱中拔出螺絲起子。
這項研究將在5月的IEEE機器人與自動化國際會議上發表。該論文的主要作者是麻省理工學院媒體實驗室Signal Kinetics小組的研究助理Tara Boroushaki。她的麻省理工學院合著者包括信號動力學集團董事阿迪布(Adib)。以及機械工程系的1957年級副教授Alberto Rodriguez。其他合著者包括哈佛大學的研究工程師Lengshan Leng和佐治亞理工大學的博士學位學生Ian Clester。
隨著電子商務的不斷發展,盡管有時存在危險的工作條件,但倉庫工作通常仍然是人類的工作領域,而不是機器人。部分原因是機器人在如此擁擠的環境中努力尋找并抓住物體。
Rodriguez說:
“知覺和采摘是當今行業的兩個障礙。”僅憑光學視覺,機器人就無法感知包裝在盒子中或藏在架子上另一個物體后面的物品的存在-可見光波當然不會穿過墻壁。但是無線電波可以。
數十年來,射頻(RF)識別已用于跟蹤從圖書館書籍到寵物的所有事物。射頻識別系統具有兩個主要組件:閱讀器和標簽。標簽是一個微型計算機芯片,可粘貼到要追蹤的物品上(對于寵物,則植入其中)。然后,讀取器發出一個RF信號,該信號被標簽調制并反射回讀取器。
反射的信號提供有關標記物品的位置和身份的信息。該技術已在零售供應鏈中獲得普及-日本的目標是在幾年之內將RF跟蹤用于幾乎所有零售采購。研究人員意識到,RF的大量涌現對機器人來說是福音,這給了他們另一種感知模式。
Rodriguez說:
“ RF是一種與視覺不同的傳感方式。不探究射頻能做什么是一個錯誤。”
RF Grasp使用攝像頭和RF閱讀器來查找和抓取帶標簽的對象,即使它們被完全擋住了攝像頭的視線也是如此。它由附著在抓手上的機械臂組成。相機坐在機器人的手腕上。RF閱讀器獨立于機器人而站立,并將跟蹤信息中繼到機器人的控制算法。因此,機器人不斷收集RF跟蹤數據和其周圍環境的視覺圖像。將這兩個數據流集成到機器人的決策中是研究人員面臨的最大挑戰之一。
Boroushaki說:
“機器人必須在每個時間點決定要考慮哪些流更重要。這不僅是眼手協調,而且是RF眼手協調。因此,問題變得非常復雜。”
機器人通過對目標對象的RF標簽執行ping操作以感知其下落,從而啟動了搜索過程。
Adib說:
“首先要使用RF來集中視覺的注意力。然后,您就可以使用視覺來進行精細的操縱。序列類似于從后面聽到警笛,然后轉向看清楚警笛聲源。”
憑借其兩種互補感,RF Grasp在目標物體上歸零。隨著距離越來越近甚至開始操縱物品,視覺提供了比RF更好的細節,從而支配了機器人的決策。
RF Grasp在一系列測試中證明了其效率。與僅配備攝像頭的類似機器人相比,RF Grasp能夠以大約一半的總運動量精確定位并抓住其目標對象。此外,RF Grasp還具有“整理”環境的獨特能力-清除包裝材料和其他障礙物以接近目標。羅德里格斯(Rodriguez)表示,這證明了RF Grasp與沒有滲透性RF感應的機器人相比具有“不公平的優勢”。“它具有其他系統根本沒有的指導。”
RF Grasp可以有一天在打包的電子商務倉庫中執行任務。它的RF感應甚至可以立即驗證物品的身份,而無需操縱該物品,暴露其條形碼然后進行掃描。
Rodriguez說:
“ RF有可能改善行業中的某些局限性,尤其是在感知和本地化方面。”
Adib還設想了該機器人的潛在家庭應用,例如找到合適的內六角扳手來組裝宜家椅子。“或者您可以想象機器人會發現丟失的物品。就像超級Roomba一樣,無論我把它們放在哪里,都可以檢索我的鑰匙。”
該研究由美國國家科學基金會,NTT DATA,Toppan,Toppan Forms和Abdul Latif Jameel水與食品系統實驗室(J-WAFS)贊助。
2025-04-28 12:37
2025-04-28 12:24
2025-04-24 15:08
2025-04-21 12:14
2025-04-21 12:11
2025-04-18 08:54
2025-04-18 08:53
2025-04-17 08:16
2025-04-17 08:13
2025-04-16 10:55