Meta 最近發布了三項重要的研究成果,這些成果專注於觸覺感知、人機互動以及機器人靈活性,旨在推動具身人工智慧(embodied AI)的發展。以下是這些成果的詳細介紹:
Meta 最近發布了三項重要的研究成果,這些成果專注於觸覺感知、人機互動以及機器人靈活性,旨在推動具身人工智慧(embodied AI)的發展。以下是這些成果的詳細介紹:
1. Sparsh 編碼器模型
合作夥伴:Meta 與華盛頓大學和卡內基梅隆大學合作開發。
功能:專門用於基於視覺的觸覺感知,賦予機器人觸覺感知能力。
應用:這種能力對於各種機器人任務極其重要,例如判斷施加在物體上的壓力大小,以避免損壞。
2. Digit 360 指狀觸覺感測器
特點:
– 擁有超過 18 種感測能力。
– 超過 800 萬個觸覺像素(taxel)。
– 能捕捉指尖上的全向和細微變形。
– 內建 AI 模型,減少對雲端伺服器的依賴,採用本地端處理,實現快速的觸覺反應。
應用:讓機器人能更精細地理解環境互動與物體操控,類似於人類和動物神經中的反射弧。
3. Digit Plexus
功能:簡化機器人應用開發的軟硬體平台。
特點:
– 整合各種指尖和皮膚觸覺感測器到單個機器人手中。
– 將觸覺資料編碼後,透過一條纜線傳送到主機電腦。
目標:幫助研究人員推動機器人靈活性的發展。
其他相關成果
Meta 還推出了「人機協作中的規劃與推理任務」(PARTNR),這是一個用於評估 AI 模型如何協助人類完成家務的新基準。該基準基於 Meta Habitat 模擬器,包含了 60 間房屋中的 10 萬個自然語言任務,並擁有超過 5,800 個獨特物件。這個基準旨在評估大型語言模型(LLM)和視覺語言模型(VLM)在遵循人類指令方面的有效性。
合作夥伴
Meta 與美國感測器公司 GelSight 和韓國機器人公司 Wonik Robotics 合作,推動 AI 觸覺感測器的商業化。
這些研究成果展示了 Meta 在具身人工智慧領域的雄心壯志,透過將觸覺和感知融入機器人創新中,Meta 正全力押寶在新興的具身 AI 技術上。