News Release

令機械手穿針引線、抓實但不夾碎雞蛋的新型觸覺傳感器

Peer-Reviewed Publication

City University of Hong Kong

機械手能調節力度避免夾碎雞蛋

video: 團隊的實驗證明,機械手在研究人員嘗試往下拉走雞蛋的情況下,仍能抓緊雞蛋。當研究人員停止往下拉雞蛋之後,機械手能調節力度,避免夾碎雞蛋。 view more 

Credit: 申亞京博士團隊提供

由香港城市大學(香港城大)科研人員領導的一項聯合研究,研發出可媲美人類皮膚特性的新型柔性觸覺傳感器。安裝了該傳感器的機械手可以完成非常靈巧的任務,例如抓實易碎物品,甚至可以拿線穿針。他們的研究為觸覺傳感器的設計提供了創新思路,促進智能假肢及人機互動(human-robot interaction)等機器人範疇裡的各種應用。

香港城大生物醫學工程學系(BME)副教授申亞京博士是該研究的其中一位領導學者。研究的結果近期於學術期刊《科學•機器人學》(Science Robotics)上發表,題為〈Soft magnetic skin for super-resolution tactile sensing with force self-decoupling〉。

仿照人類皮膚特性

人體的皮膚其中一個主要特性,是能夠感覺到剪切力(shear force),即是當兩個物件接觸時,彼此朝相反方向滑過的力。皮膚感應到剪切力的強度、方向及細微變化後提供反饋,我們因而能夠調整如何用手指捉實物件,以及調節應該用上多大的力度去捉實物件。

為仿照人類皮膚這個重要特性,申博士與香港大學的潘佳博士合作,研發出新型的柔性觸覺傳感器。這傳感器如人類皮膚一樣具多層的結構,當中柔性並經過特別磁化(specially magnetised)的表層薄膜,厚度只有0.5毫米。當有外力施加在傳感器上,它可測量出因表層磁化薄膜變形而導致的磁場改變。更重要的是,此表層薄膜具有解耦(decouple)的能力:即將外力自動區分為剪切力和正壓力(normal force,即垂直施加於物體表面的力),並且分別準確地量度該兩種力度。

論文的第一作者、申博士指導的BME博士生閆友璨解釋說:「將外力解耦十分重要,因為正壓力和剪切力對物件各有不同影響。必須得知每道力的準確數值,才可以分析或控制物體的靜止或運動狀態。」

運用深度學習提升準確度

與此同時,團隊開發的傳感器也擁有人體皮膚的另一種特性:觸感超分辨率(super-resolution),能夠盡可能地精確定位外來刺激的位置。申博士說:「我們利用深度學習,開發出一種高效的觸感超分辨率算法,把外來刺激的定位精確度提高了60倍,是眾多超分辨率方法中,至今所報導過的最佳紀錄。」這種有效的觸覺超分辨率算法,令觸覺傳感器陣列可以在內含最少數量的傳感單元的情況下,仍然提高物理分辨率(physical resolution),有助減少佈綫的數量以及傳輸信號的時間。

申博士說:「就我們所知,這是首個同時具有自解耦(self-decoupling)和超分辨率功能的觸覺傳感器。」

裝有新傳感器的機械手完成具挑戰性的任務

研究團隊將傳感器安裝在機械手上進行了實驗,顯示機械手可以完成具挑戰性的任務。例如,機械手可以在有外力嘗試干預的情況下,仍能抓緊易碎物件如雞蛋,並在遠程操控下成功穿針。申博士解釋說:「擁有超分辨率的傳感器協助機械手在抓住物體時,調整接觸的位置。而觸覺傳感器的解耦能力,則為機械手調節所施加的力度提供依據。」

申博士又補充說,傳感器易於延展成傳感器陣列的模式,將來甚至能製成一大塊電子皮膚,覆蓋機器人的全身。由於傳感器的靈敏度和感知範圍,可以通過改變表層薄膜的磁化方向而調整,無需改變傳感器的整體厚度。這令電子皮膚與人類皮膚一樣,可以在不同位置具有不同靈敏度和感知範圍。

此外,對比起其他觸覺傳感器,這次團隊研發的傳感器的製作及標定過程(calibration processes)需時更短,促進傳感器的實際應用。

「我們研發的傳感器有助機器人範疇中有關自適應抓取(adaptive grasping)、靈巧操作、識別紋理、智能假肢及人機互動等的應用。媲美人類皮膚特性的人工柔性觸覺傳感器的日漸進步,將可有助家用機器人成為我們日常生活的一部分。」申博士總結說。

###

申博士與潘博士是論文的通訊作者。同樣來自BME的博士生閆友璨、胡喆與來自機械工程學系的助理教授楊征保博士,也是香港城大的研究團隊成員之一。其他成員則來自卡內基梅隆大學,和南方科技大學。

這項研究獲得國家自然科學基金會、香港研究資助局以及深圳市學科佈局項目等的資助進行。


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.