News Release

理大三維人體建模科技 十秒內建構體形及尺寸

Business Announcement

The Hong Kong Polytechnic University

Intelligent 3-D Human Modelling Technology

image: The innovation allows a customised model in arbitrary dynamic poses to be created automatically within 5-10 seconds. view more 

Credit: The Hong Kong Polytechnic University

香港理工大學(理大)開發的智能三維人體建模科技,可在五至十秒內憑兩幀全身相片,建構相中人準確的體形及尺寸,令網購合身衣服、訂造服裝變得更輕鬆和容易。網購愈來愈普遍,理大紡織及服裝學系副教授莫碧賢博士及該學系博士畢業生朱帥印研發的這項技術,可解決衣不稱身的問題,並帶來更佳的網購體驗。

現時人體的體形及動作姿勢建模可採用的方法包括掃描為本、圖像為本及示例為本,卻有不少限制——需要使用昂貴及龐大的掃描儀器;採用太多近似值,準確度成疑。

五至十秒內顯示體形及尺寸

這項發明結合了尖端的電腦圖形及視覺科技,能在五至十秒內,為每一名使用者自動建構一個個人化的人體模型。整個系統能準確地擷取使用者的三維體形,以及五十多項人體不同部位的尺寸,包括胸、腰、臀、大腿、膝蓋、小腿、頸的周長,以及手臂長度、肩部斜度等。若相中人穿着緊身衣服,系統建構模型的體形與尺寸,與實際的體型與尺寸,僅相差少於一厘米;若相中人穿鬆身衣服,差異亦少於兩厘米,準確度足以滿足服裝行業設計和製造時尚服裝的要求,並可媲美人體掃描。

人體模型數碼化的四個里程碑

理大研究人員以四個方法實現全自動的個人化體型建模:

1. 從正面及側面的二維圖像,偵測身體穿着緊身衣服的部份,然後建立三維模型;

2. 根據圖像中被衣服,包括緊身、一般合身或鬆身衣服遮蓋的身體部份,估計身體的輪廓;

3. 運用先進的深度學習技術如圖像人體解析,將人體從圖像背景中分割出來。這技術提高了個人化人體建模的穩定性、效率和準確度;

4. 應用上述建模方法開發手機應用系統,這系統採用了涵蓋拍照以至個人化建模及擷取尺寸的自動體型定制技術。 https://itunes.apple.com/us/app/1measure/id1234853015?mt=8 https://play.google.com/store/apps/details?id=com.tozmart.imeasure&hl=zh_HK

這些方法採用「大數據分析」,包括擁有一萬多個人體掃描模型的龐大數據庫,以分析人體各部份的三維形狀特點,以及預測被衣服遮蓋的身體輪廓。與全球分析三維掃描其他現有的方法不同,理大的研究隊伍把三維掃描的數據,分解為人體各部份的特徵,以作數據分析。團隊接着根據二維相片,預測及整合相中人的二維及三維體形,由此產生的三維模型,能精確地重建個人完整及局部的體形特徵,並從這些個人化模型取得準確的身體尺碼。

有利時裝業發展

運用數碼方法重新建構人體,為時裝業帶來競爭優勢。莫博士說:「這些個人化的模型顯示準確的人體尺寸及體形,將帶來更佳的網購體驗,並刺激網購時裝業務的增長。」

朱博士說:「系統所輸出的模型,能確保消費者在網上商店購物前,預視穿上衣服的效果。擺脫實地量度身體尺寸的限制,可幫助顧客網購衣服時選擇合適的尺碼。」

將科技商業化

理大致力建立創業文化,鼓勵學生創業。朱博士在「上海巿大學生科技創業基金會—理大專項基金」的支持下,去年在深圳創立了名為「圖郅創新」的初創公司,把三維人體建模技術商業化,並進一步發展。

建基於智能三維人體建模技術,圖郅創新與「工業0.4」工廠合作,推出顧客可直接向生產商訂購商品的新服務,為他們帶來獨一無二的網購體驗。他們只需花三分鐘,即可隨時隨地購買度身訂造的衣服;點擊數次智能手機,便可知個人體形及尺寸、購買訂造恤衫,還可選擇材料及衣領、口袋、袖口、前襟等的款式。

影片: 介紹應用程式的使用方法 https://www.youtube.com/watch?v=dTQxtaYKREU&feature=youtu.be

介紹「圖郅創新」採用智能三維人體建模科技推出的服務(時裝業界角度) https://www.youtube.com/watch?v=89GA8zn7Vvg&feature=youtu.be

介紹「圖郅創新」採用智能三維人體建模科技推出的服務(消費者角度) https://www.youtube.com/watch?v=b064g_La_kI 

###


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.