深度學習加快了語言說寫之間的機器翻譯速度,不過用在翻譯手語上,進度就落後一大截了。
在羅徹斯特理工學院主修電腦工程的 Syed Ahmed,打算將深度學習用在手語與英語互譯的作業上。
「你想跟聽障或重聽的友人談話,可是你又不會手語,該怎麼辦呢?」同時也是國立聾人理工大學研究助理的 Ahmed,在本週的 AI Podcast 節目裡對主持人 Michael Copeland 這麼說。
Ahmed 將約1,700支手語影片投入深度學習演算法,這個模型能分析肢體動作並翻譯成美式英語。
「你的朋友在打手語時,你把手機對著他們,手機上就會自動出現字幕。」Ahmed 說。
Ahmed 表示這個模型接近了視覺語言與書寫語言間的差距,未來有著無可限量的應用方式。人工智慧偵測肢體語言的能力,能用於預測特定健康情況。搭配擴增實境技術的話,便不一定要用到手機,翻譯出的文字可以出現在講者的臉旁。
目前這項技術仍在進行測試。在模型和資料集皆具備的情況下,這套系統面臨的難題之一便是翻譯美國手語裡的口語詞彙,而演算法得整理分類的影片量,也造成無法快速產出字幕。
「現在這還是一項很新的技術,日後我們還會以決定性的項目進行更多實驗。」Ahmed 說。
AI Podcast:Unity 的 Danny Lange 希望將人工智慧用在遊戲領域
你是玩家嗎?如果你錯過了上週的節目,請再次收聽 Unity Technologies 的人工智慧與機器學習部門副總裁 Danny Lange,介紹他如何帶領團隊努力將機器學習技術用在短時間內創作出更棒的遊戲。
如何收聽 AI Podcast
可通過 iTunes、DoggCatcher、Google Play Music、Overcast、PlayerFM、Podbay、Pocket Casts、PodCruncher、PodKicker、Stitcher 及 Soundcloud 收聽 AI Podcast。要是這裡沒有列出你愛用的收聽管道,請透過 aipodcast@nvidia.com 留言給我們。