用眼球來控制 iPhone 是個不錯的想法,但解放雙手還是沒戲

愛範兒 於 12/06/2018 發表 收藏文章
眾所周知,由於採用了能夠採集 3D 深度信息的結構光設計,蘋果為 iPhone X 添加了不少新的玩法,各種圍繞面部的識別方案也成為很多人關注的話題。除了最常見的人臉解鎖外,動態 Animoji 表情也衍生出很多鬼畜的表情和短視頻,就連蘋果自己也嘗試用這些頭像製作過幾期宣傳廣告,比如像這樣的:


iOS 12 裏,蘋果進一步增強了 Animoji 的識別範圍,這次連“吐舌頭”的動作都可以完美還原到定製頭像上了。


但 3D 結構光的潛力顯然遠不止這些,基於新的 ARkit 2.0,腦洞大開的開發者們又想出了一個新玩法——用雙眼來代替手指,直接“操作”iPhone。

名為 Matt Moss 的學生開發者最近在自己的 Twitter 上展示了一個測試視頻,從視頻中我們可以看到,iPhone X 屏幕中出現了一個光標,而這個光標的“移動”操作則是完全由眼球控制的,此外只要開發者眨一下眼睛,光標也會判定為是“點擊”,隨即便會進入到新的菜單頁面。

根據 Mashable 的報道稱,這個所謂的“眼球追蹤”功能是蘋果在 ARkit 2.0 中新加入的功能:“最初我只是想做個 Demo 來試試看這個功能的可操作性。”

但很顯然,配合 3D 結構光更為精準的識別,現在眼球追蹤的準確度已經遠比前幾年那種雞肋的表現要出色得多。同時這也意味着,現在手機攝像頭不僅能用來自拍,同時也能準確判斷出你的注意力在屏幕的哪個位置,這也為定製廣告和應用服務提供了更豐富的想象空間。

但如果談論的交互上的實用性,我想大部分人還是更願意用手指來戳屏幕,為什麼呢?


之所以會這麼説,或許和三星 Galaxy 系列曾經“翻過的車”有關。早在 Galaxy S4 時代,三星就在手機中加入了一系列眼部和頭部控制的功能:如果手機檢測到你的視線離開屏幕,正在播放的視頻就會自動暫停,此外還可以根據你的頭部傾斜角度來滾動屏幕等。

這功能當時起初聽上去感覺還是挺酷炫的,但實際用起來可能就成了下面這個樣子:


所以,為了你的頸椎考慮,如果你真的打算靠“動動眼珠子”來取代雙手,我覺得還是儘早打消這個念頭吧。反而是對行動不便的殘障人士來説,眼球追蹤技術更能展現出它應有的價值和意義。


具體的案例微軟已經給出來了,如今 Windows 10 系統便自帶了用眼球“操作”電腦的“Eye Control”特性,可以讓身體不便的人實現用眼睛來“打字”。

回到蘋果這項隱藏的小功能上,值得注意的是,蘋果在去年專門收購了一家專注於 VR 頭盔和 AR 眼鏡視覺追蹤技術的德國企業 SensoMotoric Istruments,此舉也被業內認為是蘋果在為神祕的 AR 設備做技術積累。加上還有一系列手勢和眼球追蹤專利,説不定在未來蘋果的虛擬現實產品中,我們也能看到一些意想不到的新玩法。

題圖來源:Cyndi K


資料來源:愛範兒(ifanr)

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→