AR風向

#017

在2019 Google I/O 看AR應用方向

Google : 有時候理解新訊息最簡單方法就是看到它

Google 於5月7日至5月9日在Alphabet 加州山景城總部的圓形劇場舉行2019 年 I/O 開發者大會,發表作業系統Android Q、新機 Pixel 3a 和 Pixel 3a XL、人工智慧、機器學習和搜尋技術等領域的進展。

近來,Google對於AR應用發展相當注重,在面對使用者的體驗應用基礎Google本身便具有相當大的利基優勢,此次I/O宣布在Google Search 和 Google Lens中加入AR擴增實境技術,及針對Google Map 加入AR導航的進展做出說明。

AR於Google Search的應用

在Google Search的AR新功能可以直接在搜尋頁面中查看3D的物件,並與她互動,也可以直接移入自己所在的空間中,直接感受他比例和細節,例如您想知道一隻大白鯊長18英尺是怎麼一回事,與現處環境的連結,因此,當搜尋動物時,將可以得到在知識面板中看到3D和AR的選項,方便去查看它們。此功能預計在5月晚些推出。

ar-search-shark
將你的搜尋的大白鯊帶到現處的 (圖片來源 : Google)

Google也與NASA、New Balance、三星、Target、Visible Body、Volvo和Wayfair等公司合作,在Search中展示商品內容。因此,無論不論您是在學校學習人體解剖學還是購買一雙運動鞋,都可以直接從Search中,與近乎真實的3D模型互動,並融合在現實世界中。

ar-search-visible-body
搜尋“肌肉屈曲”並查看Visible Body的動畫模型。 (圖片來源 : Google)

Google Lens的新功能

Google Lens是利用機器學習(Machine Learning, ML)、電腦辨識及數百億個實際圖片提供服務,而目前Lens已經回答人們詢問來自他們所看到的事情超過10億個問題,現在Lens也持續發展,讓更多視覺問題獲得解答。

像是,你在一家餐廳想知道該點哪道菜,利用Google Lens可將受歡迎的餐點標示出來,點擊後還可以獲得照片、評論,當你去到一個陌生的地方,會特別的有用,因為現在Lens可以自動翻譯100多種語言,覆蓋在原本的菜單上。

而另一個應用,則是加入了AR擴增實境的元素,主要是將數位訊息與實際世界結合,例如當你在舊金山的de Young博物館,可以透過Lens直接看到畫作隱藏的故事;或者,你在Bon Appetit雜誌中看到一道菜餚,想要自行烹調,便可將Lens對準他,出現生動烹調步驟,告訴你如何製作菜餚,整個頁面都活了起來。

Consumer_BonAppetit
使用Google Lens查看Bon Appetit中的食譜。 (圖片來源 : Google)

Google Search 和 Google Lens 的這些功能都提供了視覺訊息,將最有用的訊息和答案放在最有用的地方,來幫助人們探索世界,就像Aparna Chennapragada (VP, Google Lens and AR)認為,有時候理解新訊息最簡單方法就是看到它。

Google Maps AR導航

Google於2018年I/O大會上公布的Google Map擴增實境導航功能,以實際街景介面為用戶提供方向指引,在今年2月此功能開放讓部分用戶測試,接著在今年I/O大會上則是宣布Google Pixel系列手機會率先搭載,用戶下次需要導航時,在Maps啟動AR模式,便可以看到行走方向指標,出現在現實場景,而不再是地圖上的藍點了,更能幫助用戶準確了解自己所在的位置。

AR_Maps_P3a_transparent_2x
使用Google Lens查看Bon Appetit中的食譜。 (圖片來源 : Google)

除此之外,Google於大會中有許多的AR應用,像是下載Google I/O App,走到特定的場域便會出現,動態AR拍照模式,可以與朋友一起拍照錄影並分享。

更多文章

分享在 facebook
分享在 google
分享在 twitter
分享在 linkedin