谷歌的視覺搜尋現在可以回答更複雜的問題

谷歌的視覺搜尋現在可以回答更複雜的問題


當 Google Lens 於 2017 年推出時,搜尋功能完成了一項不久前還像是科幻小說的壯舉:將手機的相機對準一個物體,Google Lens 可以識別它,顯示一些上下文,甚至可以讓你買它。這是一種新的搜尋方式,不需要笨拙地輸入眼前所見事物的描述。

Lens 也展示了Google計劃如何使用其機器學習和人工智慧工具來確保其搜尋引擎出現在每個可能的表面上。隨著谷歌越來越多地使用其基礎生成人工智能模型來生成資訊摘要以響應文本搜索,谷歌鏡頭的視覺搜索也在不斷發展。該公司表示,Lens 每月支援約 200 億次搜索,現在該公司將支援更多搜尋方式,包括影片和多模式搜尋。

Lens 的另一項調整意味著更多購物背景將顯示在結果中。毫不奇怪,購物是 Lens 的關鍵用例之一。亞馬遜和 Pinterest 也擁有旨在促進更多購買的視覺搜尋工具。在舊版 Google Lens 中搜尋您朋友的運動鞋,您可能會看到類似商品的輪播。谷歌表示,在Lens的更新版本中,它將顯示更多購買、客戶評論、出版商評論和比較購物工具的直接連結。

鏡頭搜尋現在是多模態的,這是當今人工智慧領域的一個熱門詞,這意味著人們現在可以結合視訊、影像和語音輸入進行搜尋。用戶無需將智慧型手機相機對準某個物體,點擊螢幕上的焦點,然後等待鏡頭應用程式顯示結果,而是可以將鏡頭對準,同時使用語音命令,例如,「什麼樣的鏡頭?」那些是雲?或“這些運動鞋是什麼牌子?在哪裡可以買到?”

Lens 也將開始即時視訊捕捉,使該工具比識別靜態影像中的物體更進一步。如果您的電唱機損壞了,或者看到家裡出現故障的設備閃爍,您可以透過 Lens 拍攝一段快速視頻,並透過生成式 AI 概述查看有關如何修復該物品的提示。

18 歲的Google 員工、Lens 聯合創始人拉詹·帕特爾(Rajan Patel) 表示,這項功能首次在I/O 上宣布,被認為是實驗性的,只有選擇加入Google 搜尋實驗室的人才能使用。谷歌鏡頭的其他功能,語音模式和擴展購物,正在更廣泛地推出。

谷歌所稱的「影片理解」功能之所以有趣,有幾個原因。雖然它目前適用於實時捕獲的視頻,但如果或當谷歌將其擴展到捕獲的視頻時,整個視頻存儲庫——無論是在一個人自己的相機膠卷中還是在像谷歌這樣的龐大數據庫中— —都可能變得可標記和絕大多數可購買。

第二個考慮因素是,該 Lens 功能與 Google 的 Project Astra 有一些共同特徵,後者預計將於今年稍後推出。 Astra 與 Lens 一樣,使用多模式輸入透過手機解釋您周圍的世界。作為今年春天 Astra 演示的一部分,該公司展示了一副智慧眼鏡原型。

另外,Meta 只是因為對擴增實境未來的長期願景而引起了轟動,其中包括戴著愚蠢眼鏡的凡人,可以巧妙地解釋周圍的世界並向他們展示全息介面。當然,Google已經嘗試透過Google眼鏡(它使用的技術與 Meta 最新宣傳的技術完全不同)來實現這一未來。 Lens 的新功能與 Astra 結合,是新型智慧眼鏡的自然延續嗎?



Source link

More From Author

費倫茨瓦羅斯 vs 托特納姆熱刺:預測、開球時間、球隊新聞、賠率和直播

費倫茨瓦羅斯 vs 托特納姆熱刺:預測、開球時間、球隊新聞、賠率和直播

沒那麼短,YouTube Shorts 宣布推出 3 分鐘視頻

沒那麼短,YouTube Shorts 宣布推出 3 分鐘視頻

Leave a Reply

Your email address will not be published. Required fields are marked *

Recent Comments

No comments to show.

Categories