国产免费久久精品久久久-国产免费久久精品-国产免费久久-国产免费黄色网址-欧美成人午夜剧场

首家支持 Google Lens 的博物館快來(lái)了,但用 AI 取代人力還有點(diǎn)早

人工智能
2019
06/13
22:14
愛(ài)范兒
分享
評(píng)論

在 2017 年的 I/O 大會(huì)上,Google 發(fā)布了一款能識(shí)人又能識(shí)物的新產(chǎn)品:

你只需要對(duì)著別人的名片一掃,所有信息就能存進(jìn)通訊錄;

你只需要對(duì)著景物一掃,就能獲得當(dāng)前景物的所有信息;

當(dāng)你在游覽時(shí),它還能擔(dān)當(dāng)你的隨身翻譯、導(dǎo)游 ……

更重要的是,這款產(chǎn)品打破了智能手機(jī)的檔次局限,無(wú)論是高端旗艦還是低端入門(mén),只要搭載的是智能系統(tǒng),任何手機(jī)都能用得上它。

這個(gè)在當(dāng)時(shí)有著神仙功能的新品,就是我們?cè)谕髢赡?I/O 活動(dòng)上都能看到的「Google Lens」,如今這個(gè)產(chǎn)品經(jīng)過(guò)兩年的發(fā)展,它已經(jīng)成為識(shí)物工具中的佼佼者。

而隨著今年 Google 在這款工具里加入 AR 和朗讀功能后,有著 124 年歷史的笛洋美術(shù)館(de Young museum)也在近日宣布,將全面支持游客用 Google Lens 游覽展館。

這也是世界上第一家支持 Google Lens 的美術(shù)館 / 博物館。

▲ 圖片來(lái)自:Artnews

在笛洋美術(shù)館內(nèi),游客可以通過(guò) Google Lens 對(duì)展品進(jìn)行識(shí)別,系統(tǒng)在進(jìn)行識(shí)別后會(huì)推送當(dāng)前作品的作者、歷史等相關(guān)信息,用戶(hù)可以在館內(nèi)通過(guò)這個(gè)功能自由獲取想了解的內(nèi)容。

而且更有意思的是,除了對(duì)作品進(jìn)行識(shí)別外,游客還可以通過(guò) Google Lens 對(duì)特定物品進(jìn)行識(shí)別,識(shí)別成功后系統(tǒng)會(huì)播放作品相關(guān)的 AR 圖像或視頻內(nèi)容。

通過(guò)這種方式,用戶(hù)能獲得面前這幅作品以外的信息,譬如讓作者在視頻中介紹當(dāng)前作品的創(chuàng)作經(jīng)歷等,讓游客通過(guò)具象且優(yōu)雅的方式獲得知識(shí)內(nèi)容,就像和藝術(shù)家面對(duì)面交流一樣。

不過(guò),AI 識(shí)物能在未來(lái)取代傳統(tǒng)人力向?qū)С蔀橛慰瞳@得新知識(shí)的主要途徑嗎?我認(rèn)為這個(gè)想法是不錯(cuò),但現(xiàn)在說(shuō)似乎還有點(diǎn)早。

強(qiáng)大的 AI 人工智能讓 Google Lens 成為了當(dāng)今世界上數(shù)一數(shù)二的識(shí)圖工具,越來(lái)越多的應(yīng)用途徑,也讓這款工具走出實(shí)驗(yàn)室和 PPT,成為用戶(hù)了解新事物的另一種途徑。

▲ 圖片來(lái)自:9to5Google

但這種機(jī)械式的向?qū)苋〈肆Τ蔀槲磥?lái)游覽的發(fā)展主流嗎?我認(rèn)為說(shuō)「取代」那這話(huà)可能說(shuō)得有點(diǎn)早了,而且在短期內(nèi),AI 向?qū)Р粫?huì)取代人工成為主流。

首先我不否認(rèn) AI 的兩個(gè)優(yōu)勢(shì):全天候運(yùn)作和可延展性。

相比于人工向?qū)В珹I 能 24 小時(shí)全天候工作,同時(shí)通過(guò)自學(xué)習(xí)能力,AI 能在執(zhí)行任務(wù)的過(guò)程中不斷學(xué)習(xí)。而且在網(wǎng)絡(luò)的幫助下,AI 并不是一個(gè)大腦在學(xué)習(xí),而是服務(wù)器主腦和終端「大腦」們的信息互通,從而組成一張存儲(chǔ)特征的智能網(wǎng)絡(luò)。

從表象來(lái)說(shuō),比如我用手機(jī)對(duì)著我面前的杯子進(jìn)行掃描,系統(tǒng)會(huì)記錄物體的特征信息,當(dāng)其他用戶(hù)掃面類(lèi)似的物體時(shí),AI 會(huì)進(jìn)行特征識(shí)別和結(jié)果篩選,快速得出識(shí)別結(jié)果。或者當(dāng)我第一次掃描這個(gè)物體時(shí),AI 會(huì)先記錄特征,當(dāng)我第二次掃描時(shí),AI 會(huì)繼續(xù)增加特征點(diǎn),從而全局提升識(shí)別的速度和準(zhǔn)確率。

神經(jīng)網(wǎng)絡(luò)的自學(xué)習(xí)能力能讓 AI 的識(shí)別效率接近人腦,甚至有著不受情緒和精神的影響,它可能還會(huì)超越人腦,但是能得出準(zhǔn)確無(wú)誤的結(jié)果,前提是需要大量訓(xùn)練。

AI 能在短時(shí)間內(nèi)得出識(shí)別結(jié)果,實(shí)際上有賴(lài)于研發(fā)團(tuán)隊(duì)在功能推出前的各種訓(xùn)練工作。譬如在 Google 的 TensorFlow API 中,他們會(huì)通過(guò) COCO 數(shù)據(jù)庫(kù)的 90 大類(lèi)、共 30 萬(wàn)張圖像對(duì) AI 進(jìn)行識(shí)別訓(xùn)練,繼而通過(guò)圖像去提升 AI 的識(shí)別能力。但即便有著大量的訓(xùn)練信息作為基礎(chǔ),AI 也并非天下無(wú)敵。

The Verge 在近日的《人工智能難以識(shí)別低收入地區(qū)的日用品》這篇文章中,就對(duì) AI 識(shí)別的基礎(chǔ)進(jìn)行探討,并給出了「AI 訓(xùn)練不平衡」的觀點(diǎn)。

研究人員發(fā)現(xiàn),物體識(shí)別算法在識(shí)別月收入 50 美元的家庭物品時(shí),結(jié)果的誤差大約會(huì)比超過(guò) 3500 美元的物品增加 10%。而且不同地區(qū)物品的準(zhǔn)確率也差異甚大,比如算法在識(shí)別美國(guó)物品方面會(huì)比索馬里和布基納法索的物品提升 15%~20% 的準(zhǔn)確率。

另外這篇文章有意思的論點(diǎn)在于,由于 AI 識(shí)物在訓(xùn)練時(shí)大多都是在發(fā)達(dá)地區(qū)訓(xùn)練,因此對(duì)于非發(fā)達(dá)地區(qū)的物品,AI 識(shí)物會(huì)出現(xiàn)識(shí)別失效的情況,這種不平衡的現(xiàn)象很可能會(huì)影響未來(lái)自動(dòng)駕駛在非發(fā)達(dá)地區(qū)的發(fā)展,因?yàn)樽詣?dòng)駕駛需要依賴(lài)傳感器和 AI 識(shí)別。

▲ 同一個(gè) Soap(肥皂),不同的結(jié)果 . 圖片來(lái)自:The Verge

所以盡管 AI 在某些方面比人類(lèi)表現(xiàn)出色,但前提需要大量的數(shù)據(jù)支撐,對(duì)于存在變量的物品,人腦在學(xué)習(xí)和處理上則會(huì)比 AI 優(yōu)秀。面對(duì)博物館固定的展品,AI 能帶來(lái)低成本、快捷的體驗(yàn),但應(yīng)對(duì)互動(dòng)和數(shù)據(jù)庫(kù)沒(méi)有的物品,人力向?qū)匀徽加幸欢▋?yōu)勢(shì)。

不過(guò) AI 要取代人力,真正要克服的不是知識(shí)量,而是交互情感。

AI 識(shí)物能提供詳細(xì)的知識(shí)傳播,但卻不具備人類(lèi)最可貴的互動(dòng)交流。雖然 AI 識(shí)物方便參觀者通過(guò)手機(jī)查看當(dāng)前展品的詳細(xì)信息,但這只是機(jī)械性地獲得千篇一律的內(nèi)容,而并非是人與人交流。這種區(qū)別就像網(wǎng)上授課和面對(duì)面課堂,獲得的信息是不變的,但若是要提問(wèn)詳情中沒(méi)有的知識(shí),誰(shuí)能解答呢?

當(dāng)然,面對(duì)情感這個(gè)大問(wèn)題,不少?gòu)S商也正通過(guò)語(yǔ)音優(yōu)化讓 AI 貼近人類(lèi)發(fā)聲,比如 Google Duplex 在語(yǔ)音中加入了仿人類(lèi)的語(yǔ)氣和停頓,「唔」、「哦」這些助詞讓 AI 說(shuō)出的話(huà)更像是個(gè)真人而并不是機(jī)器人;蘋(píng)果也在 iOS 13 通過(guò) TTS 對(duì) Siri 進(jìn)行多語(yǔ)音拼合優(yōu)化,讓 Siri 的發(fā)音更加自然。

▲ Google Assistant 有特別的發(fā)音技巧

總體而言,雖然目前 AI 有著強(qiáng)大的學(xué)習(xí)能力和識(shí)別效率,但作為知識(shí)的提供途徑,AI 當(dāng)下仍處于輔助為主的發(fā)展階段,擁有情感和交互的人力依然占有主流優(yōu)勢(shì)。

不過(guò)不可否的是,在互聯(lián)網(wǎng)技術(shù)推動(dòng)下,AI 已經(jīng)踏上了高速路,越來(lái)越貼近真實(shí)人類(lèi),盡管目前我們還在為「人工智能」和「人工智障」而辯論 ,但是讓 AI 在若干年后給我們提供新知識(shí),并非不可能。

【來(lái)源:愛(ài)范兒】

THE END
廣告、內(nèi)容合作請(qǐng)點(diǎn)擊這里 尋求合作
業(yè)界
免責(zé)聲明:本文系轉(zhuǎn)載,版權(quán)歸原作者所有;旨在傳遞信息,不代表砍柴網(wǎng)的觀點(diǎn)和立場(chǎng)。

相關(guān)熱點(diǎn)

今日,中國(guó)移動(dòng)終端公司對(duì) 5G 終端(測(cè)試版)進(jìn)行集采。
業(yè)界
據(jù)外媒 ZDNet 援引 rainbowtabl.es 安全博客上的文章報(bào)道, 上海交通大學(xué)一個(gè) ElasticSearch 數(shù)據(jù)庫(kù)因未正確配置公開(kāi)訪問(wèn)權(quán)限,而導(dǎo)致泄漏了 8.4TB 的電子郵件元數(shù)據(jù)。這一服務(wù)器漏洞是由 CloudFlare 安全...
業(yè)界
利用 DNA 來(lái)破案, 你肯定多少有所耳聞。通過(guò) DNA 信息的對(duì)比,警方能夠有機(jī)會(huì)破解一些多年懸案,比如著名的 " 白銀連環(huán)殺人案 ",就是通過(guò) Y 染色體 DNA 確定了可能有作案嫌疑的家族。
業(yè)界
對(duì)于 C 端汽車(chē)消費(fèi)者而言,玻璃廠商 AGC 的名號(hào)并不及福耀響亮,但 AGC 所生產(chǎn)的各行業(yè)玻璃總量加起來(lái)市場(chǎng)份額是第一的,旭硝子這個(gè)企業(yè)在日本本土可以說(shuō)是家喻戶(hù)曉的。
業(yè)界
日本眾議院近日通過(guò)一項(xiàng)動(dòng)物保護(hù)法修正案,規(guī)定寵物貓、狗需義務(wù)植入芯片,以防飼主遺棄、虐待。
業(yè)界

相關(guān)推薦

1
3
主站蜘蛛池模板: 午夜精品福利在线 | 色免费视频| 亚洲精品亚洲九十七页 | 亚洲综合激情九月婷婷 | 六月丁香啪啪 | 欧美日韩在线看 | 亚洲第一网站在线观看 | 日韩在线观看第一页 | 在线视频欧美日韩 | 永久网站色视频在线观看免费 | 中文字幕一区二区三区精品 | 久久亚洲精品视频 | 精品综合在线 | 四虎影在线永久免费四虎 | 亚洲国产精品成人精品软件 | 自偷自拍亚洲欧美清纯唯美 | 欧美日韩在线影院 | 在线国产视频 | 羞羞视频免费网站com | 东京天堂网 | 婷婷深爱网 | 国产网友自拍 | 丁香花在线免费高清观看 | 樱花aⅴ一区二区三区四区 亚洲天堂男人的天堂 | 精品日韩在线视频 | 国内精品久久久久影 | 国内精品久久久久久99蜜桃 | 亚洲欧美日韩精品永久在线 | 中文字幕精品在线观看 | 亚洲精品国产福利在线观看 | 亚洲精品高清视频 | 午夜在线不卡 | 国产高清在线观看视频手机版 | 中文字幕一级毛片 | 欧美日韩国产一区 | 2021国产麻豆剧传媒新片 | 欧美乱妇高清无乱码在线观看 | 欧美一区二区三区大片 | 亚洲国产精品免费观看 | 狠狠久久综合伊人不卡 | 色国产视频 |