Felix
平時用電腦,我保留了一種習(xí)慣:能用鍵盤解決的事情,就不依賴鼠標(biāo)。雖然剛開始接觸電腦的時候已經(jīng)進入了圖形界面操作系統(tǒng)的年代,被Windows 3.1和Windows 9.5虐過無數(shù)遍的我深深知道熟悉DOS(磁盤操作系統(tǒng))操作的重要性。在DOS環(huán)境下,鼠標(biāo)基本是個擺設(shè),所有的命令都得挨個字符在鍵盤上敲出來。
在圖形操作系統(tǒng)中,對鼠標(biāo)的倚重是顯而易見的,甚至在輸入法里面內(nèi)置了虛擬鍵盤。這意味著,如果我有大把閑暇,這篇稿子都可以用鼠標(biāo)“點”完。
觸屏技術(shù)的成熟,帶來了智能移動設(shè)備的大行其道。懷舊的人會用藍牙鍵盤來連接移動設(shè)備,體驗下敲敲打打的生活,但總給人格格不入的感覺。
鍵盤、鼠標(biāo)、觸屏,人機交互的方式越來越直觀,不變的是我們低垂的頭和揮舞的指。在這幾種交互模式中,物理接觸是無法逾越的。相比起來,人與人的交互也是在經(jīng)歷了指手劃腳、嗷嗷亂叫的階段之后,才進化到口語交流。
機器跟人直接對話,并聽從命令來執(zhí)行相關(guān)操作,早就是科幻作品中必不可缺的場景。但在現(xiàn)實中,語音識別的發(fā)展一開始并不被看好。上世紀60年代,美國貝爾實驗室的語音識別項目曾被批為“想從水里變出油,從沙里淘出金”。后來得益于美國國防部高級研究計劃局(DARPA)的大規(guī)模資金注入,才推動了語音識別領(lǐng)域的一些關(guān)鍵性研究。真正給語音識別帶來革命性變化的是人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks),它也是擊敗李世石的人工智能Alhpa Go背后的核心依托。
谷歌、微軟、IBM、百度、蘋果、亞馬遜等公司都在語音識別核心技術(shù)上投入巨大,也推出了各自的虛擬語音助手:蘋果的“Siri”、微軟的“Cortana”、谷歌的“Google”、百度的“助手”(為啥不叫度娘?)、亞馬遜的Alexa。除了Alexa以外,這些助手主要是以智能移動設(shè)備為家,其實并非最佳的使用場景。
基于Alexa的Echo則一開始就定位于家居環(huán)境,在消費層面吸引了大量眼球。初看起來,Echo就是個圓柱音箱,可以用來播放音樂。實際上,Echo可以與其他線上服務(wù)(天氣、新聞等)甚至智能硬件(空調(diào)、電視等)建立聯(lián)系,內(nèi)置的Alexa接收到你的語音指令后會在云端執(zhí)行。這就好像給了你一個R2D2,雖然還不能端茶倒水,替你讀讀報紙還是不在話下的。
當(dāng)傳統(tǒng)家電越來越智能化之后,我曾經(jīng)開心地以為滿屋找遙控器的日子已經(jīng)遠去,一轉(zhuǎn)頭卻又陷入了滿屏找App的另一個困境。在打開App之后,模擬的遙控器界面立刻讓我崩潰了。
繼亞馬遜的Echo之后,谷歌也將推出Google Home,加入客廳爭奪戰(zhàn)。用過Google Now,讓我對語音交互場景充滿期待。另一個好處是,回家之后不用低頭翻手機,或許連家庭矛盾都會減少。