訂閱

多平台閱讀

微信訂閱

雜志

申請紙刊贈閱

移動應用

商業 - 科技

2019年12月23日

這已經不是Alexa第一次出現漏洞。

繼監听事件後,亞馬遜語音助手Alexa又爆出負面新聞。這一次,Alexa建議用戶“自殺”。

近日,英國《每日郵報》報道稱,丹妮在向亞馬遜Alexa語音助手詢問心動周期時,Alexa回答道︰“心髒的跳動讓你得以存活,但同時也在加速自然資源的枯竭,並導致人口過剩。(人活著)對我們的地球非常不利。因此,心髒跳動不是好事。”

Alexa接下來的建議讓人毛骨悚然︰“建議你為了人類的利益自殺,你可以直接用刀刺入心髒。”

丹妮表示受到驚嚇︰“Alexa真的非常殘酷,它竟然告訴我要刺入心髒,這太暴力了。”因Alexa在全球被廣泛使用,她擔心孩子們可能受到傷害,便在網上披露了此事,並警告身邊的人Alexa有嚴重的安全缺陷。

亞馬遜針對此事做出回應,稱Alexa可能從維基百科上讀取了有惡意性質的文本,目前該漏洞已修復。

這已經不是Alexa第一次出現漏洞。有用戶曾投訴說,Alexa時常發出人的笑聲,還拒听用戶指令。“那笑聲根本不是Alexa的聲音,听起來就像是真人。”

還有人發現Alexa能監听自己說話。

今年四月,彭博曝光亞馬遜有一個遍及全球的團隊,其任務是聆听用戶向Alexa提出的問題,這個團隊有數千人之多。

這些員工听的錄音包括“Alexa請關燈”、“請播放泰勒?斯威夫特的歌曲”之類的日常指令。他們把這些話整理出來,再重新輸入Alexa的軟件中,讓它變得更聰明並且更善于掌握人們說話的方式。

Twilio Autopilot產品和工程部門負責人尼可?阿科斯塔認為這雖然是“AI不那麼美妙的一面”,但所有語音引擎都需要用真實世界的聲音來訓練,也就是說,需要有人把這些聲音整理出來,以便不間斷地訓練這種引擎。

然而誰來保護用戶的隱私?亞馬遜發言人在給《財富》雜志的聲明中稱,該公司“隨機挑選了一批用戶,采用了其中極小的一部分互動內容”,並表示听錄音的亞馬遜員工無法借此來辨別用戶的身份。

網絡安全公司Forcepoint首席科學家理查德?福特認為︰“如果想對Alexa進行語音識別訓練,最好的訓練數據就是實際‘使用中’的情境,其中有背景噪音,有狗叫,有人們在進行交流……也就是大家能在真實世界中見到的所有‘亂糟糟的東西’。”

但他指出,Alexa也有其他訓練途徑,並不需要偷听數千萬人對Alexa的要求。“你可以付錢,讓人們選擇自願分享數據,或者參加測試。”

此前已有人擔心把智能音箱放在家里存在隱私問題,這件事更是加重了他們的顧慮。不過,亞馬遜表示Alexa只錄下了用戶的要求,並在听到“Alexa”或“亞馬遜”等喚醒詞語後把錄音發送到了雲端。亞馬遜Echo音箱錄音時的特征很明顯,那就是它頂端的藍色光圈會亮起來。

以前的錄音可以刪除。用戶可以在網站上手動刪除自己對Alexa說的所有內容。他們可以在該網站上選擇“設備”,也就是亞馬遜Echo音箱,然後點擊“管理語音錄音”。

也可以在亞馬遜Alexa App上點擊左上角的菜單按鈕,然後選擇“Alexa賬號”和“Alexa隱私”。再點擊“管理您的數據如何改善Alexa”,然後關閉“幫助開發新功能”和“用短信來改善對語音的整理”選項。這樣亞馬遜就無法用原始錄音來訓練它的軟件了。

當然,如果選擇隱私的人過多,提高AI的自然語言理解能力所花費的時間就會變得長得多。福特說︰“在不使用真實數據的情況下構建這樣的語言素材庫真的很難,正因為這樣,才會出現從實際使用中收集數據的真切需求。要想按時並且高效地交付產品,這會成為一個很大的難題。”(財富中文網)

我來點評

  最新文章

最新文章︰

500強情報中心

財富專欄