content

當心 「失控」的科技智能產品出賣你的隱私(圖)

 2018-05-31 04:20 桌面版 简体 打賞 0
    小字

亞馬遜智能音箱Echo
亞馬遜智能音箱Echo(圖片來源:Pexels)

【看中國2018年5月31日訊】(看中國記者聞天清編譯)它們一直在聆聽著你與他人的對話,也一直處於網際網路在線狀態中。你可知道當亞馬遜(Amazon)的虛擬語音助理亞歷克瑟(Alexa)如果失控時會發生什麼?它是否會在沒有得到你授權的情況下分享私人談話?如今,這種可能性已經成為現實了。

據美國華盛頓電視新聞臺KIRO7報導,來自俄勒岡州波特蘭市(Portland,Oregon)一名女士丹妮爾(Danielle)說,她家中的亞馬遜智能音箱Echo虛擬語音助理亞歷克瑟錄製了她與丈夫的一段對話,然後在他們不知道的情況下,將這段對話錄音分享發送給了丹妮爾丈夫在西雅圖的一個員工。

丹妮爾的家中擺放了幾個亞馬遜智能音箱Echo,通常是用來控制房屋冷暖、燈光和保安警報系統。丹妮爾表示,在他們談話的時候,亞馬遜智能音箱Echo就在她旁邊,當時音量設置為7(最大音量設置為10),但丹妮爾從未被請求得到她的授權許可之後發送出這段錄音。直到有一天,丹妮爾的丈夫接到了西雅圖員工的電話,告知說收到了他們夫妻談話的錄音。

隨後,丹妮爾停止使用家中所有的亞馬遜智能音箱Echo,並切斷它們的電源,她表示自己再也不敢使用亞馬遜智能音箱Echo了。她說:「我再也不會把那個智能音箱插上電源了,再也不相信它了。」

丹妮爾聯繫了亞馬遜公司,要求對此事件進行調查。

對此,亞馬遜公司發表了一份聲明稱,智能音箱Echo錯誤地將丹尼爾與她丈夫閒聊的話語當作了一系列的請求和指令,最終按照「指令」將錄音信息發到丹尼爾丈夫的員工那裡。

據美國《紐約時報》報導,這不是亞馬遜智能音箱Echo首次出現這種非同尋常的錯誤。在今年3月份,由於數名用戶反饋,在沒有指令的情況下,有時突然會聽到智能音箱Echo虛擬語音助理亞歷克瑟發出的笑聲。亞馬遜也提供了類似的解釋,在極少數情況下,虛擬語音助理亞歷克瑟錯誤地聽到「亞歷克瑟,笑」的指令。最終,亞馬遜將該指令用語改為:「亞歷克瑟,你會笑嗎?」

5月份,加州大學伯克利分校科研人員在一篇發表的論文中稱,他們已經證明虛擬語音助理的技術也可能會被操控和利用。科研人員表示,在沒有人注意的情況下,他們能夠將一些指令隱藏在語音用語指令文本中,虛擬語音助理,如蘋果的Siri、谷歌助理和亞馬遜的亞歷克瑟等都能理解這些指令並去執行。

丹妮爾的遭遇引起了網友的憂慮,他們在社交媒體上用幽默的方式表達了自己對這種智能產品的擔憂。

用戶:「亞歷克瑟,你在監視我嗎?」

亞歷克瑟(咳嗽):「沒有,當然沒有。」

用戶:「好,谷歌,去問問亞歷克瑟、Siri有沒有在聽我的談話。」

微軟旗下虛擬語音助理Cortana說:「如果你沒幹什麼壞事的話,就不需要擔心什麼。」


来源:看中國 --版權所有,任何形式轉載需看中國授權許可。 嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意