僅僅把安全的期望寄托在一家公司的自律和道德上,最后往往都會成為不切實際的幻想。
一位使用亞馬遜語音助手Alexa的用戶Danni Morritt,在詢問心動周期的問題時,竟然得到了這樣的答案:
“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。”
作為目前全世界最暢銷的語音智能助手,Alexa正身處在世界各地成千上萬的家庭中。被嚇壞的Danni告訴身邊的人Alexa有嚴重的安全缺陷,并擔心孩子們可能會遭受暴力或圖像內容的傷害。Danni表示:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。我只是為自己的課程學習一些知識,結果被告知要自殺。我簡直不敢相信。我被嚇壞了。”
很快,亞馬遜回應稱,確認存在一個已經修復的bug。原因是Alexa可能從任何人都可以編輯的維基百科上下載了有惡意性質的文本。
如果說亞馬遜的bug還只是一個容易修復的“意外”,那么下面這則消息則令人有些不寒而栗的驚悚:今年以來火爆一時的刷臉支付終于被完整破解了。
這是一家名叫耐能的美國AI公司,由華人創辦且曾獲得過阿里的投資。在一家外媒曝出的未公開發布的視頻中,耐能公司讓測試人員頭戴特制3D面具進入商店購物,核心檢驗其中的刷臉支付中國方案。在刷臉支付時,支付終端竟真的將面具識別為真·人臉,測試人員“盜刷”成功。
而且不管是支付寶,還是微信,刷臉支付終端通通中招。不僅如此,據稱耐能的測試人員還戴著面具,順利通過了中國火車站的人臉識別閘機。
這種已經被大范圍商業應用的刷臉技術就這樣被輕易破解,給普通人帶來的是無盡的焦慮和擔憂,面部信息的泄露,資金損失的可能性,以及由此引發的種種麻煩……
但是,目前可以肯定的是,這種擔心短期內還不會變成現實。因為這一測試還存在明顯的局限性。比如從視頻上很難看出3D面具是否每次都有效。由于視頻中僅有一個面具出鏡,也不確定換個人換個面具是否還能“攻破”人臉識別系統。
另一方面,就是這種3D面具的造價還十分昂貴,每個面具的定制價格高達2650美元(約合1.8萬人民幣)。其次就是面具的整個制作過程工序是非常復雜的。
并且值得注意的是,現在市面上的人臉識別系統都不僅僅是靠面部識別來完成身份認證的,比如火車站的人臉識別閘機就還需要身份證的輔助確認。
因此,支付寶和微信也在公開的聲明中,宣布其刷臉支付技術的成熟性和可靠性值得信賴,并且有多種方案抵御偽造的人臉識別安全攻擊。可以有效抵御視頻、紙片、面具等攻擊方式。同時,還會有最后一步安全方案,就是客戶一旦被盜刷后的解決方案:全額賠付。
但這些科技巨頭無法給出斬釘截鐵的承諾:刷臉支付系統可以防御3D面具。
所以3D面具攻破刷臉支付,究竟值不值得擔心?這又是一個矛與盾的古老話題。無論多么堅不可摧的盾,總會有人造出更鋒銳的矛來刺破它。
作為攻破方的耐能公司則公開表示,他們的這個試驗只是想證明一件事情:這個結果只是想表明某一些面部識別技術并未達到足夠高的安全標準,對用戶隱私產生了威脅。現有的技術足以解決這些問題,但許多公司并沒有進行技術升級。走捷徑的代價就是犧牲安全。
很久以來,有一個觀點很流行: 很多人為了換取方便和便捷而愿意作出一些個人隱私上的犧牲。 這種觀點真的正確嗎?
在這里,有必要回顧一下今年早些時候的亞馬遜“監聽門”事件。亞馬遜的Alexa在智能語音助手領域一直打遍天下無敵手,遙遙領先其他企業的相關產品。然而,在用戶毫無戒備之心地享受Alexa帶來便利的同時,一些工作正在秘密地進行。
今年上半年,有媒體爆出亞馬遜公司在全世界范圍內雇傭了許多評審員來提升Alexa的服務功能,然而,這個巨大團隊并不負責技術改進,而是負責收集用戶對Alexa發出的指令,并作出相應的反饋。
事實上,這些評審員的工作就是實時監聽Alexa的錄音。而且,即便是用戶禁用了Alexa的語音記錄功能,這些用戶的語音記錄還是會傳送給評審員進行分析。更加恐怖的是,這些評審員居然還可以獲知用戶的家庭地址,甚至包括姓名和電話號碼。如果用戶選擇與Alexa共享自己的聯系人,這些聯系人的相關信息也會出現在評審員的操作界面。
雖然,暫時還沒有跡象表明,評審員試圖利用這些信息來追蹤用戶,但是,人們還是擔心這種不必要的訪問權限會讓情況失控。在這之后,亞馬遜采取了一些補救措施, 進一步限制了用戶信息的訪問權限,但是,亞馬遜一直以來努力塑造的良好的公眾形象卻不可避免地出現了滑坡。
正如一位AI專家所說,看上去那些聰明的智能語音助手在進行神奇的機器學習。但實際上,它們還無法脫離人類獨立工作。很多時候,AI的背后是人類而不是算法,因為建立一個良好的AI系統需要大量數據。但是,商業公司如何去收集這些數據的行為卻 很容易違反人類的道德原則。
電影《生化危機》中描述的末日世界就是一個極端的例子。那個邪惡的大反派保護傘公司最初的科研目的也很善良很簡單,只是為了救治無辜的生命,但后來卻被利用來研制大規模生化武器,最終導致了一場全球性的大災難。
因此,很多科技巨頭多年來都不吝為自己貼上“道德高尚”的標簽。
例如谷歌,盡管其近年來正越來越多地在歐美遭遇“反壟斷”調查和不斷被處以巨額罰款,但其早期廣為人知的“不作惡”的企業文化確實為它占領社會道德的制高點作出不少貢獻。
再如大名鼎鼎的機器人公司波士頓動力,旗下剛剛投入商用的機器狗在世界各地都大受歡迎。公司高層最近也明確向外界表示了公司的底線,他們的機器狗也會提供給軍方使用, 軍方也可以利用機器狗去獲取信息,處理危險環境等等。但不允許給機器狗裝備武器,去傷害或恐嚇別人。
但這種自我標榜的自律往往都缺乏公信力,現在,許多國家都在通過立法去劃定AI技術的安全邊界。美國最近剛剛通過了一項《機器人電話濫用犯罪執法威懾法案》。這項法案規定,用AI自動打騷擾電話會被處以每通電話最高10000美元,也就是7萬人民幣的罰款。這項法案的背景是近年來AI騷擾電話在美國已經成了嚴重的問題。
在中國,針對AI技術的立法限制和規范也在熱烈地討論之中。今年4月, 全國人大常委會審議的《民法典人格權編(草案)》里,正式加了一條:任何組織和個人不得以利用信息技術手段偽造的方式侵害他人的肖像權。
AI技術的飛快發展確實可以造福更多人,但有關它的安全邊界的討論和監管也是必 要的,因為僅僅把安全的期望寄托在一家公司的自律和道德上,最后往往都會成為不切實際的幻想。
繼續閱讀:AI技術 3D面具 智能助手
未經允許不得轉載:RPA中國 | RPA全球生態 | 數字化勞動力 | RPA新聞 | 推動中國RPA生態發展 | 流 > 智能助手勸人自殺,3D面具攻破人臉識別,AI技術的安全邊界在哪里?
熱門信息
閱讀 (14728)
1 2023第三屆中國RPA+AI開發者大賽圓滿收官&獲獎名單公示閱讀 (13753)
2 《Market Insight:中國RPA市場發展洞察(2022)》報告正式發布 | RPA中國閱讀 (13055)
3 「RPA中國杯 · 第五屆RPA極客挑戰賽」成功舉辦及獲獎名單公示閱讀 (12964)
4 與科技共贏,與產業共進,第四屆ISIG中國產業智能大會成功召開閱讀 (11567)
5 《2022年中國流程挖掘行業研究報告》正式發布 | RPA中國