機器人大作戰(zhàn) 人工智能網(wǎng)絡安全技術新突破

時間:2016-11-11

來源:網(wǎng)絡轉載

導語:據(jù)Singularityhub報道,谷歌已經(jīng)開發(fā)出能夠自創(chuàng)加密算法的機器學習系統(tǒng),這是人工智能(AI)在網(wǎng)絡安全領域取得的最新成功。但是當我們的數(shù)字安全日益依賴智能機器時,將會產(chǎn)生什么樣的影響?

據(jù)Singularityhub報道,谷歌已經(jīng)開發(fā)出能夠自創(chuàng)加密算法的機器學習系統(tǒng),這是人工智能(AI)在網(wǎng)絡安全領域取得的最新成功。但是當我們的數(shù)字安全日益依賴智能機器時,將會產(chǎn)生什么樣的影響?

谷歌位于加州的AI子公司GoogleBrain通過神經(jīng)網(wǎng)絡之間的互相攻擊,實現(xiàn)了最新壯舉。他們設計出兩套分別被稱為鮑勃(Bob)和愛麗絲(Alice)的神經(jīng)網(wǎng)絡系統(tǒng),它們的任務就是確保通訊信息不被第三套神經(jīng)系統(tǒng)伊芙(Eve)破解。沒人告訴它們如何加密信息,但鮑勃和愛麗絲被給與共享的安全密匙,而伊芙?jīng)]有。

在大多數(shù)測試中,鮑勃與愛麗絲能夠迅速找到安全的通訊方式,使得伊芙無法破譯密碼。有意思的是,這些機器都使用了不同尋常的方法,這些方法通常在人類開發(fā)的加密系統(tǒng)中十分罕見。從可能性方面看,這些方法遠比人類設計的最好的方法還要復雜得多。但是由于神經(jīng)網(wǎng)絡以不透明的方式解決問題,因此很難找出它們是如何操作的。

對于人類來說,破譯計算機生成的加密非常容易。但是這也很難保證系統(tǒng)的安全性,并可能限制其實際應用范疇。此外,伊芙的表現(xiàn)似乎也可證明人的類懷疑,即神經(jīng)系統(tǒng)在破譯加密信息方面不太擅長。

但是研究人員表示,在理解通信元數(shù)據(jù)方面和計算機網(wǎng)絡流量分析方面,神經(jīng)網(wǎng)絡是相當有效的技術。這就是許多人認為機器學習可被應用于網(wǎng)絡安全領域的原因,因為現(xiàn)代AI在發(fā)現(xiàn)模式方面非常擅長,它們可以處理遠比人類多得多的數(shù)據(jù)。

隨著網(wǎng)絡安全專家缺口不斷增大,這將是個巨大市場。在今年夏季舉行的黑帽黑客大會上,安全公司SparkCognition公布了其殺毒軟件DeepArmor,它可以利用AI技術不斷了解新的惡意軟件行為,并識別出發(fā)生變異以嘗試繞過安全系統(tǒng)的病毒。

當前的機器學習依然傾向于發(fā)現(xiàn)誤報,并且無法應對許多由人類黑客發(fā)起的更微妙攻擊。為此,許多方法專注于AI與人類并肩工作。荷蘭安全廠商F-Secure與麻省理工學院下屬計算機科學與人工智能實驗室都開發(fā)出機器學習網(wǎng)絡分流系統(tǒng),它們可以過濾掉通過網(wǎng)絡的大部分可疑信息,大幅削減需要人類專家處理的潛在威脅數(shù)量。

IBM希望更進一步,探索其超級計算機沃特森的自然語言處理能力。沃特森可以從人類網(wǎng)絡安全專家發(fā)布的大量威脅報告、研究論文以及博客文章中學習。他們希望這能幫助他們于今年晚些時候提供云服務,可以有效地充當人類的專家級助理。

全自動系統(tǒng)也在取得進展。8月份,美國國防部下屬DARPA舉行網(wǎng)絡挑戰(zhàn)大賽,這是首次機器之間進行的黑客攻擊對決。這些聊天機器人使用各種各樣的AI方案,去自動發(fā)現(xiàn)軟件漏洞,要么修復漏洞,要么利用漏洞,這一切都沒有人類幫助。

盡管它們還遠不夠完美,有的機器甚至在比賽多數(shù)時間都處于休眠狀態(tài),其它機器甚至偶爾破壞了自己試圖保護的系統(tǒng)。獲勝的聊天機器人Mayhem在DEFCON黑客大會上與人類對決,盡管其最終落敗,但結果依然令人印象深刻。許多觀察家對聊天機器人展示出來的復雜水平和超人般的操作速度感到驚訝。

這是一場軍備競賽,黑客們也在利用這些新技術。路易斯維爾大學AI與網(wǎng)絡安全副教授羅曼·揚波爾斯基(RomanYampolskiy)說,他已經(jīng)遇到過這樣的程序,可以利用AI自動發(fā)現(xiàn)系統(tǒng)的安全漏洞或預測密碼。他說:“我們正看到非常聰明的電腦病毒出現(xiàn),它們能夠修改無人機代碼、改變它們的行為以及向目標中滲透?!?/P>

AI的另一個優(yōu)勢是模擬人類的能力。網(wǎng)絡安全公司Darktrace技術主管戴夫·帕爾默(DavePalmer)表示,他認為不久的將來,智能惡意軟件就可以利用你的電子郵件來了解你的通訊方式,并創(chuàng)造出來自你的被感染的信息?!督鹑跁r報》曾報道稱,已經(jīng)有人在使用假鼠標動作或不同的打字速度模擬人類登陸,試圖繞過安全系統(tǒng)訪問特定網(wǎng)站。

在DARPA的網(wǎng)絡挑戰(zhàn)大賽結束后,電子前沿基金會(EFF)警告稱,自動化處理漏洞的過程可能產(chǎn)生意想不到的嚴重后果,研究人員需要在行為準則方面達成一致,以應對這些威脅。如果這些系統(tǒng)擺脫開發(fā)者的控制,沒人能夠保證自動化防御系統(tǒng)能夠對抗它們。并非所有的計算機都能輕易修補漏洞,特別是那些不經(jīng)常訪問或不容易進行更新的物聯(lián)網(wǎng)設備。

研究人員需要考慮這些問題:防御工具如何能夠輕易被改造成進攻工具?什么樣的系統(tǒng)最容易成為攻擊目標?他們到底有多脆弱?如果這些工具失去控制,最糟糕的后果會如何?

知名專欄作家瓦奧萊特·布盧(VioletBlue)說,EFF的擔憂為時過早,他預測真正的AI黑客可能30年后才會出現(xiàn),過度監(jiān)管只會減慢AI技術的進步。正如Mayhem團隊所說:“如果你只集中于防御,你會發(fā)現(xiàn)自己總是處于追趕之中,可能永遠無法超過攻擊者。”

但是隨著網(wǎng)絡安全日益成為對立機器人之間的對決,我們應該盡早開始謹慎地思考。畢竟,隨著技術進步,機器人操作方式變得越來越高深莫測,我們可能弄不清它們到底誰好誰壞!

更多資訊請關注工業(yè)機器人頻道

中傳動網(wǎng)版權與免責聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(wǎng)(www.treenowplaneincome.com)獨家所有。如需轉載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。

本網(wǎng)轉載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發(fā)表之日起一周內與本網(wǎng)聯(lián)系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0