文章出處



  在我們與外星人取得聯系之前,神經網絡是我們所知的最具有思考能力的非人類思考者了。

  1

  Manuela Veloso的辦公室位于布魯克林一座辦公大樓的19層。從辦公室的窗戶望出去,你可以看到蔚藍色的天空、紐約港和自由女神像,這些景色讓人心情愉快。但現在,我們卻直直地望著街對面大廈枯燥重復的玻璃窗。

  在樓層里面,我們看見了椅子、辦公桌、臺燈和紙質資料。但它們看起來有點怪怪的,因為它們其實并不存在于對面那棟樓里。這些物體實際上存在于街這邊的一座大樓里——可能是我們正駐足的地方。原來,燦爛的午后陽光照在對面樓房的窗戶上,把它們變成了鏡子,讓我們看到它上面反射出對面的辦公室擺設閃閃發光,像鬼魅一樣違抗著重力,漂浮在空中。

  Veloso是卡耐基梅隆大學的機器人與計算機科學教授。我們正在討論機器如何感知和「思考」,這個主題討論起來并不像我期待的那樣直截了當。她指著對面窗戶上的鏡像說:「機器如何得知那不是真的?這對它們來說真的很難。」

  近年來,人工智能正以迅猛的勢頭征服各種艱難的問題。在過去的幾年里,一種叫做神經網絡的人工智能方法變得越來越高效,在某些任務(如發現新藥物、招聘最合適的人選、甚至駕駛汽車)上,已經可以同人類媲美,甚至超過人類。神經網絡的結構模仿了人類的大腦,現在已經能夠分辨出文筆的好壞,還能以極高的精度識別出照片中的物體。過去的幾個月里,神經網絡的應用越來越廣泛,滲透生活的方方面面——比如谷歌搜索、亞馬遜的推薦系統、Facebook的信息推送和垃圾信息過濾等,并逐步承擔起更多重要的任務,如軍事安全、金融、科學研究等。而自動駕駛的汽車甚至比人類駕駛員還開得好。

  如果機器出了錯,假如我們搞不清原因,就很難保證不會再次發生。神經網絡有時候也會犯錯,有些錯能被人們理解。(是的,對面窗戶上的書桌看起來真的很真實,連我都很難分辨它們只是反射的鏡像。)但是,面對一些困難的問題,神經網絡有時卻會做出令人難以理解的回應。神經網絡會執行算法——這是完成一個任務所需的一組指令。算法當然是由人類寫的。但神經網絡有時卻會得出非常詭異的答案——這些答案顯然不正確,以人的理解來看,它們也算不上錯誤,反而像是外星人所為。

  這些古怪的結果很罕見。但是,它們并不僅是隨機的小錯誤。最近,科學家們已經設計出了一些可靠的方法,來讓神經網絡做出詭異的非人類判斷。這意味著,人類不應該假定機器思考的方法和我們一樣。有時候,神經網絡思考問題的方式與我們迥然相異,而我們卻并不知道原因,也不知道它們究竟是如何思考的。

  2

  神經網絡有時候不按常理出牌,我們并不知道怎么或者為什么會這樣。這可能會帶來麻煩,盡管你還沒有完全依賴智能家居或者自動駕駛。畢竟,越依賴人工智能,對于可預測性的需求就越苛刻,特別是對于失敗的預測。如果一個機器出現了錯誤,我們并不知道原因,這種錯誤就難免不會繼續出現。

  但是,機器偶爾出現的無法預測的古怪想法,也許是人類的一個學習良機。在我們與外星人取得聯系之前,神經網絡是我們所知的最具有思考能力的非人類思考者了。

  某種程度來說,神經網絡的感知和邏輯方式相異于人類,這可能是對物種局限以外的智力的一種佐證。伽利略證明了地球不是宇宙中獨一無二的;達爾文展示了人類在所有其他生物中并沒那么特殊。來自Alberta University研究人工智能的學者Joseph Modayil 表示也許計算機的出現也在證明類似的道理。「人工智能的出現,在智力的范疇向我們展示了不同的可能性.」他說道。

  首先,我們要保證我們的無人駕駛汽車不會錯誤地把校車看成橄欖球襯衫,不會把照片中的人識別成哥斯拉或者海豹,就像之前谷歌的某次錯誤那樣。在過去的幾年里,一些計算機科學家執著于找尋這個問題的方法,但是至今沒有人能解決。來自懷俄明大學的計算機科學副教授Jeff Clune碰巧也碰到了人工智能系統出現的非常規狀況,并開始著手研究。「我并不知道誰能解釋這個現象。」他說道。

  去年,在一篇名為《深層類神經網絡容易上當》(Deep Neural Networks Are Easily Fooled)的論文里,Clune還有他的共同作者Anh Nguyen 和 Jason Yosinski表示,他們已經成功研發了一種系統,能讓計算機將下圖中的左圖識別為海星,右圖識別為獵豹,置信度至少為99.6%。


  與此同時,另一組來自谷歌、 Facebook、紐約大學和蒙特利爾大學的學者們用另一套系統在測試,將下圖中的左圖識別為小狗,而右圖(有一點像素點的變化)識別為鴕鳥。


  右圖這張小狗圖片在研究者看來是典型的「對比性案例」。這些圖片與正確分類的圖片差異不大,只在小范圍略微不同,卻讓高級的神經網絡做出如此錯誤的判斷,不禁讓人們對智能系統的判斷能力產生了懷疑。

  3

  神經網絡是機器學習的一種形式,可以在數據中進行分析,并得出結論。普林斯頓大學信息技術政策中心的博士后研究員Solon Barocas認為,機器學習不僅能應用在視覺任務上。2012年,Barocas指出,ETS(美國教育考試服務中心)的一個評判文章質量好壞的系統認為,下面這段文字寫得非常好(由前MIT寫作教授 Les Perelman寫就):

  在今天的社會里,大學是模棱兩可的。我們需要它來生活,我們也需要它來愛。此外,如果沒有大學,全世界的學習都將陷入泥潭。然而,上大學的花費卻很高。世界面臨的一個最重要的問題就是如何降低大學的費用。一些人認為,大學的高花費要歸因于學生們期待的奢華生活。另一些人則辯稱,費用是競技體育的結果。實際上,大學費用之所以昂貴,是因為聘用了過多的助教。

  夸夸其談的詞語和精致的句式無法掩飾這段話的空虛,里面根本沒有任何真正的想法和思辨。然而機器卻給了它滿分。

  這種令人錯愕的結果,不能僅用單個計算機系統的偶然性事件來解釋,因為,把一個讓某個系統掉鏈子的例子放到其他系統中,也是同樣結果。AI研究公司Vicarious的聯合創始人 Dileep George讀了《深層類神經網絡容易上當》這篇論文之后,很好奇不同的神經網絡會如何做出回應。他的iPhone正好有一個現已下架的app叫Spotter,這是一個用來識別物體的神經網絡。他讓它辨認Clune的網絡認為是海星的彎曲線條。George說:「手機說,那是一只海星。」

  Spotter檢驗的照片與原始照片有許多不同之處——George的圖片是在不同的光線條件下從不同的角度拍攝的,背景中還有許多像素不屬于主體的一部分。然而,這個神經網絡還是得出了同樣的外星人式解讀。George說:「這很有趣,這意味著這個發現的魯棒性很強。」

  實際上,「海星」和「鴕鳥」那篇論文的研究者們也進行了類似的測試,保證他們用于愚弄人工智能的圖片在多個系統上都能湊效。谷歌的 Christian Szegedy等人寫道:「一個模型產生的錯誤,也經常在其他模型上發生,即使它們擁有不同的架構」,或采用不同的數據集。Clune說:「這意味著,這些神經網絡在校車看起來像什么這個問題上達成了某種共識,而它們所認為的那些與校車很相似的東西,在人看來都根本不像校車。這讓許多人十分吃驚。」

  當然,任何吸收信息、處理數據的系統都會有認錯物體的時候。人腦也不例外,比如有人確信早餐面包上的圖案是耶穌的肖像。但是,當你從圖形的模式中看出了并不存在其中的東西——心理學家稱之為「幻想性視錯覺」(pareidolia)——其他人通常都能理解你為何會犯錯,因為我們看待和理解事物的思維系統是相同的。

  4

  在一個完美的世界里,我們的機器也擁有同樣的系統,這樣我們就能理解它們,就像我們理解彼此一樣。但神經網絡中的詭異錯誤卻告訴我們,我們并不生活在那樣的完美世界里。Barocas說,此時我們能看到算法的「思維」并不是人類的翻版。他說:「當機器系統做出人類不會做出的舉動時,就能看出,它們的幻想性視錯覺也與我們有著天壤之別。」

  Barocas補充道:「編寫算法的人想賦予它們人性,讓它們用人類思考和推理的方式來解讀事物。但是,我們需要準備好接受這樣一個事實——即使計算機執行與人類相同的任務,它們執行的方式也與人類大不相同。」

  當然,一個AI把狗認成鴕鳥,這似乎并不會帶來什么危害。機器在許多筆試題上都能得到很高的分數,愚弄神經網絡的圖片似乎并未出現。但是,一些研究者說,它們會出現的。有時,即使只出現一次也會造成嚴重的后果,比如把校車錯認成橄欖球運動衫,Clune說,「如果是你乘坐的自動駕駛汽車犯了這個錯,就很嚴重了。」

  還無法理解一個神經網絡如何得到一個難以理解的結果。最好的計算機科學家能觀察神經網絡的行為并且發現在某些神經元中輸入信號是如何觸發響應機制的。這比什么都不知道要好,但是依然沒有一個內部情況的嚴格數學描述。換言之,這不僅是機器的思考方式與人類不同的問題,而是人類無法反向還原該過程并找出原因。

  具有諷刺意味的是,模仿部分人類大腦的算法中出現了非人類幻想性視錯覺。20世紀40年代,神經網絡首次以大腦皮層(控制知覺和思維)的粗糙軟件模型出現。在神經網絡中,由代碼組成的虛擬神經元替代大腦中物理神經元進行工作。每個虛擬神經元都是一個多渠道接收信息的節點,即一個計算輸入信息函數、輸出行為結果的處理器。這些虛擬神經元就像人類大腦皮層中的神經細胞那樣分層排列。信息進入一層中觸發神經元的集體回應(有些被激活并相互通信,有些則保持沉默),結果以原材料的形式傳遞到下一層進行進一步處理。

  雖然每個神經元都是簡單的信息數字計算器,但是,這種體系結構讓神經細胞通過接收到的數據共同完成驚人的壯舉。例如,在你眺望窗外時,真實大腦中神經元通過視覺神經獲得幾百萬的電脈沖形成你所看到的圖像。大腦皮層中的神經細胞層對物體邊緣產生響應并將它們的輸出結果傳遞到下一層,這解釋了為什么即使在昏暗的燈光下甚至是顛倒的圖像中,也能對物體邊緣產生反應。下一層神經細胞進一步解析信息,最后所有的視覺信息集合成復雜的感知:「這是一個處在陰影里的顛倒的香蕉。」

  神經網絡更加簡單。但是,隨著處理能力的進一步提升以及大數據集成提供樣本的可用性提高,它們現在能完成這種類似人腦的處理工作。在大數據情況下,它們的分層處理可以找到模式,并運用該些找到的模式將諸如「海星」和「海豹」的標簽與正確的圖像聯系起來。


  機器并沒有數億年的進化史來指導它們注意諸如顏色、邊緣、形狀等特征。相反,神經網絡是被人類程序員訓練出來的。例如,他們給它大量的涂鴉(均為人類手寫的潦草字母)。通過算法將其進行排序,錯誤不斷被糾正直到所有的分類訓練數據都是正確的。與人類自己認出的許多字母d相比,未來,神經網絡會更加快速地識別出正確的字母d。這是神經網絡架構最吸引人的地方之一:無須沒完沒了地設定規則定義正確的d,計算機科學家們就能進行手寫識別設計。也不需要給機器展示所有字母d的造型寫法。只需要字母d的少數幾種可能寫法,通過訓練,就能教會神經系統本身去識別未來可能遇到的所有字母d。

  直到幾個禮拜后作品被展出,評審方才知道作者不是人類。

  這種架構的缺點是:當機器將電視雜訊規定為「獵豹」時,計算機科學家卻不清楚神經網絡心目中的「獵豹」標準——他們可以根據這個標準來搜索故障。神經網絡不是在執行一系列人類創造的指令,也沒有過一遍所有可能的「獵豹」。它只是對接收到的輸入進行響應。創建網絡的算法只是一般地說明了如何處理信息,并未對特定問題的解決做出指導。換言之,神經網絡算法并不像精確的食譜,更像在餐館點菜。「我要烤奶酪和沙拉,怎樣做取決于你,」Barocas說,「探索數據,發現結果,發現關系,計算機使用著自己創造的規則。」

  5

  目前,人們無法找出計算機創造出來的規則究竟是什么。在一個典型的神經網絡中,只有輸入層和輸出層才能輕易被人們理解——輸入層將數據輸入系統,輸出層將其他層的計算結果呈現給人類世界。在輸入層和輸出層的中間是眾多隱藏層,虛擬神經元在其中處理信息、形成連接、并在其間分享它們的處理結果。在人的大腦中,由于運算數量過大,從實際操作的角度看,根本不可能精確指出單個神經元對最終結果的貢獻。Clune說:「在一個60億人口的經濟體中,就算你認識每個人,知道他們的一切,你也不可能預知接下來會發生什么事,甚至也無法解釋過去發生的事。復雜性就這樣自然而然地浮現了,它取決于億萬個部分之間的復雜交互,我們人類無法理解這樣的過程。」

  此外,大量信息處理是在不斷變動著的神經連接中完成的,并非發生在單個細胞中。所以,即使計算機科學家準確地知道了神經網絡中每個神經元在某個特定時刻的行為,他們也沒法繪制出處理過程的完整圖景。比如說,僅知道某個神經層中的一部分神經元被一張臉的外輪廓所激活,卻沒法告訴你這些神經元在識別臉的身份中所扮演的角色。

  這正是為什么Clune等人最近在談到神經網絡時說,「神經網絡長期以來都被認為是『黑箱』,因為難以準確理解經過訓練的神經網絡究竟是如何工作的,它們之中有著海量的連接以及非線性的部分。」

  Clune認為,研究神經網絡的計算機科學家與研究全球經濟的經濟學家十分相似。他說:「太棘手了,很難理解。但是,不能完全的理解,不意味著不能理解其中一些事情。」關于神經網絡的內在運作,他說:「我們正在漸漸找到規律,也許能達到艾倫·格林斯潘(前美聯儲主席——譯者注)式的理解水平,但卻缺乏物理學家式的理解水平。」

  去年7月,谷歌的一個研究團隊——Alexander Mordvintsev、Christopher Olah和Mike Tyka——公布了他們開發的一種方法,可以讓圖像識別網絡展現出結構中某一特定層級的運行。他們寫道:「我們只是隨便給了神經網絡一張圖片或照片,讓它自己去分析。接下來,我們選擇其中一層,并讓神經網絡增大它檢測到的東西。」結果出現了一組驚人的圖片——圖片中的形狀隨著所聚焦的詢問層的變化而發生著改變。(很快,它們就在網上掀起了軒然大波,被稱為「Google Deep Dream」。)他們還寫道:「比如說,較低的層級傾向于產生類似筆畫和簡單的裝飾性模式,因為這些層級對基本的特征十分敏感,比如邊緣及其走向。」

  不久之后,加州理工學院的Clune、Yosinski、Nguyen、Thomas Fuchs,以及康奈爾大學的Hod Lipson發表了另一種方法,也能讓活躍的神經網絡展示出部分層級,甚至單個神經元的行為。Clune解釋說:「這樣你就能看到,某一個特定的節點如何做出反應。我們已經開始將光亮投射到黑箱中,讓你理解里面正在進行的事情。」

  用于訓練算法的數據集無法得出想要的結果——正當科學家們為此頭疼腦熱時,另一些人卻認為,算法夢見的那些奇怪的東西,可能正反映了被我們自己忽略的現實。

  畢竟,Clune說,人和蜜蜂都喜歡鮮花,但不意味著這兩種動物眼中的鮮花是一樣的。「我們能看見的光譜范圍與蜜蜂不同,所以鮮花呈現出來的模式也會完全不同,」他說。不管是給人裝上蜜蜂的眼睛,還是給蜜蜂裝上人的眼睛,兩種動物都會覺得對方眼中的鮮花很奇怪,但這并不意味著其中一種視覺只是幻覺。也許,神經網絡的怪異之處能告訴我們某些隱藏的事。它甚至能讓我們很開心。

  在Clune等人的研究中,識別算法檢測過的一些圖片與被機器認為是獵豹的電視雜訊并不相似。與之不同,這部分圖像與算法選擇的種類有關。比如說,它宣告,下圖中的左圖是監獄,而右圖是草莓。


  人類則不會進行這樣的分類。但是,把機器算出的結果展示給人們之后,人們就能看出其中的聯系。與「電視雜訊是獵豹」的判斷不同,這種類型的機器判斷能引領人們用新的眼光來看待草莓,或對「草莓」這一類別做出新的判斷。

  對研究者來說,這聽起來很像一種好「藝術」。所以,他們向懷俄明大學藝術博物館的一個比賽上傳了一些圖片。算法的作品進入了35%的入圍作品中,并在博物館進行了展出——接下來還獲獎了。直到展出的幾星期后,比賽評委才知道這些作品的作者不是人類。Clune說:「我們注冊了一個評審藝術比賽,并不要求提供任何信息。過段時間后,我們才給他們發去了電子郵件,說,『哦,順便說一下,這是背景故事……』」

  把AI研究者描述為樂天派很合適——他們認為,計算機寫的詩或計算機編的舞蹈很好看。即使算法創造出了一種人類無法表演的舞步,Clune說:「我們依然可以舒服地欣賞機器人跳舞。」現在是2015年,在此時,我們能肯定的是,人類并不能完全理解算法的幻想性視錯覺,即使它越來越多地依賴算法過程。

  「這些問題的答案并不是嚴格的對與錯,但是它真的很令人著迷,」Clune說。「這很像現代的神經科學。我們研究大腦,并試圖反向還原它們,以找到它們運行的秘密。」

  不管怎樣,關于機器的「思維」,我們必須跳出神經網絡研究者的框架,才能獲得更完整的圖景。這對整個人工智能領域來說,都是一個很大的挑戰——對基于此的整個社會,也同樣如此。


歡迎轉載:http://www.kanwencang.com/shehui/20161101/31858.html

文章列表




Avast logo

Avast 防毒軟體已檢查此封電子郵件的病毒。
www.avast.com


arrow
arrow
    全站熱搜
    創作者介紹
    創作者 大師兄 的頭像
    大師兄

    IT工程師數位筆記本

    大師兄 發表在 痞客邦 留言(0) 人氣()