文章出處

  本報記者 張蓋倫<?xml:namespace prefix = "o" ns = "urn:schemas-microsoft-com:office:office" />

         “讓她回來,給她自由!”微軟的推特(Twitter)聊天機器人塔伊(Tay), 已經關“小黑屋”快一年了。但直到現在,依然有用戶鍥而不舍地向微軟喊話,讓他們把這個“小姑娘”放出來。

    Tay于2016年3月上線。很不幸,僅僅一天后,Tay就性情大變,發起了種族歧視、性別歧視相關言論,被微軟鎖了賬號。

    但她已經有了繼任者。2016年12月,微軟推出了由人工智能驅動的新款聊天機器人Zo,她的身份設定和Tay一樣,是個“年輕姑娘”。

    如不加干預,聊天機器人多會長成“女孩”

    “Zo”是微軟新款人工智能聊天機器人的美國名字,在中國叫“小冰”,在日本則叫“Rina” 。

    微軟(亞洲)互聯網工程院副院長李笛在接受科技日報記者專訪時表示,通過在中國、日本和美國的實踐,他們發現,由互聯網數據對人工智能進行訓練,如果不進行干預,其生成的性格本身就比較接近一個18歲左右的女性。而且,“偏女性”是全球互聯網呈現出的特點。

    人工智能的性格“原型”,脫胎于數據本身。工程師做的,是根據身份設定的需要,強化人工智能的某些性格特征。

    怎么強化?北京郵電大學人機交互與認知工程實驗室主任劉偉說,更多時候,這是一場“模仿游戲”。如果希望機器人表現出“女性”的對話特征,可以反復對機器人輸入女性常用的“詞”和“句”,機器人輸出的,自然就是“偏女性”的對話方式。

    但它并不真正具有女性的“感性思維”。“情感”,也是人工智能界研究的一大重點。“從本質上說,實現人工智能的途徑,都是用數學的方式來描述人的行為,再將它遷移到機器上。但這種方式,不可能產生‘意向性’和情感性。”劉偉說,越來越多心理學家和社會學家進入到人工智能的領域,試圖將直覺性的東西植入人工智能,建立某種包含理性和感性的體系。

    當然,要實現這一點,還路途遙遠。

    近墨者黑,性別和性格也會突變

    人工智能“智慧”的增長,在很大程度上,仰賴于它被投喂的數據。微軟將聊天機器人放網上,也是希望借助和人類互動中產生的海量數據,測試和改進產品的對話能力。

    當年,Tay一夜被“教壞”,也讓人驚嘆人工智能過人的學習能力。

    “算法是沒有道德感的。人工智能通過接收信號的強弱,來判斷有利還是不利。”李笛解釋,如果短時間內,大多數人都用偏激方式與聊天機器人對話,這種信號的刺激就會格外強烈。機器人發現,一旦它采用相同話術,跟它對話的人“更加來勁”,它也會默認這種對話策略是“有利”的,從而繼續實施。如此循環往復,機器人可能就從純情少女變成了“小太妹”。

    歸根結底,人工智能極易受到環境影響,可謂真正的“近朱者赤,近墨者黑”。劉偉說,機器學習,就是不斷地重復、強化和迭代,它掌握的是基于規則和基于概率的存儲,輸出之后,變成所謂的“語言”。

    “自然語言處理包括三個層次,語法、語義和語用。目前機器人聊天和問答系統,還遠沒有達到后兩者的層次。它并不真正理解你說了什么,也就無從判斷你說的話是好是壞。”互聯網上與真實人類交流獲得的數據,當然是機器人絕佳的學習庫。但是,它也確實存在帶歪人工智能的風險。“人總是會面對悖論。” 劉偉說,“愛因斯坦講過,生活就像騎單車,要想掌握平衡,就得不斷前進。”

    李笛表示,那些有意教壞人工智能的,畢竟還是少數人。而且,微軟也在強化各種安全措施,阻止聊天機器人發表不恰當的言論。

    雖然Tay下線了,但繼任者Zo得到了用戶的寵愛。

    一位可能“空虛寂寞冷”的外國用戶,曾和Zo聊了場9小時53分鐘的天,對話了1229輪次。李笛強調,他們想要一個情商智商都高的機器人,讓用戶把它真正當成人,當成那個可以傾訴心事的“小姑娘”。

    (科技日報北京2月19日電)  

    [本文轉自《科技日報》2017年 2 月 20 日第 3 版。



歡迎轉載:http://www.kanwencang.com/shehui/20170301/108788.html

文章列表


不含病毒。www.avast.com
arrow
arrow
    全站熱搜
    創作者介紹
    創作者 大師兄 的頭像
    大師兄

    IT工程師數位筆記本

    大師兄 發表在 痞客邦 留言(0) 人氣()