中國科學院院士張鈸:加快發展第三代人工智能
來源:互聯網12月4日-5日,由清華大學人工智能國際治理研究院主辦的2021人工智能合作與治理國際論壇在清華大學舉行。
在以“人工智能技術前沿與治理”為主題的論壇中,中國科學院院士、清華大學人工智能研究院名譽院長、清華大學人工智能國際治理研究院學術委員張鈸從人工智能治理角度,探討了人工智能技術的發展道路。
張鈸在演講中指出,現有的人工智能技術常常引起公平性、安全性的問題,具體體現在三個層面。一是利用深度神經元網絡來產生一些文本、圖像或是語音時,有時會包含性別、種族、信仰等方面的歧視。
二是現在所有人工智能基于深度學習的算法都非常脆弱,非常容易被攻擊,非常容易受到環境變化影響,這是人工智能安全性的問題,會有意無意地被誤用。最后一個方面是,目前深度神經網絡、深度學習的技術非常容易造假,專門有一個名詞叫做深度造假,這些問題很嚴重,也會帶來很多危害性。
張鈸具體舉例并對這些問題進行了說明。如對于不同種族的情感分析,利用大數據深度學習方法進行,得到的結論是對亞洲人評價相對比較正面,非洲評價比較低。模型越大,這個偏見或歧視會縮小。這也說明,用深度學習的方法,往往會得到一些帶有種族歧視的結論,對宗 教常用詞的挖掘也會出現一些信仰歧視。
他還提到了在人臉識別方面的研究,正常情況下攻擊者無法登錄手機,但如果設計的偽造的眼鏡戴上去以后,攻擊者就能夠順利正常登錄手機,換句話講人臉識別非常容易受到攻擊。同時,凡是使用深度學習的方法做的語音識別系統也非常容易受到攻擊,只要在正常的語音中加上一點點噪聲,可能人都無法察覺,但機器“卻作出完全錯誤的識別”。此外,凡是利用深度學習生成的文本,或做數據挖掘,則更加脆弱,而視頻造假和語音合成造假也很容易。
“這些例子都說明現在人工智能的算法是非常脆弱的,用深度學習的方法,造假太容易了。”為什么會產生這個現象?張鈸解釋稱,這是人工智能的局限性所致,因為目前人工智能基本上最主體的是深度學習,深度學習做出來的算法,天然存在著不可解釋性、不安全、不可控,容易受到攻擊,而且由于需要大量的數據,非常不容易推廣。
“為了解決這個問題,我們提出來要發展第三代人工智能,建立一個可解釋的人工智能理念。因為現在人工智能的深度學習理論是不可解釋,而且非常脆弱,用技術語言來講,就是非常不魯棒。”張鈸認為,首先要從理論上解決這個問題,這樣才有可能發展出來安全、可信、可靠、可擴展的人工智能技術,才有可能使人工智能技術應用更加安全、更加公平。
他表示,發展第三代人工智能,必須把第一代人工智能知識驅動和第二代人工智能數據驅動結合起來,必須充分利用知識、數據、算法、算力四個要素來解決人工智能現在存在的不安全性問題。
在這個方面,張鈸團隊也做了很多工作。首先,在算法安全性方面,為解決深度學習非常脆弱、不可解釋的問題,通過加上符號知識等,可以把原來深度學習算法提升成第三代人工智能算法,這個算法更加安全、可信、可靠。
這就是張鈸團隊發布的開源平臺 —— 珠算平臺,跟現在國際上已有的平臺相比,有很多更具有可解釋性、更加魯棒、更加穩健的人工智能算法。同時基于該平臺,還孵化了一家公司瑞萊智慧,利用這些新的第三代人工智能技術,為目前產業升級提供更加安全、可信的人工智能技術,推動人工智能在金融、醫療、健康、農業、智能制造等得到廣泛的應用。
其次,數據安全性問題也需關注。張鈸認為,數據對人工智能發展起到非常大的重要作用,第二代人工智能發展基本上是靠數據驅動,數據貢獻不可磨滅,今后也要很好地依靠數據。
他表示,數據應用存在兩個主要問題,黑箱學習的方法導致不可能提取真正的因果關系,要提取出真正有用的東西,很多地方都需要知識的引導,知識的幫助,必須利用知識分析。此外,在數據安全性問題方面,如何防止數據被濫用、保證數據隱私、保證數據被安全地使用等,這需要出臺各種各樣的政策法規,來限定或規范對數據的應用。
“現在只是做了初步工作,發展第三代人工智能是非常艱巨、非常重要的長遠工作,這個工作必須全世界聯合起來,團結起來,共同發展人工智能,使人工智能最終能造福于人類,造福于全社會。”張鈸呼吁。