“人工智能開發(fā)與隱私保護存在緊張關(guān)系;在影視制作、社交、娛樂、教育、電商等領(lǐng)域具有很大正向應(yīng)用潛能的深度合成也可能被濫用來進行違法活動?!?/p>
近日,騰訊研究院高級研究員曹建峰在首屆清華大學人工智能合作與治理國際論壇分享對算法偏差和深度合成的看法。他建議業(yè)界探索開發(fā)隱私保護型的AI技術(shù)方法,在隱私保護與數(shù)據(jù)利用之間實現(xiàn)更好平衡。
在清華大學人工智能合作與治理國際論壇 “人工智能與數(shù)據(jù)安全”分論壇上,相關(guān)學者與產(chǎn)業(yè)屆人士聚焦討論數(shù)據(jù)與人工智能的近期與遠期風險、安全挑戰(zhàn)及對策。
分論壇由中科院自動化所中英人工智能倫理與治理中心主任曾毅主持。劍橋大學智能未來研究中心研究員丹尼特·加爾(Danit Gal)、荷蘭埃因霍溫科技大學教授文森特·穆勒(Vincent Muller)、北京師范大學網(wǎng)絡(luò)法治國際中心執(zhí)行主任吳沈括等人參與交流。
與會專家認為,人工智能和數(shù)據(jù)安全的治理需要世界各國和組織聯(lián)合起來,制定更加明晰有效的法律法規(guī),構(gòu)建統(tǒng)一的人工智能模型與系統(tǒng)的安全評估準則和標準,在全球范圍內(nèi)用更加開放協(xié)同的方式進行科學研究和技術(shù)交流,推動人工智能技術(shù)在安全的基礎(chǔ)上更快速的落地,構(gòu)建更安全、更美好的世界。
以下是各位人工智能學者與產(chǎn)業(yè)界人士的發(fā)言集錦:
丹尼特·加爾:AI的內(nèi)部風險與外部防御挑戰(zhàn)
劍橋大學智能未來研究中心研究員丹尼特·加爾(Danit Gal)重點總結(jié)了人工智能安全相關(guān)的內(nèi)部風險與外部防御的近期挑戰(zhàn),并對各國數(shù)據(jù)規(guī)制應(yīng)當形成全球協(xié)作提出建議。
她在主旨演講中區(qū)分了人工智能安全的兩大重要概念(Safety和Security)的概念。Safety更偏向內(nèi)部,針對的是一些無意傷害的預防措施,從系統(tǒng)中保護環(huán)境。Security更傾向于對外部攻擊的防御,聚焦在那些有意對個人、組織和財產(chǎn)施加傷害的行為,從環(huán)境中保護系統(tǒng)。
她認為,科技影響著我們所有人,它的安全和保障也是如此。然而,我們應(yīng)對這些影響的能力遠遠落后于開發(fā)和使用。人工智能和數(shù)據(jù)流進一步復雜化了這一動態(tài),引入并連接了新的機會和新的漏洞。丹尼特·加爾建議,應(yīng)加強交流、推動合作,以減少脆弱性,在全球范圍內(nèi)倡導并激勵數(shù)據(jù)安全治理工作。
文森特·穆勒:通用AI的長遠風險極不確定
荷蘭埃因霍溫科技大學教授文森特·穆勒(Vincent Muller)在演講中指出通用人工智能和超級智能的長遠風險具有極大不確定性。
他分成兩步介紹了超級智能和通用人工智能的長期風險,即從超級智能到技術(shù)奇點,再從技術(shù)奇點到生存風險。超級智能指的是在許多非常普遍的認知領(lǐng)域遠遠超過當今人類最佳智力的人工智能。
從超級智能到技術(shù)奇點,他強調(diào)了三個前提假設(shè),分別是我們擁有更快的速度和更多的數(shù)據(jù),不需要認知科學,以及應(yīng)用十分緊急。從技術(shù)奇點到生存風險,他強調(diào)了兩點前提假設(shè),理性主體決策理論適用于人工智能,以及智能和最終目標的正交性。
羅曼·揚波爾斯基:超級智能意味著超級控制
美國路易斯維爾大學教授羅曼·揚波爾斯基(Roman Yampolskiy)談到人工智能、安全和防御的未來,并表達了對于人工智能的擔憂。
他在主旨演講中表示,當前超級智能正在來臨,超級智能意味著超級聰明、超級復雜、超級快速、超級控制、超級病毒。
他談到關(guān)于人工智能的擔心,重點介紹了最近的幾項研究工作,包括通往危險的人工智能的路徑分類學、人工智能安全不可能的結(jié)果、緩解負面影響、人工智能的限制問題等。
他認為,人工智能失敗的時間軸呈指數(shù)趨勢,人工智能失敗的頻率和嚴重程度都會增加,這與人工智能的能力成比例。
曹建峰:AI開發(fā)與隱私保護存在緊張關(guān)系
騰訊研究院高級研究員曹建峰在會上分享了對算法偏差和深度合成(deep synthesis)的看法,并提出了解決問題的建議。
他認為,當前人工智能系統(tǒng)必須使用大量數(shù)據(jù)訓練算法。如果訓練數(shù)據(jù)是有偏見的或不完整的,人工智能系統(tǒng)將會顯示有偏見的行為。因此,人工智能開發(fā)應(yīng)該對數(shù)據(jù)質(zhì)量有合理的控制。但數(shù)據(jù)并不是偏見的唯一來源,解決算法偏見還需要AI從業(yè)人員秉持倫理價值。此外,人工智能開發(fā)與隱私保護存在緊張關(guān)系;在影視制作、社交、娛樂、教育、電商等領(lǐng)域具有很大正向應(yīng)用潛能的深度合成也可能被濫用來進行違法活動。
為解決這些問題,曹建峰給出了四點建議,人工智能與數(shù)據(jù)產(chǎn)品開發(fā)需要遵循“通過設(shè)計的倫理”(ethics by design)理念,將公平、安全等倫理價值融入產(chǎn)品設(shè)計全周期,并有防止濫用的保障措施;二是在企業(yè)、國家乃至國際層面建立負責任的人工智能開發(fā)和數(shù)據(jù)使用的道德準則;三是在國際社會分享最佳實踐經(jīng)驗;四是業(yè)界需要探索開發(fā)隱私保護型的AI技術(shù)方法,如聯(lián)邦學習等,來在隱私保護與數(shù)據(jù)利用之間實現(xiàn)更好平衡。
吳沈括:國際社會需面對數(shù)據(jù)違法行為帶來的法律漏洞
北京師范大學網(wǎng)絡(luò)法治國際中心執(zhí)行主任吳沈括在會上表示,國際社會需要面對新技術(shù)環(huán)境下數(shù)據(jù)違法行為帶來的新挑戰(zhàn)和法律漏洞。
首先,由于不同地區(qū)、國家法律法規(guī)的缺失和差異,普遍導致對新型數(shù)據(jù)違法行為司法規(guī)制不足。其次,各國現(xiàn)行法律制度框架尚不能充分保障跨境證據(jù)收集與交換的快速高效。最后,在網(wǎng)絡(luò)匿名的背景下,一些國家的監(jiān)測、預警和應(yīng)急機制越來越難以有效應(yīng)對脆弱性問題的快速增長。因此,在全球化深入發(fā)展的新時代,數(shù)據(jù)違法行為的跨國衍變要求更高水平的國際合作治理,建立信任世界。
鄧亞峰:不法分子利用AI會帶來倫理問題
奇虎 360 人工智能研究院院長鄧亞峰在會上總結(jié)了人工智能在數(shù)據(jù)安全方面存在的潛在威脅。
首先,由于人工智能是快速出現(xiàn)的新應(yīng)用,人工智能應(yīng)用生產(chǎn)和部署的各個環(huán)節(jié)都暴露出了一系列的安全風險。其次,人工智能和大數(shù)據(jù)應(yīng)用往往與大量隱私數(shù)據(jù)關(guān)聯(lián),這些數(shù)據(jù)往往需要被送到云端進行分析和計算,造成了比原來更嚴重的數(shù)據(jù)泄露和安全風險。第三,雖然從技術(shù)角度看,人工智能體很長一段時間都無法擁有真正的自我意識,但是,我們無法排除一些不法分子會對人工智能加以利用,而這會帶來大量的社會倫理問題。最后,由于人工智能在短期內(nèi)會造成一部分從事簡單重復性工作的人類失業(yè),這會引起一定的恐慌和排斥。此外,人工智能也因為技術(shù)的不成熟,會被認為在識別結(jié)果上存在一定的歧視。
他認為,人工智能和數(shù)據(jù)安全是全世界都統(tǒng)一面臨的問題,需要全世界的組織和個人聯(lián)合起來一起行動。
(澎湃新聞記者 張唯)
免責聲明:本網(wǎng)轉(zhuǎn)載自其它媒體的文章,目的在于弘揚科技創(chuàng)新精神,傳遞更多科技創(chuàng)新信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,在此我們謹向原作者和原媒體致以崇高敬意。如果您認為本站文章侵犯了您的版權(quán),請與我們聯(lián)系,我們將第一時間刪除。