近日,兩件與人工智能技術(shù)應(yīng)用有關(guān)事件引發(fā)社會廣泛關(guān)注。第一件是一款視頻編輯軟件在社交媒體刷屏。該軟件可以方便、快速地將視頻中人物換為用戶上傳的任意人的臉。實際上,這種視頻換臉很早以前利用專業(yè)視頻編輯軟件也可以實現(xiàn),不過需要使用者有相應(yīng)的技術(shù),過程復(fù)雜。現(xiàn)在人工智能技術(shù)將這一復(fù)雜的技術(shù)過程簡單化、快速化,普通人也可以輕松駕馭。第二件是一張學(xué)生課堂行為分析的圖片,人工智能技術(shù)將學(xué)生抬頭、看手機、低頭、記筆記、打瞌睡等行為進(jìn)行統(tǒng)計標(biāo)明。
換臉應(yīng)用有兩點需要我們警惕:一是這種技術(shù)對社會信息傳播秩序帶來的沖擊。慣常來說,視頻對信息的保真度是高于文字和圖片的,視頻能夠相對準(zhǔn)確傳播信息,是社會信息傳播系統(tǒng)重要的媒介符號。這種易得、簡單的換臉應(yīng)用程序,如果被濫用勢必引發(fā)傳播秩序的混亂。二是這類應(yīng)用軟件收集人臉信息的合法性、安全性、可靠性存疑。人的面部、虹膜、指紋等生物特征識別信息,是重要的個人隱私信息。這類信息的重要性遠(yuǎn)大于地址、密碼等類型信息。地址、密碼可以修改,面部特征、指紋等生物信息終身唯一,無法更改,泄露后果的嚴(yán)重性,怎么說都不為過。如果這類信息一旦泄露,無可挽回,技術(shù)的開發(fā)者也無能為力,不論是技術(shù)開發(fā)者主觀濫用,還是遭到黑客攻擊、無意泄露,都難以挽回。現(xiàn)在刷臉在金融支付、交通出行、公共安全等領(lǐng)域已經(jīng)廣泛應(yīng)用。面部生物信息的泄露,給整個社會體系帶來的影響難以估量。
人工智能將學(xué)生課堂行為量化分析的問題在于,一是這種技術(shù)對學(xué)生行為分析的準(zhǔn)確性、可靠性與可信度存疑。人工智能終究是一種算法,其當(dāng)下能做到的是對個體行動軌跡的捕捉,不具備對人類豐富復(fù)雜的社會行為及其發(fā)生的場景準(zhǔn)確判斷和識別。同樣是一個動作其意義可能差別很大。技術(shù)可以檢測到學(xué)生低頭寫字,但到底寫的是上課內(nèi)容還是無關(guān)信息,顯然再高級的人工智能也無法判斷。人工智能可以準(zhǔn)確識別學(xué)生是否出勤,但將課堂這么復(fù)雜豐富的人類行為場景,進(jìn)行絕對量化的分析,不可靠。其次,即使技術(shù)上是可靠的,那么這種將學(xué)生課堂學(xué)習(xí)的行為如此量化來管理的道德正當(dāng)性存疑。我們講教育以人為本,因材施教,人不是機器,不能將學(xué)生行為進(jìn)行徹底的數(shù)字化管理,技術(shù)不能奴役人。
這兩件事反映出人工智能技術(shù)在快速發(fā)展和廣泛應(yīng)用,然而我們整個社會似乎對這種技術(shù)的認(rèn)識還有待深化,對其帶來的風(fēng)險和挑戰(zhàn)還沒有做好治理準(zhǔn)備。
在認(rèn)識方面,人工智能技術(shù)可以高效、有效解決很多領(lǐng)域的問題,但要避免所有問題都由人工智能解決。人工智能對解決那些機械、枯燥、數(shù)據(jù)量龐大的、簡單重復(fù)問題有效,但其缺少人情味、人性,所以在需要體現(xiàn)人的精神、情趣、想象、體現(xiàn)人性的工作,一定要人來做,不能一味追求技術(shù)解決。技術(shù)不是萬能的。
人工智能技術(shù)治理關(guān)鍵是抓住三個核心關(guān)鍵問題:算法、數(shù)據(jù)和算力。政府要在涉及算法和數(shù)據(jù)兩方面來立法和監(jiān)督。要確保算法公開透明、可監(jiān)督。數(shù)據(jù)方面對相關(guān)技術(shù)產(chǎn)品使用數(shù)據(jù)的種類、規(guī)模方面強化監(jiān)管。在涉及人面部特征信息、指紋、血液等人體生物特征信息要設(shè)立嚴(yán)格的標(biāo)準(zhǔn),從采集、傳輸、存儲等環(huán)節(jié)規(guī)制,確保涉及個人安全和國家安全信息不被濫用和安全可控。數(shù)據(jù)應(yīng)用的用戶規(guī)模要與企業(yè)的安全保障能力匹配。此外,在涉及重要領(lǐng)域和廣泛人群的技術(shù)應(yīng)用要建立人工智能使用的倫理與安全評估機制,類似于醫(yī)學(xué)研究的倫理評估環(huán)節(jié),確保技術(shù)發(fā)展的正確方向和合理使用。建立第三方專業(yè)組織監(jiān)督人工智能技術(shù)應(yīng)用的安全性、可靠性與可控性。
企業(yè)要落實主體責(zé)任。在技術(shù)開發(fā)環(huán)節(jié),遵循人工智能開發(fā)的基本原則:公平、可靠與安全、隱私與保障、包容、透明和負(fù)責(zé),確保技術(shù)的可靠性、合法性和符合人類倫理規(guī)范。企業(yè)要有底線意識,不觸犯相關(guān)的法律法規(guī),要遵循基本的社會價值規(guī)范和公共道德,承擔(dān)相應(yīng)的社會責(zé)任。在各個軟件分發(fā)平臺,要嚴(yán)格檢驗應(yīng)用的權(quán)限,確保用戶下載應(yīng)用的安全可靠性。
用戶方面,要提升公眾的技術(shù)使用素養(yǎng),培養(yǎng)正確認(rèn)識、合理使用技術(shù)的能力。也要研究在人工智能技術(shù)應(yīng)用場景中,考慮用戶選擇權(quán),包括是否使用人工智能技術(shù)以及使用的程度。
人工智能作為革命性的新技術(shù),沒有人能準(zhǔn)確預(yù)測技術(shù)的未來結(jié)果。在對互聯(lián)網(wǎng)治理上我們過去奉行“先發(fā)展后治理”的理念,人工智能技術(shù)應(yīng)用的行業(yè)領(lǐng)域廣泛、算法不透明、結(jié)果隱蔽,其治理與要其發(fā)展同步,應(yīng)秉持“邊發(fā)展邊治理”的理念。最終讓人工智能技術(shù)更好服務(wù)人類社會發(fā)展。(作者系天津師范大學(xué)新聞傳播學(xué)院教師張建軍)
?