核心提示:在科幻電影《銀翼殺手》中,一群與人類具有完全相同智能和感覺的仿生人冒險劫持太空飛船回到地球,人類主人公在追殺一位仿生人
在科幻電影《銀翼殺手》中,一群與人類具有完全相同智能和感覺的“仿生人”冒險劫持太空飛船回到地球,人類主人公在追殺一位“仿生人”途中卻愛上了她,最后帶著她走向逃亡之路。
隨著時間的推移,人類似乎正在走向科幻影視里那個“技術(shù)奇點”。曾經(jīng)設(shè)想的種種人機關(guān)系、道德困境、倫理思辨、哲學(xué)難題,在不久的將來都可能一一上演。
2016年,谷歌人工智能程序“阿爾法狗”戰(zhàn)勝世界圍棋冠軍李世石,這場“人機大戰(zhàn)”被視為人工智能發(fā)展史上的里程碑。悲觀者認(rèn)為,AI取代人腦將是必然趨勢。
在人工智能全面融入社會生活的當(dāng)下,加強人工智能科技倫理治理,找到“人機共處”之道,是一個十分現(xiàn)實的問題。10日下午,世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會舉辦人工智能與數(shù)字倫理分論壇,正是在這一背景下對數(shù)字倫理問題進行前瞻性探討。
2022年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會——人工智能與數(shù)字倫理分論壇。圖源:中國網(wǎng)
汽車為人帶來出行的便利,但它排出尾氣。萬物智能時代,人們每時每刻都會留下大量的“數(shù)字尾氣”,面部信息、指紋信息、定位信息、語音信息乃至用戶偏好等數(shù)據(jù),會被永久或半永久保留下來,并加以索引、恢復(fù)、搜索和分析。
人工智能的發(fā)展極大提升了數(shù)據(jù)處理能力,為我們的生活提供了許多便利,數(shù)據(jù)價值在日益凸顯。但與此同時,被互聯(lián)網(wǎng)記錄和存儲的個人信息,相對更容易被泄露和傳播。保護用戶隱私,保障用戶知情權(quán)、選擇權(quán),成為社會各界的重要關(guān)切。
比如,大數(shù)據(jù)成為商業(yè)平臺“讀心”的工具。只是因為你在茫茫信息流中多看了一眼,就可能被瘋狂推送“猜你喜歡”,連廣告推銷都能精準(zhǔn)到人,許多人對此深有體會。當(dāng)我們感嘆大數(shù)據(jù)如此“貼心”的同時,是否也有一種被“偷窺”的不適感。
比如,大數(shù)據(jù)被用于操控輿論走向。2018年,特朗普聘用的一家政治AI公司,被曝非法將大約5000萬Facebook用戶的信息用于大數(shù)據(jù)分析,從而精準(zhǔn)刻畫這些Facebook用戶的心理特征,并向他們推送定制廣告,甚至假新聞。扎克伯格因為這場可能影響大選結(jié)果的大規(guī)模數(shù)據(jù)泄露事件,遭到國會詢問。這再一次讓人們意識到,科技公司很可能將數(shù)據(jù)作為牟利的原材料,而非需要保護的個人資產(chǎn)。
事實上,數(shù)據(jù)流通與隱私保護,從來不是“魚和熊掌”的關(guān)系。如何找到二者的平衡點,讓大數(shù)據(jù)既能更好服務(wù)公眾,又能防止侵犯個人隱私,全世界都在尋找破題之道。
隱私計算就是為了解決這一問題而誕生的新技術(shù)。通過把大數(shù)據(jù)放進“盲盒”進行分析,將信息的所有權(quán)、管理權(quán)和使用權(quán)分離,從而充分保護數(shù)據(jù)和隱私安全,達到對數(shù)據(jù)“可用而不可見”的目的。
我們看到,近年來,加強數(shù)據(jù)安全管理成為各國立法的重點。歐盟頒布了“史上最嚴(yán)”數(shù)據(jù)保護法案《通用數(shù)據(jù)保護條例》,我國出臺了《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律,數(shù)據(jù)安全的籬笆正在被逐步扎緊。
對于人工智能來說,數(shù)據(jù)是石油,算法則是引擎。沒有算法,就沒法使用大數(shù)據(jù)。
人工智能遇到的倫理問題,將越來越多地體現(xiàn)在算法無法解決的“兩難困境”中。
比如,“電車難題”出現(xiàn)了新的表現(xiàn)形式:
行人橫穿馬路,剎車來不及。如果不轉(zhuǎn)向,會撞死行人;如果轉(zhuǎn)向,乘客會死于翻車。自動駕駛汽車應(yīng)該作何選擇?即使人工智能作出一萬個正確的決策,它是否應(yīng)當(dāng)為一次致命失誤而負責(zé)?
必須看到,算法絕非不帶有任何價值判斷。當(dāng)我們越來越依賴于算法決策、算法推薦、算法預(yù)測,就應(yīng)更加警惕其背后的倫理問題。
比如,“AI老板”的變相壓榨。今年8月,F(xiàn)acebook母公司Meta宣布使用算法解雇了60名合同工。裁員郵件未表明具體原因,只說這是算法評估的結(jié)果。這并非個例,亞馬遜很早就將人工智能運用于倉庫員工的管理中,通過人工智能自動化地跟蹤員工工作狀態(tài),一旦發(fā)現(xiàn)倉庫員工長時間沒有接觸包裹或者處理速度變慢,就會記錄員工效率過低,甚至對多次不達標(biāo)的員工“一鍵裁員”。
比如,算法歧視和區(qū)別對待問題。在社交網(wǎng)站擁有較多粉絲的“大V”,在客服人員處理其投訴時往往被快速識別,并因此得到更好的響應(yīng)。算法越來越多地進行“大數(shù)據(jù)殺熟”,消費頻率高的老顧客,在網(wǎng)上所看產(chǎn)品和服務(wù)的定價,反而要高于消費頻率低或從未消費過的新顧客。
此外,安全可信問題也需要引起重視。在人工智能與數(shù)字倫理論壇上,一位業(yè)內(nèi)人士指出,新一代人工智能是數(shù)據(jù)驅(qū)動的,是機器的自我學(xué)習(xí),這就可能帶來系統(tǒng)的不夠魯棒、不可解釋、不夠可靠等問題。特別在諸如醫(yī)療、制造、金融等與社會生活息息相關(guān)的領(lǐng)域,機器學(xué)習(xí)模型作出錯誤預(yù)測的后果往往是難以接受的。
清華大學(xué)人工智能研究院名譽院長、中國科學(xué)院院士張鈸表示,人工智能的發(fā)展必然帶來對倫理和傳統(tǒng)規(guī)范的沖擊。人們可以惡意地利用算法的脆弱性,對算法進行攻擊,導(dǎo)致基于該算法的人工智能系統(tǒng)失效,甚至做出相反的破壞行為。深度學(xué)習(xí)還可以用來造假,通過人工智能的深度造假,可以制造出大量逼真的假新聞、假視頻、假演說等,擾亂社會秩序,誣陷無辜的人。
鑒于以上問題的存在,我們迫切需要新的數(shù)字治理方案。
去年,我國通過了《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,要求在三年內(nèi)逐步建立治理機制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局。這為維護社會公平公正和網(wǎng)民合法權(quán)益帶來了有力保障,算法的合理應(yīng)用、人工智能的健康發(fā)展也是如此。
就像兩只腳走路,總有一前一后?萍紕(chuàng)新與倫理規(guī)則的制定,不可能齊頭并進,但兩者都不能放慢腳步。
雖然我們無法預(yù)想未來的賽博世界有多么遼闊,但我們當(dāng)下能做的,是在人工智能這片“新疆土”自由馳騁時,不忘套上法律法規(guī)和倫理道德的韁繩。
習(xí)近平總書記指出:“面對各國對數(shù)據(jù)安全、數(shù)字鴻溝、個人隱私、道德倫理等方面的關(guān)切,我們要秉持以人為中心、基于事實的政策導(dǎo)向,鼓勵創(chuàng)新,建立互信,支持聯(lián)合國就此發(fā)揮領(lǐng)導(dǎo)作用,攜手打造開放、公平、公正、非歧視的數(shù)字發(fā)展環(huán)境。”
增進人類福祉,是人工智能技術(shù)發(fā)展的根本依歸。正因如此,公平公正、向上向善等人類社會的基本價值取向,仍然是人工智能必須堅守的原則。比如,最基本要求是安全可控;最終目標(biāo)是服務(wù)于人而非超越人、取代人;終極理想是為人類帶來更多自由和可能。
在政府層面,怎樣在法律法規(guī)、管理服務(wù)上加快破題,動態(tài)平衡科技創(chuàng)新發(fā)展和社會公平正義;在企業(yè)層面,怎樣避免技術(shù)濫用、不當(dāng)采集用戶數(shù)據(jù),以正向社會價值創(chuàng)造為目標(biāo);對我們每個人來說,怎樣成為數(shù)字化時代的主人,而不是被數(shù)字和算法驅(qū)使?
筆者注意到,在論壇上,張鈸院士認(rèn)為,人工智能的研究和治理都需要全世界不同領(lǐng)域的人員參與和合作,除從事人工智能的研發(fā)和使用人員之外,還需要法律、道德、倫理等不同領(lǐng)域人員的參與,我們需要明晰倫理道德的標(biāo)準(zhǔn),什么是符合道德和倫理的?不同國家、民族團體和個人都有不盡相同的認(rèn)識,因此需要全球范圍的合作,共同制定出一套符合全人類利益的標(biāo)準(zhǔn)。
在一次次思維的碰撞和實踐的探索中,人類一定能找到“駕馭”人工智能的方法,讓AI成為人腦的有益補充,讓科技更好賦能人的美好生活。
隨著時間的推移,人類似乎正在走向科幻影視里那個“技術(shù)奇點”。曾經(jīng)設(shè)想的種種人機關(guān)系、道德困境、倫理思辨、哲學(xué)難題,在不久的將來都可能一一上演。
2016年,谷歌人工智能程序“阿爾法狗”戰(zhàn)勝世界圍棋冠軍李世石,這場“人機大戰(zhàn)”被視為人工智能發(fā)展史上的里程碑。悲觀者認(rèn)為,AI取代人腦將是必然趨勢。
在人工智能全面融入社會生活的當(dāng)下,加強人工智能科技倫理治理,找到“人機共處”之道,是一個十分現(xiàn)實的問題。10日下午,世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會舉辦人工智能與數(shù)字倫理分論壇,正是在這一背景下對數(shù)字倫理問題進行前瞻性探討。
2022年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會——人工智能與數(shù)字倫理分論壇。圖源:中國網(wǎng)
汽車為人帶來出行的便利,但它排出尾氣。萬物智能時代,人們每時每刻都會留下大量的“數(shù)字尾氣”,面部信息、指紋信息、定位信息、語音信息乃至用戶偏好等數(shù)據(jù),會被永久或半永久保留下來,并加以索引、恢復(fù)、搜索和分析。
人工智能的發(fā)展極大提升了數(shù)據(jù)處理能力,為我們的生活提供了許多便利,數(shù)據(jù)價值在日益凸顯。但與此同時,被互聯(lián)網(wǎng)記錄和存儲的個人信息,相對更容易被泄露和傳播。保護用戶隱私,保障用戶知情權(quán)、選擇權(quán),成為社會各界的重要關(guān)切。
比如,大數(shù)據(jù)成為商業(yè)平臺“讀心”的工具。只是因為你在茫茫信息流中多看了一眼,就可能被瘋狂推送“猜你喜歡”,連廣告推銷都能精準(zhǔn)到人,許多人對此深有體會。當(dāng)我們感嘆大數(shù)據(jù)如此“貼心”的同時,是否也有一種被“偷窺”的不適感。
比如,大數(shù)據(jù)被用于操控輿論走向。2018年,特朗普聘用的一家政治AI公司,被曝非法將大約5000萬Facebook用戶的信息用于大數(shù)據(jù)分析,從而精準(zhǔn)刻畫這些Facebook用戶的心理特征,并向他們推送定制廣告,甚至假新聞。扎克伯格因為這場可能影響大選結(jié)果的大規(guī)模數(shù)據(jù)泄露事件,遭到國會詢問。這再一次讓人們意識到,科技公司很可能將數(shù)據(jù)作為牟利的原材料,而非需要保護的個人資產(chǎn)。
事實上,數(shù)據(jù)流通與隱私保護,從來不是“魚和熊掌”的關(guān)系。如何找到二者的平衡點,讓大數(shù)據(jù)既能更好服務(wù)公眾,又能防止侵犯個人隱私,全世界都在尋找破題之道。
隱私計算就是為了解決這一問題而誕生的新技術(shù)。通過把大數(shù)據(jù)放進“盲盒”進行分析,將信息的所有權(quán)、管理權(quán)和使用權(quán)分離,從而充分保護數(shù)據(jù)和隱私安全,達到對數(shù)據(jù)“可用而不可見”的目的。
我們看到,近年來,加強數(shù)據(jù)安全管理成為各國立法的重點。歐盟頒布了“史上最嚴(yán)”數(shù)據(jù)保護法案《通用數(shù)據(jù)保護條例》,我國出臺了《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》等法律,數(shù)據(jù)安全的籬笆正在被逐步扎緊。
2021年6月10日,十三屆全國人大常委會第二十九次會議通過了數(shù)據(jù)安全法。圖源:新華社
對于人工智能來說,數(shù)據(jù)是石油,算法則是引擎。沒有算法,就沒法使用大數(shù)據(jù)。
人工智能遇到的倫理問題,將越來越多地體現(xiàn)在算法無法解決的“兩難困境”中。
比如,“電車難題”出現(xiàn)了新的表現(xiàn)形式:
行人橫穿馬路,剎車來不及。如果不轉(zhuǎn)向,會撞死行人;如果轉(zhuǎn)向,乘客會死于翻車。自動駕駛汽車應(yīng)該作何選擇?即使人工智能作出一萬個正確的決策,它是否應(yīng)當(dāng)為一次致命失誤而負責(zé)?
必須看到,算法絕非不帶有任何價值判斷。當(dāng)我們越來越依賴于算法決策、算法推薦、算法預(yù)測,就應(yīng)更加警惕其背后的倫理問題。
比如,“AI老板”的變相壓榨。今年8月,F(xiàn)acebook母公司Meta宣布使用算法解雇了60名合同工。裁員郵件未表明具體原因,只說這是算法評估的結(jié)果。這并非個例,亞馬遜很早就將人工智能運用于倉庫員工的管理中,通過人工智能自動化地跟蹤員工工作狀態(tài),一旦發(fā)現(xiàn)倉庫員工長時間沒有接觸包裹或者處理速度變慢,就會記錄員工效率過低,甚至對多次不達標(biāo)的員工“一鍵裁員”。
比如,算法歧視和區(qū)別對待問題。在社交網(wǎng)站擁有較多粉絲的“大V”,在客服人員處理其投訴時往往被快速識別,并因此得到更好的響應(yīng)。算法越來越多地進行“大數(shù)據(jù)殺熟”,消費頻率高的老顧客,在網(wǎng)上所看產(chǎn)品和服務(wù)的定價,反而要高于消費頻率低或從未消費過的新顧客。
此外,安全可信問題也需要引起重視。在人工智能與數(shù)字倫理論壇上,一位業(yè)內(nèi)人士指出,新一代人工智能是數(shù)據(jù)驅(qū)動的,是機器的自我學(xué)習(xí),這就可能帶來系統(tǒng)的不夠魯棒、不可解釋、不夠可靠等問題。特別在諸如醫(yī)療、制造、金融等與社會生活息息相關(guān)的領(lǐng)域,機器學(xué)習(xí)模型作出錯誤預(yù)測的后果往往是難以接受的。
清華大學(xué)人工智能研究院名譽院長、中國科學(xué)院院士張鈸表示,人工智能的發(fā)展必然帶來對倫理和傳統(tǒng)規(guī)范的沖擊。人們可以惡意地利用算法的脆弱性,對算法進行攻擊,導(dǎo)致基于該算法的人工智能系統(tǒng)失效,甚至做出相反的破壞行為。深度學(xué)習(xí)還可以用來造假,通過人工智能的深度造假,可以制造出大量逼真的假新聞、假視頻、假演說等,擾亂社會秩序,誣陷無辜的人。
鑒于以上問題的存在,我們迫切需要新的數(shù)字治理方案。
去年,我國通過了《關(guān)于加強互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見》,要求在三年內(nèi)逐步建立治理機制健全、監(jiān)管體系完善、算法生態(tài)規(guī)范的算法安全綜合治理格局。這為維護社會公平公正和網(wǎng)民合法權(quán)益帶來了有力保障,算法的合理應(yīng)用、人工智能的健康發(fā)展也是如此。
就像兩只腳走路,總有一前一后?萍紕(chuàng)新與倫理規(guī)則的制定,不可能齊頭并進,但兩者都不能放慢腳步。
雖然我們無法預(yù)想未來的賽博世界有多么遼闊,但我們當(dāng)下能做的,是在人工智能這片“新疆土”自由馳騁時,不忘套上法律法規(guī)和倫理道德的韁繩。
習(xí)近平總書記指出:“面對各國對數(shù)據(jù)安全、數(shù)字鴻溝、個人隱私、道德倫理等方面的關(guān)切,我們要秉持以人為中心、基于事實的政策導(dǎo)向,鼓勵創(chuàng)新,建立互信,支持聯(lián)合國就此發(fā)揮領(lǐng)導(dǎo)作用,攜手打造開放、公平、公正、非歧視的數(shù)字發(fā)展環(huán)境。”
2022年世界互聯(lián)網(wǎng)大會“互聯(lián)網(wǎng)之光”博覽會會場
增進人類福祉,是人工智能技術(shù)發(fā)展的根本依歸。正因如此,公平公正、向上向善等人類社會的基本價值取向,仍然是人工智能必須堅守的原則。比如,最基本要求是安全可控;最終目標(biāo)是服務(wù)于人而非超越人、取代人;終極理想是為人類帶來更多自由和可能。
在政府層面,怎樣在法律法規(guī)、管理服務(wù)上加快破題,動態(tài)平衡科技創(chuàng)新發(fā)展和社會公平正義;在企業(yè)層面,怎樣避免技術(shù)濫用、不當(dāng)采集用戶數(shù)據(jù),以正向社會價值創(chuàng)造為目標(biāo);對我們每個人來說,怎樣成為數(shù)字化時代的主人,而不是被數(shù)字和算法驅(qū)使?
筆者注意到,在論壇上,張鈸院士認(rèn)為,人工智能的研究和治理都需要全世界不同領(lǐng)域的人員參與和合作,除從事人工智能的研發(fā)和使用人員之外,還需要法律、道德、倫理等不同領(lǐng)域人員的參與,我們需要明晰倫理道德的標(biāo)準(zhǔn),什么是符合道德和倫理的?不同國家、民族團體和個人都有不盡相同的認(rèn)識,因此需要全球范圍的合作,共同制定出一套符合全人類利益的標(biāo)準(zhǔn)。
在一次次思維的碰撞和實踐的探索中,人類一定能找到“駕馭”人工智能的方法,讓AI成為人腦的有益補充,讓科技更好賦能人的美好生活。