主持人: 本報記者 黃蔚
對話專家: 北京航空航天大學(xué)計算機(jī)學(xué)院教授 熊璋 副教授 王靜遠(yuǎn)
對話背景: 人工智能教育中的倫理教育有兩個側(cè)面:一個是人工智能系統(tǒng)設(shè)計目標(biāo)、技術(shù)路線、功能實(shí)現(xiàn)的倫理,價值取向是推動科技進(jìn)步、促進(jìn)社會發(fā)展、改善人民生活,一定不能違背社會大眾福祉;另一個是使用人工智能系統(tǒng)時的倫理,簡單說就是揚(yáng)善避惡,做造福人類的事,而不能利用人工智能技術(shù)做危害社會、危害他人的行徑。記者日前就人工智能和倫理教育的話題與北京航空航天大學(xué)計算機(jī)學(xué)院的熊璋、王靜遠(yuǎn)兩位教授進(jìn)行了對話。
要保證健康的人工智能教育,必須關(guān)注其中的倫理教育
主持人: 使用機(jī)器代替人類的腦力勞動,是人類自計算機(jī)發(fā)明伊始就有的一個夢想。經(jīng)過了幾十年的努力,人工智能技術(shù)經(jīng)歷了幾起幾落,日漸成熟,已經(jīng)開始輔助或代替人類一些腦力勞動,在一些具有確定目標(biāo)的任務(wù)當(dāng)中(如圍棋、人臉識別等)人工智能甚至能夠超越人類,表現(xiàn)出了更加優(yōu)秀的性能。在人工智能教育中,我們要關(guān)注其中的科學(xué)道理、發(fā)展規(guī)律、對社會發(fā)展的影響,那人工智能教育中的倫理教育,我們應(yīng)當(dāng)放在什么樣的位置呢?
熊璋: 鐮刀斧頭、蒸汽機(jī)、電力、電話延伸和增強(qiáng)了人類四肢和五官,只有人工智能,是第一次延伸和增強(qiáng)了人類的腦力。人工智能技術(shù)相較于之前所有科技進(jìn)步的最大不同之處,就是它能夠?qū)⑷祟悘牟糠帜X力勞動中解放出來。隨著人工智能技術(shù)的不斷成熟和廣泛應(yīng)用,未來會有越來越多的判斷和決策交由人工智能去完成,如身份確認(rèn)、評判作業(yè)、閱讀病案、篩選簡歷、投資決策等,這就意味著人工智能將深度參與人類社會的許多重要活動。
我們不得不承認(rèn),人類在做判斷和決策時,其依據(jù)一定包括社會公認(rèn)準(zhǔn)則和決策人的情感、態(tài)度、價值觀,社會對人類決策者存在許多倫理道德規(guī)范和約束。在機(jī)器參與人類的判斷和決策,扮演人工智能的角色時,讓系統(tǒng)依據(jù)一套客觀指標(biāo)去判斷是容易的,讓系統(tǒng)從事決策性事務(wù)時,能夠服從社會公認(rèn)的準(zhǔn)則和人類的價值觀則是人工智能的一大挑戰(zhàn)。
王靜遠(yuǎn): 例如,一款合理的人工智能簡歷篩選軟件,不應(yīng)該因為性別、種族、膚色等因素作歧視性的簡歷甄別;一款用于智能醫(yī)療的軟件,不能夠為了獲取不當(dāng)利益而夸大或掩蓋病情,甚至貽誤治療。公平、公正、無歧視、無欺騙等這些用來要求人類決策者行為的倫理與道德標(biāo)準(zhǔn),也都需要在人工智能的自動決策當(dāng)中切實(shí)體現(xiàn)。教育工作的一項重要任務(wù)就是幫助人們樹立善良、正直、公平、公正等正確的價值道德標(biāo)準(zhǔn)。現(xiàn)在的人工智能技術(shù)水平,我們還不可能對人工智能程序進(jìn)行道德教育,但是在我們開展人工智能教育時,絕不能忽視人工智能教育中的倫理教育。
人工智能教育中的幾個基本倫理教育要點(diǎn)
主持人: 教育開發(fā)者在設(shè)計和開發(fā)人工智能工具時要充分考慮社會倫理的基本要求,除了要符合信息技術(shù)不危害倫理的基本原則,例如不制造計算機(jī)病毒、不開發(fā)基于人工智能的有害程序、不進(jìn)行數(shù)據(jù)盜竊等,還有其他方面的考慮嗎?
熊璋: 我們還要充分考慮人工智能在社會活動中所扮演的新角色,考慮到這些角色的不當(dāng)行為可能帶來的倫理風(fēng)險,不主動利用角色的特殊地位為個人牟利或是危害他人利益。
例如,當(dāng)開發(fā)人員為一個公司開發(fā)人力資源管理系統(tǒng),在使用傳統(tǒng)數(shù)據(jù)庫、信息系統(tǒng)等技術(shù)時,道德規(guī)范的開發(fā)人員需要做到的是不能利用自己的技術(shù)優(yōu)勢在程序中預(yù)留后門、不能竄改和拷貝公司的內(nèi)部數(shù)據(jù)、在程序設(shè)計時充分考慮信息安全因素等。在開發(fā)一個基于人工智能的人力資源管理系統(tǒng)時,開發(fā)人員則還需要考慮機(jī)器代替人去作惡的倫理道德風(fēng)險。例如應(yīng)該主動避免將種族、膚色、性別等因素作為特征輸入到自動決策算法當(dāng)中,不開發(fā)對員工個人隱私具有窺探性的算法功能等。
進(jìn)一步,人工智能倫理教育還要教使用者學(xué)會在合理的場景正確使用技術(shù)。技術(shù)通常是中性的,善惡只體現(xiàn)在技術(shù)的使用場景當(dāng)中。例如基于人工智能的視頻“換臉”技術(shù),其發(fā)明的初衷是為了用于電影特效、藝術(shù)創(chuàng)作等,但也可能會被應(yīng)用在不良宣傳、偽造證據(jù)等不當(dāng)場景當(dāng)中。
此外,還要避免人工智能被動倫理風(fēng)險,這是指在人工智能擔(dān)負(fù)重要工作職能時,可能會遭到環(huán)境變化、外來攻擊等不確定因素的干擾,如果在重要崗位上所使用的人工智能技術(shù)不夠可靠和穩(wěn)健,在遭到外界攻擊時就有可能產(chǎn)生一些不可預(yù)料的后果。如自動駕駛過程中,特殊的光照等場景可能導(dǎo)致算法對于明顯的障礙物視而不見,對于“刷臉”支付應(yīng)用中的圖像識別算法,一些對抗樣本可以完全混淆人工智能模型的輸出,將賬戶開放給不應(yīng)被授權(quán)的訪客。這些都是關(guān)鍵崗位上人工智能可靠性不足所帶來的風(fēng)險問題。
王靜遠(yuǎn): 要教育學(xué)生將來在使用一項人工智能技術(shù)代替人類工作時,主動了解技術(shù)的局限性、不確定性及風(fēng)險后果。
對于整個社會而言,無論是人工智能技術(shù)的開發(fā)者還是使用者,都需要進(jìn)行必要的責(zé)任意識教育。人工智能工具的重要特性是輔助和代理人類去完成一定的腦力勞動。在機(jī)器代理人類去完成一定任務(wù)時,“代理風(fēng)險”就會不可避免地產(chǎn)生。
例如,在傳統(tǒng)戰(zhàn)爭中,武器操作者需要親臨戰(zhàn)場進(jìn)行廝殺,因此對于殺戮的殘酷性會有直觀的認(rèn)識。到了無人武器時代,武器操作者只需要在辦公室里點(diǎn)擊按鈕就能夠殺敵于千里之外,戰(zhàn)爭殘酷性對操作者就降低到了電子游戲的水平。
而到了人工智能時代,武器殺人有可能完全由算法來決定,人的生死就完全控制在了算法手中。在這個過程中如果再出現(xiàn)由于人工智能不可靠所帶來的意外影響,所造成的后果甚至?xí)o整個人類帶來的巨大災(zāi)難。要想避免這樣的悲劇發(fā)生,必要的技術(shù)管控手段固然必不可少,加強(qiáng)對于人工智能工具研發(fā)與使用者的責(zé)任意識教育也同樣非常重要。
管理部門在促進(jìn)人工智能教育健康發(fā)展上的作為
主持人: 人工智能是一個發(fā)展的科學(xué)、發(fā)展的技術(shù),在它的發(fā)展過程中,除了對科學(xué)技術(shù)的推動,對社會發(fā)展的促進(jìn),人工智能與教育的融合還催生了伴隨式評價、個性化指導(dǎo)、團(tuán)隊式作業(yè),創(chuàng)新了教學(xué)環(huán)境、氛圍和文化,會出現(xiàn)新的改變和新的沖擊,我們的學(xué)校和管理部門應(yīng)當(dāng)有何作為呢?
熊璋: 人工智能教育中的倫理教育有一個不斷發(fā)展、不斷完善的過程,維護(hù)這個過程的科學(xué)性、維護(hù)人工智能教育的健康發(fā)展任重道遠(yuǎn)。人工智能教育應(yīng)該納入義務(wù)教育、普通高中和大學(xué)的課程體系,保證學(xué)校作為人工智能教育的主渠道。教育管理部門要在普通高中和義務(wù)教育階段的課程方案中明確人工智能課程是信息技術(shù)課程、信息科學(xué)課程的重要組成部分,明確培養(yǎng)目標(biāo)、課程內(nèi)容和學(xué)業(yè)質(zhì)量標(biāo)準(zhǔn),并不斷適時更新,要嚴(yán)格保證學(xué)校用教材的科學(xué)性、嚴(yán)謹(jǐn)性和規(guī)范性,要及時培訓(xùn)學(xué)校的一線教師,讓他們成為主力軍。同時也要引導(dǎo)社會輿論和社會力量共同維護(hù)人工智能教育的健康發(fā)展。