人工智能真的會(huì)危害人類嗎?
1956年,“人工智能”這一學(xué)術(shù)術(shù)語(yǔ)首次被提出,“人工智能”也正式成為了一門新興學(xué)科。但在隨后的幾十年里,”人工智能“給我們的印象更多地是在實(shí)驗(yàn)室以及電影里。但在2013年前后,以谷歌(微博)、微軟、Facebook為代表的科技巨頭接連入局人工智能領(lǐng)域,再加上鴻海等廠商計(jì)劃利用機(jī)器人工作,“人工智能“逐漸走進(jìn)了我們的生活。
面對(duì)科技界一股前所未有的”人工智能大潮“,馬斯克、蓋茨等科技大佬坐不住了。2021年8月,馬斯克在Twitter發(fā)布一條狀態(tài):“Bostrom撰寫的《超級(jí)智能》一書值得一讀,我們必須對(duì)人工智能超級(jí)謹(jǐn)慎,它的潛力可能比核彈還危險(xiǎn)?!?
比爾?蓋茨
也在最近的一次活動(dòng)上表示,機(jī)器將取代人類從事各種工作,如果我們能夠處理得好,它們應(yīng)該能發(fā)揮積極作用。可是數(shù)十年后,人工智能將發(fā)展到足以令人擔(dān)憂的程度。
人工智能的隱患:或沖擊現(xiàn)有社會(huì)體系
2月初,致力于“降低人類面臨的現(xiàn)存風(fēng)險(xiǎn)”的生命未來(lái)研究所(Future of Life Institute)的數(shù)百名頂尖科學(xué)家在一封公開信中簽名,公開信呼吁科技界在推動(dòng)人工智能發(fā)展的同時(shí),徹底審視人工智能的發(fā)展將對(duì)人類社會(huì)產(chǎn)生怎樣的影響。
這封信的作者承認(rèn),人工智能在語(yǔ)音識(shí)別、圖像分類、自動(dòng)駕駛汽車、機(jī)器翻譯和答疑系統(tǒng)等領(lǐng)域取得了顯著成功,并認(rèn)為這些研究有助于消滅疾病和貧困。但他們堅(jiān)持認(rèn)為,“人工智能系統(tǒng)必須做我們希望它做的事情”,科學(xué)界應(yīng)確立 “有助于最大限度提高人工智能社會(huì)效益”的研究目標(biāo)。
公開信強(qiáng)調(diào),未來(lái)的人工智能可能在計(jì)算機(jī)安全、經(jīng)濟(jì)、法律和哲學(xué)等領(lǐng)域影響社會(huì),但就是這種無(wú)處不在的潛在性,可以引發(fā)多方面的危機(jī)。例如,科學(xué)家們認(rèn)為,如果未來(lái)經(jīng)濟(jì)的某些部分變得自動(dòng)化,工人以及工人工資會(huì)受到很大影響,人工智能專家們不得不要重視。人工智能應(yīng)該正視下列問(wèn)題:致命的自動(dòng)化武器是否符合人道主義法? 當(dāng)人工智能系統(tǒng)從監(jiān)控?cái)z像頭、電話線路和電子郵件中收集數(shù)據(jù)時(shí),如何避免侵犯隱私權(quán)?
來(lái)自英國(guó)牛津大學(xué)的一群學(xué)者去年在一篇博客文章中寫道:“當(dāng)一臺(tái)機(jī)器發(fā)生錯(cuò)誤,其錯(cuò)誤方式可能比人的失誤更有戲劇性,可能會(huì)帶來(lái)更多不可預(yù)知的結(jié)果。簡(jiǎn)單算法在很大程度上是可預(yù)測(cè)的,但在不尋常的情況下,它可能作出離奇的決定?!?/p>
與這些比較現(xiàn)實(shí)的問(wèn)題相比,知名科學(xué)家霍金想的更為長(zhǎng)遠(yuǎn)。霍金在接受BBC采訪時(shí)表示,如果技術(shù)具有與人類類似的能力,“它將脫離控制,并以加速度重新設(shè)計(jì)自己。更可怕的是,由于生物學(xué)意義上的限制,人類無(wú)法趕上技術(shù)的發(fā)展速度?!盎艚饘?duì)人類的未來(lái)表示擔(dān)憂:“人類由于受到緩慢的生物進(jìn)化的限制,無(wú)法與機(jī)器競(jìng)爭(zhēng),并會(huì)被取代。全人工智能的發(fā)展可能導(dǎo)致人類的終結(jié)。”
從這些科學(xué)家的言論中,我們可以看到,科技界、科學(xué)界對(duì)人工智能的擔(dān)憂主要來(lái)自兩方面:一方面是人工智能對(duì)人類工作、生活方式的改變,可能影響到現(xiàn)有的法律體系、道德標(biāo)準(zhǔn)以及利益分配的模式等等,而人類做出改變的速度未必能跟的上人工智能的發(fā)展速度,這就會(huì)對(duì)社會(huì)現(xiàn)有的體制造成沖擊,從而引發(fā)混亂;另一方面是,人工智能讓人類越來(lái)越缺乏思考,而其自身則有可能越來(lái)越聰明,從而威脅到人類的生存。
預(yù)言成真?“毀滅論“有些危言聳聽
對(duì)于馬斯克、蓋茨、霍金等人的言論,谷歌董事長(zhǎng)施密特率先發(fā)起反駁。施密特的身份很特殊,作為谷歌的董事長(zhǎng),他曾親身參與許多世界上最復(fù)雜的人工智能系統(tǒng)的研發(fā),從自動(dòng)駕駛汽車到谷歌的預(yù)測(cè)性搜索引擎等,谷歌去年甚至還推出了自己的內(nèi)部機(jī)器人實(shí)驗(yàn)室。施密特認(rèn)為,所有對(duì)機(jī)器將搶走人類工作、占領(lǐng)世界的恐懼都毫無(wú)根據(jù),并且希望人們能夠意識(shí)到:機(jī)器人會(huì)成為我們的朋友。
施密特說(shuō):“對(duì)于人工智能的擔(dān)憂,都是正常的。但是回顧歷史你會(huì)發(fā)現(xiàn),這些絕對(duì)是錯(cuò)誤的。我們只是希望能通過(guò)更多機(jī)械化的方式,能讓我們穿上更好的衣服,而且歷史的經(jīng)驗(yàn)已經(jīng)證明,過(guò)去的經(jīng)濟(jì)繁榮時(shí)期,大多數(shù)是因?yàn)椴捎眯录夹g(shù)而引發(fā)的?!?/p>
IBM全球副總裁王陽(yáng)也曾對(duì)騰訊科技表示,當(dāng)科技取得突飛猛進(jìn)的成果時(shí),總是讓人感到害怕,但真正重要的是掌握技術(shù)的人?!翱偸怯行皭旱娜擞眯录夹g(shù)來(lái)?yè)v蛋”,技術(shù)的發(fā)展是勢(shì)不可擋的,比如在好萊塢大片中,經(jīng)??梢钥吹叫皭簞?shì)力濫用高科技技術(shù),但人類必須盡快掌握這些以抵抗非正義者的侵略??傊?,對(duì)于新技術(shù)的發(fā)展,難免會(huì)存在爭(zhēng)論,但科學(xué)的進(jìn)步總歸是為人類帶來(lái)更美好的未來(lái)?!?/p>
托尼?科恩是英國(guó)利茲大學(xué)自動(dòng)推理教授。他說(shuō),完全的人工智能“還有很長(zhǎng)的一段路要走,從現(xiàn)在發(fā)展的速度來(lái)看,我認(rèn)為仍然需要幾近上百年?!笨贫髡J(rèn)為,說(shuō)盡管識(shí)別程序和語(yǔ)音識(shí)別取得了長(zhǎng)足進(jìn)步,在開放混亂的環(huán)境里,機(jī)器人表現(xiàn)很差,人工智能最終面臨的最大障礙是“機(jī)器畢竟是機(jī)器“。
從多數(shù)的人觀點(diǎn)來(lái)看,“人工智能毀滅人類”的論斷似乎有些夸張,現(xiàn)有的科學(xué)技術(shù)只能讓機(jī)器從事一些較為基礎(chǔ)的事情,例如生產(chǎn)線上的一些固定動(dòng)作等等,甚至連無(wú)人駕駛汽車上的智能系統(tǒng)都并不完善,更談不上人工智能具有思維、情感,能夠?qū)θ祟惖纳嬖斐赏{。但是有一點(diǎn)卻不能忽視,隨著科學(xué)技術(shù)的進(jìn)步,自動(dòng)化的人工智能會(huì)越來(lái)越多地出現(xiàn)在我們的工作、生活,機(jī)器代替人類工作很有可能在不遠(yuǎn)的將來(lái)成為現(xiàn)實(shí)。
無(wú)人駕駛汽車算是最接近我們的一種人工智能,但除了技術(shù)因素外,它還面臨很多挑戰(zhàn)。例如,谷歌無(wú)人駕駛汽車出了車禍,造成了嚴(yán)重的后果,是車主、谷歌,還是驅(qū)動(dòng)汽車的算法、感應(yīng)器以及所有控制系統(tǒng)來(lái)負(fù)責(zé)交通事故?很遺憾,現(xiàn)有的法律系統(tǒng)未能跟上現(xiàn)代社會(huì)、企業(yè)或機(jī)器人發(fā)展的步伐,根本給不出明確的答案。
我們還應(yīng)該想到,當(dāng)機(jī)器人讓大批工人失業(yè)時(shí),我們?cè)撛趺崔k?當(dāng)機(jī)器人誤操作引發(fā)事故,現(xiàn)有法律如何厘清責(zé)任?當(dāng)黑客借助人工智能犯罪時(shí),我們又該如何防范?這些都應(yīng)該是我們現(xiàn)在需要正視的問(wèn)題。
人工智能專業(yè)前景如何?
極其好。如果說(shuō)計(jì)算機(jī)專業(yè)是上個(gè)時(shí)代的老大,那么人工智能專業(yè)就是下個(gè)時(shí)代的龍頭。因?yàn)椋?/p>