人工智能的技術(shù)進(jìn)步,引發(fā)了人類(lèi)對(duì)未來(lái)的擔(dān)心。針對(duì)“我們應(yīng)該對(duì)人工智能懷有怎樣的擔(dān)憂(yōu)?”這個(gè)問(wèn)題,編者總結(jié)了17位思想領(lǐng)袖的觀(guān)點(diǎn),但他們也沒(méi)有對(duì)該問(wèn)題形成共識(shí)。
以下就是他們的觀(guān)點(diǎn):
▌?wù)J真對(duì)待人們對(duì)人工智能的恐懼
向機(jī)器超級(jí)智能的轉(zhuǎn)變事關(guān)重大,這一過(guò)程中可能出現(xiàn)的嚴(yán)重錯(cuò)誤應(yīng)該引起我們的重視。因此,應(yīng)該鼓勵(lì)數(shù)學(xué)和計(jì)算機(jī)科學(xué)領(lǐng)域的頂尖人才研究人工智能安全和人工智能控制問(wèn)題。——牛津大學(xué)人類(lèi)未來(lái)學(xué)院院長(zhǎng)尼克·博斯特羅姆(Nick Bostrom)
如果人工智能影響了俄羅斯黑客技術(shù)、英國(guó)脫歐公投或美國(guó)總統(tǒng)選舉,或者促成了某種使得人們不再根據(jù)自己的社交媒體資料投票的宣傳活動(dòng),抑或成為了一種社會(huì)科技力量,促進(jìn)了社會(huì)財(cái)富的不平等,并像19世紀(jì)末、20世紀(jì)初那樣引發(fā)政治極端化,最終促成兩次世界大戰(zhàn)和經(jīng)濟(jì)大蕭條,那么我們就應(yīng)該深懷憂(yōu)慮。
這并不表示我們應(yīng)該恐慌,而是應(yīng)該努力避免這些危害。——巴斯大學(xué)計(jì)算機(jī)科學(xué)教授、普林斯頓信息技術(shù)政策中心成員喬納·布雷森(Joanna Bryson)
我現(xiàn)在認(rèn)為最有可能的失敗模式是雙重的:一方面,隨著越來(lái)越多的知識(shí)和技能被機(jī)器掌握,并通過(guò)機(jī)器傳播,人類(lèi)在沒(méi)有真實(shí)需求的情況下導(dǎo)致學(xué)習(xí)動(dòng)機(jī)逐步降低,從而令人類(lèi)社會(huì)逐步衰落;另一方面,我還擔(dān)心對(duì)智能惡意軟件缺乏控制,或者惡意使用不安全的人工智能技術(shù)所引發(fā)的惡性后果。——加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特·羅素(Stuart Russell)。
▌但也別反應(yīng)過(guò)度
人工智能令我頗為興奮,我絲毫沒(méi)有擔(dān)憂(yōu)。人工智能將會(huì)把人類(lèi)從重復(fù)、無(wú)聊的辦公室工作中解脫出來(lái),讓我們有更多時(shí)間開(kāi)展真正有創(chuàng)意的工作。我已經(jīng)迫不及待了。——斯坦福大學(xué)計(jì)算機(jī)科學(xué)教授塞巴斯蒂安·特龍(Sebastian Thrun)
我們更應(yīng)該擔(dān)心的是氣候變化、核武器、抗藥病源體、保守的新法西斯主義政治運(yùn)動(dòng)。應(yīng)該擔(dān)心在自動(dòng)化經(jīng)濟(jì)中機(jī)器人取代的勞動(dòng)力,而不應(yīng)該擔(dān)心人工智能會(huì)奴役我們。——哈佛大學(xué)心理學(xué)教授史蒂芬·平克(Steven Pinker)
人工智能有望給社會(huì)帶來(lái)重大福利。它將重塑醫(yī)藥、交通以及生活的方方面面。只要有能力影響眾多與生活息息相關(guān)的領(lǐng)域,任何一項(xiàng)技術(shù)都將得到政策的關(guān)照,以便充分發(fā)揮它的作用,并給予一定的限制。徹底忽視人工智能的危險(xiǎn)是愚蠢的做法,但從技術(shù)角度講,把威脅列為首要擔(dān)憂(yōu)的思維模式恐怕并非上策。
——普林斯頓大學(xué)計(jì)算機(jī)科學(xué)教授瑪格麗特·馬敦諾西(Margaret Martonosi)
現(xiàn)在有的人擔(dān)心人工智能可能催生邪惡殺手,但這就像擔(dān)心火星上的人口過(guò)多一樣?;蛟S有朝一日的確會(huì)出現(xiàn)這種問(wèn)題,但人類(lèi)現(xiàn)在連登陸火星都沒(méi)有做到。這種杞人憂(yōu)天完全沒(méi)有必要,這反而令人們無(wú)法關(guān)注人工智能引發(fā)的更嚴(yán)重的問(wèn)題——那就是失業(yè)。——前百度副總裁兼首席科學(xué)家、Coursera聯(lián)席董事長(zhǎng)兼聯(lián)合創(chuàng)始人、斯坦福大學(xué)兼職教授吳恩達(dá)
人們對(duì)人工智能懷有恐懼和焦慮是可以理解的,而作為研究人員,我們有責(zé)任意識(shí)到這些恐懼,并提供不同的視角和解決方案。我對(duì)人工智能的未來(lái)很樂(lè)觀(guān),認(rèn)為它可以促使人類(lèi)和機(jī)器共同為我們創(chuàng)造更好的生活。——麻省理工學(xué)院計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室主任丹尼拉·魯斯(Daniela Rus)
人工智能背后的人類(lèi)比人工智能更可怕,因?yàn)榕c各種被馴化的動(dòng)物一樣,人工智能的目的是服務(wù)于它的創(chuàng)造者。朝鮮掌握人工智能與該國(guó)擁有遠(yuǎn)程導(dǎo)彈一樣可怕。但也僅此而已,電影《終結(jié)者》里面那種由人工智能顛覆人類(lèi)的情景只是癡心妄想。——喬治·梅森大學(xué)經(jīng)濟(jì)學(xué)教授布萊恩·卡普蘭(Bryan Caplan)
我對(duì)所謂的“中間階段”有些擔(dān)憂(yōu),在這個(gè)階段,無(wú)人駕駛汽車(chē)會(huì)與人類(lèi)駕駛員共用道路……可一旦人類(lèi)駕駛員停止開(kāi)車(chē),整體交通就會(huì)更加安全,受到人類(lèi)錯(cuò)誤判斷的影響將會(huì)降低。
換句話(huà)說(shuō),我擔(dān)心的是科技發(fā)展過(guò)程中的成長(zhǎng)的煩惱,但探索和推動(dòng)技術(shù)進(jìn)步這是人類(lèi)的天性。與焦慮和擔(dān)憂(yōu)相比,我內(nèi)心更多的是激動(dòng)和警惕。——紐約大學(xué)計(jì)算機(jī)科學(xué)教授安迪·尼倫(Andy Nealen)
毫無(wú)疑問(wèn),隨著人工智能繼續(xù)進(jìn)步,它將極大地改變我們的生活方式。這可以帶來(lái)無(wú)人駕駛汽車(chē)等技術(shù)進(jìn)步,還可以從事很多工作,從而解放人類(lèi),讓我們可以追求更有意義的活動(dòng)?;蛘?它可能創(chuàng)造大量失業(yè),形成新的網(wǎng)絡(luò)漏洞。復(fù)雜的網(wǎng)絡(luò)攻擊會(huì)破壞我們每天通過(guò)互聯(lián)網(wǎng)吸收的信息的可靠性,并削弱全國(guó)性和全球性基礎(chǔ)設(shè)施。——亞利桑那州立大學(xué)Origins Project項(xiàng)目主任勞倫斯·克勞斯(Lawrence Krauss)
人工智能是一項(xiàng)非常獨(dú)特的技術(shù),很容易以此為基礎(chǔ)在科幻小說(shuō)里設(shè)想恐怖的場(chǎng)景,例如人工智能奪取了地球上所有機(jī)器的控制權(quán),然后奴隸人類(lèi)。這種概率不大,但人們的確很擔(dān)心人工智能可能會(huì)在人類(lèi)不知情的情況下采取某些行動(dòng)。人們因此十分擔(dān)心這項(xiàng)技術(shù)可能引發(fā)意外后果。
的確應(yīng)該認(rèn)真考慮這些后果可能是什么,考慮我們應(yīng)該如何應(yīng)對(duì)這些問(wèn)題,但又不能阻礙人工智能的發(fā)展進(jìn)步。——加州理工學(xué)院宇宙學(xué)和物理學(xué)教授肖恩·卡羅爾(Sean Carroll)
▌人工智能可能取代很多工作
我擔(dān)心,隨著越來(lái)越多的細(xì)分領(lǐng)域使用機(jī)器來(lái)完成各種任務(wù),就業(yè)就會(huì)受到影響。(我不認(rèn)為人工智能與其他各種技術(shù)存在本質(zhì)的差異——它們之間的邊界很武斷。)我們能否通過(guò)創(chuàng)造新的就業(yè)適應(yīng)這種趨勢(shì),尤其是在服務(wù)領(lǐng)域以及官僚領(lǐng)域?或者,我們是否會(huì)為不工作的人支付薪水?——紐約大學(xué)計(jì)算機(jī)科學(xué)教授朱利安·托格流斯(Julian Togelius)
人工智能不會(huì)殺死或奴役人類(lèi)。它會(huì)在我們尚未想到應(yīng)對(duì)措施之前消滅某些崗位。白領(lǐng)工作也會(huì)受到影響。最終,我們會(huì)適應(yīng)這種趨勢(shì),但任何重大的科技變革都不會(huì)像我們期望得那么一帆風(fēng)順。——喬治·梅森大學(xué)經(jīng)濟(jì)學(xué)教授泰勒·科文(Tyler Cowen)
▌如何為人工智能做好準(zhǔn)備
整個(gè)社會(huì)需要為某些問(wèn)題做好準(zhǔn)備。一個(gè)關(guān)鍵問(wèn)題就是如何為就業(yè)的大幅減少做好準(zhǔn)備,因?yàn)槲磥?lái)的人工智能技術(shù)可以處理很多日常工作。另外,我們不應(yīng)該擔(dān)心人工智能“過(guò)于聰明”,反而應(yīng)該擔(dān)心最初的人工智能技術(shù)不像我們想象得那么聰明。
早期的自動(dòng)化人工智能系統(tǒng)可能犯一些多數(shù)人類(lèi)都不會(huì)犯的錯(cuò)誤。因此,必須教育社會(huì),讓他們意識(shí)到人工智能和機(jī)器學(xué)習(xí)技術(shù)的局限和隱含偏見(jiàn)。——康奈爾大學(xué)計(jì)算機(jī)科學(xué)教授巴特·塞爾曼(Bart Selman)
關(guān)于人工智能,有四個(gè)問(wèn)題需要擔(dān)心。第一,有人擔(dān)心人工智能對(duì)勞動(dòng)力市場(chǎng)構(gòu)成負(fù)面影響??萍家呀?jīng)產(chǎn)生了這種影響,預(yù)計(jì)未來(lái)幾年還將更加嚴(yán)重。第二,有人擔(dān)心重要決策將由人工智能系統(tǒng)來(lái)完成。第三,自動(dòng)化致命武器系統(tǒng)也是一大擔(dān)憂(yōu)。最后,“超級(jí)智能”也存在一些問(wèn)題:人類(lèi)有可能失去對(duì)機(jī)器的控制。
與另外三個(gè)眼前的擔(dān)憂(yōu)不同,超級(jí)智能風(fēng)險(xiǎn)主要還存在于新聞報(bào)道之中,短期并未構(gòu)成威脅。我們有充分的時(shí)間深入評(píng)估此事。——萊斯大學(xué)計(jì)算機(jī)工程教授摩西·瓦迪(Moshe Vardi)
我們不能將人工智能的進(jìn)步定性為違法行為,否則那些違反規(guī)定的人就會(huì)擁有巨大的優(yōu)勢(shì),而此人的行為將被視作違法。這不是好事。我們不應(yīng)該否認(rèn)人工智能的快速發(fā)展。當(dāng)規(guī)則被重新定義時(shí),忽視這一現(xiàn)實(shí)就意味著被邊緣化。
我們不應(yīng)該希望超級(jí)智能機(jī)器時(shí)代會(huì)有更好的生活環(huán)境。希望本身并不等于健全的計(jì)劃。我們也不應(yīng)該做好跟有自我意識(shí)的人工智能對(duì)抗的準(zhǔn)備,因?yàn)檫@么做只會(huì)讓它更加激進(jìn),這顯然并非明智之舉。最好的計(jì)劃似乎是主動(dòng)塑造正在發(fā)展的人工智能,讓它能夠跟我們和諧共處,互惠互利。——北約合作網(wǎng)絡(luò)防御中心高級(jí)研究員、愛(ài)莎阿尼亞信息系統(tǒng)部門(mén)前主管簡(jiǎn)恩·普麗薩魯
更多信息請(qǐng)關(guān)注微信公眾號(hào): “OK智能制造” 請(qǐng)掃描下方二維碼并加關(guān)注!