為什么總有大佬讓人類警惕人工智能?
“我們不希望機(jī)器人有自我意識!機(jī)器人無需有自我意識,好好地做我們讓它做的事情,做人類的忠仆,這樣就很好了。”
以上這句話是微軟全球資深副總裁、微軟亞太研發(fā)集團(tuán)主席洪小文近日的公開表態(tài)。從一些科學(xué)家、商業(yè)大佬等的言論來看,他們都對人工智能的發(fā)展也表現(xiàn)出了一定程度的擔(dān)憂。
霍金:人工智能會導(dǎo)致人類滅亡。
比爾蓋茨:人類需要敬畏人工智能的崛起。
馬斯克:人工智能是人類文明最大的威脅。
然而,對商界大佬們的隔空喊話不以為意的研究者們,正在一步步嘗試打開這個(gè)潘多拉魔盒。今年初,美國哥倫比亞大學(xué)實(shí)驗(yàn)室訓(xùn)練出的一款機(jī)器人,據(jù)稱可以自主認(rèn)識自己身體!
該實(shí)驗(yàn)室負(fù)責(zé)人霍德·利普森教授表示,這也許就是新生兒做的事情:了解自己是什么。并推測這可能是人類自我意識的進(jìn)化起源,雖然機(jī)器人想象自我的能力與人類相比還很弱,但這種能力可以通往自我意識。
也就是說,該機(jī)器人正在擁有“自我想象”和“自我學(xué)習(xí)”的能力并進(jìn)行“自我改進(jìn)”,機(jī)器人與人類的故事,或正在駛?cè)胛kU(xiǎn)的深水區(qū)。
為什么大佬呼吁警惕人工智能的聲音不絕于耳?機(jī)器人為何不能有自我意識?人工智能又給人類文明帶來了哪些威脅?本期前瞻經(jīng)濟(jì)學(xué)人邀請到行業(yè)機(jī)構(gòu)一起探討。
大佬們對人工智能如此擔(dān)憂的原因主要在于:科技的發(fā)展速度越來越快,甚至超出了科學(xué)家的預(yù)測。一旦具有自主意識的人造智能體或機(jī)器人被發(fā)明出來,很難保證其會完全在人類的控制下,那后果可想而知。
這種擔(dān)憂非常有必要,我們需要未雨綢繆,提前做好一切準(zhǔn)備。我們認(rèn)為可以從以下多個(gè)方面采取措施進(jìn)行預(yù)防,例如:
針對人工智能立法,就像禁止克隆人一樣,禁止研發(fā)制造具有自主意識的人工智能系統(tǒng);
全球各國要聯(lián)合起來,就像禁止核武器一樣,共同禁止各國政府、企業(yè)或個(gè)人研發(fā)制造具有自主意識的人工智能系統(tǒng);
如果最終具有自主意識的人工智能系統(tǒng)被發(fā)明出來,我們要采取一切手段做好協(xié)調(diào)和防衛(wèi)工作,以保障人類不會受到傷害。
當(dāng)前不止名人大佬,普通老百姓也害怕人工智能會威脅到自己的生存,跟自己搶飯碗。但我們認(rèn)為這個(gè)事情不必過分擔(dān)憂。
雖然人工智能的出現(xiàn)會代替很多人的工作,但是也會為人類帶來更多。因?yàn)槿斯ぶ悄芸梢詭腿祟悇?chuàng)造價(jià)值和財(cái)富,但是他們不怎么會消耗財(cái)富。就好比一個(gè)農(nóng)民,之前沒有人工智能的時(shí)候,他是自己種地養(yǎng)活自己;有了人工智能之后,可以讓機(jī)器人幫他種地,為他創(chuàng)造更多財(cái)富。
此外,很多危險(xiǎn)的、傷身體的工作,以前只能由人類自己完成,有了人工智能以后,人類就可以避免做這種工作,去做很多更有意義的工作,比如科研、藝術(shù)、創(chuàng)作等等。而且,人們也會有更多的時(shí)間去享受生活。
綜合上述機(jī)構(gòu)觀點(diǎn),前瞻經(jīng)濟(jì)學(xué)人認(rèn)為,科學(xué)是一把雙刃劍,盡管人工智能在造福人類、提高社會生產(chǎn)效率上起到重要作用,但作為新生事物,發(fā)展中隱藏的某些潛在風(fēng)險(xiǎn),不得不引起我們重視和警惕。
其一,人工智能自我意識覺醒或超出人類控制
自我意識是對自己身心活動的覺察,即自己對自己的認(rèn)識,具體包括認(rèn)識自己的生理狀況(如身高、體重、體態(tài)等)、心理特征(如興趣、能力、氣質(zhì)、性格等)以及自己與他人的關(guān)系。
長久以來,非人類的“意識”,都是被科學(xué)界視為禁忌的。
我們先來看看這則耐人尋味的科幻漫畫:
漫畫男主角高價(jià)購買了一個(gè)機(jī)器人女友,雙方相處融洽,男主甚至愿意為她傾盡所有。后來男主懷疑機(jī)器人女友劈腿,一氣之下把女友毀滅了。
故事結(jié)尾出現(xiàn)驚人反轉(zhuǎn),這個(gè)男主角才是機(jī)器人,而那個(gè)機(jī)器人女友是才是對他進(jìn)行測試的人類科學(xué)家。
在人類與機(jī)器人的相處中,具有自我意識的機(jī)器人,因無法處理感情問題出現(xiàn)故障,作出殺人舉動。
雖然只是一則漫畫,但也給我們一個(gè)啟示——擁有自我意識的機(jī)器人可能成為人類的朋友和工作伙伴,也可能失去人類控制毀滅人類,因?yàn)闄C(jī)器人有“自己的想法”。
科學(xué)產(chǎn)物的發(fā)展,從來不按科學(xué)家的意志為轉(zhuǎn)移。
人工智能自我意識覺醒之后將如何發(fā)展?擁有超智能的機(jī)器人,如果不具備倫理道德意識,會做出什么樣傷害人類的舉動?這個(gè)有想法同時(shí)比人類更聰明的家伙會甘愿臣服在人類之下?還是和人類爭奪資源、利益、權(quán)威引發(fā)地球大戰(zhàn)?
這一連竄問號,目前科學(xué)界不能給出明確答案,一切都是無法預(yù)知和控制的。并且目前全球政府暫未達(dá)成共識,禁止研發(fā)具有自我意識的機(jī)器人,這也是大部分大佬所擔(dān)憂的。
其二,人工智能被惡意利用對人類將是災(zāi)難性的危害
馬斯克對于人工智能最大擔(dān)心在于,它可能被惡意利用傷害人類。“它們可以散布假新聞,利用欺騙性的電子郵件賬號發(fā)布虛假的新聞通訊稿,從而挑起戰(zhàn)爭。”他說,“筆比刀更厲害。”
馬斯克的擔(dān)憂不無道理。事實(shí)上,當(dāng)前市場上正頻繁爆出一些負(fù)面新聞,直指一些機(jī)器人存在的安全漏洞,更可怕的是廠商對此問題不以為然。
例如能輕易對人類造成扭傷或骨折等嚴(yán)重人身傷害的工業(yè)機(jī)械臂,這類機(jī)器人大多數(shù)在工廠里與工人協(xié)同工作,一旦被黑客攻擊,后果不堪設(shè)想。
類似的漏洞還有能輕易被黑客改變安全程序,被變成“攝像機(jī)”的機(jī)器人,它們觀察并記錄主人的一舉一動,竊取主人隱私信息散布出去。
其三,有關(guān)人工智能的法律監(jiān)管不足
人工智能作為一個(gè)新興的行業(yè),全球法律監(jiān)管目前仍存在不足。而且隨著越來越多人工智能產(chǎn)品的研發(fā),或?qū)砀嗌鐣栴},都需要法律去完善保障人類權(quán)益。
當(dāng)前人工智能的法律風(fēng)險(xiǎn)主要集中于利用人工智能危害社會,造成刑事犯罪的風(fēng)險(xiǎn)。例如近年來無人機(jī)頻繁闖入各地機(jī)場凈空區(qū),多次造成航班晚點(diǎn),甚至對航空飛行安全構(gòu)成了威脅。
還有一些“擒拿格斗機(jī)器人”產(chǎn)品,因其具有高度自主性,可以自行對目標(biāo)進(jìn)行攻擊,一旦程序出錯(cuò)失控,則很可能向人群進(jìn)攻,成為人類公共安全的重大隱患,這都需要通過立法進(jìn)行規(guī)制。
此外,自動駕駛汽車的安全性問題已經(jīng)引起了廣泛關(guān)注,從自動駕駛汽車的生產(chǎn)資質(zhì)、上路許可,到發(fā)生事故后的責(zé)任分擔(dān),當(dāng)前法律均處于空白狀態(tài)。
因此,因人工智能引發(fā)的安全問題,迫切需要通過立法,為明確責(zé)任、解決糾紛提供有效的法律依據(jù)。
其四,人工智能可能導(dǎo)致失業(yè)和社會動蕩
另外一部分擔(dān)心來源于人工智能可能會導(dǎo)致失業(yè)和社會動蕩。
“未來機(jī)器人可以做任何工作,無一例外。”
工廠自動化已經(jīng)讓眾多傳統(tǒng)制造業(yè)工人失業(yè),人工智能的興起很可能會讓失業(yè)潮波及到中產(chǎn)階級,最后只給人類留下護(hù)理、創(chuàng)造和監(jiān)督工作。
人工智能和日益發(fā)展的自動化,到超人工智能時(shí)代,將可能大量取代中產(chǎn)階級的工作,導(dǎo)致社會更加不平等,甚至幫助少數(shù)人壓迫多數(shù)人,引起嚴(yán)重的政治動蕩等。(來源于前瞻網(wǎng))