午夜精品人妻久久久-成年美女很黄的网站-在线看片免费人成视久网app-国产精品美女无遮挡一区二区-91精品国产综合久久久久-国产的免费视频又猛又爽又刺激-在线看片免费人成视久网app-久久香蕉国产精品视频-av一区二区三区高清

世界政策雜志:限制人工智能大爆發(fā)”徒勞無功” | 社會科學(xué)報

熊一舟/編譯
◤人工智能的巨大突破將產(chǎn)生前所未有的機遇,但也將帶來難以預(yù)測的風險 。因此,各國政府、大學(xué)和私營企業(yè)亟需重視并共同努力應(yīng)對智能技術(shù)可能帶來的不利后果 。
美《世界政策雜志》春季刊發(fā)表《外交事務(wù)》雜志編輯、哈佛大學(xué)訪問學(xué)者薩姆·溫特-萊維(Sam -Levy)和杰卡博·崔福森(Jacob )的文章,分析了人工智能可能給人類帶來的安全隱患和應(yīng)對之道 。

法控制的全球性災(zāi)難?
在過去數(shù)年中,人工智能領(lǐng)域的創(chuàng)新層出不窮 。2011年,IBM公司的超級計算機戰(zhàn)勝了最優(yōu)秀的人類選手肯·詹寧斯,贏得了美國智力游戲大賽“危險邊緣”的冠軍 。2013年,軟件公司宣布成功破解文字驗證碼,這是一種用于防止機器人及惡意用戶濫用網(wǎng)站或服務(wù)的驗證措施 。硅谷已經(jīng)出現(xiàn)了自動駕駛汽車 。更有甚者,2015年10月 , 由世界領(lǐng)先的人工智能公司谷歌公司研發(fā)的擊敗了歐洲圍棋冠軍 。與此同時 , 谷歌、IBM、等互聯(lián)網(wǎng)大鱷將數(shù)以億計的巨額資金投入到機器學(xué)習(xí)的研發(fā)之中 。
人工智能取得的突破將給全球的人們和商業(yè)帶來前所未有的機遇 。但與技術(shù)的進步如影隨形的是風險 , 而截至目前,風險在很大程度上被忽視了 。人們在進行人工智能研究時,將注意力聚焦在對經(jīng)濟不平等的影響,而忽略了一個更為重要的問題:在控制那些有一天可能會比人類聰明得多的系統(tǒng)方面所面臨的挑戰(zhàn) 。
當前的技術(shù)根本不具備應(yīng)對這種挑戰(zhàn)的能力,有人認為人類永遠無法獲得這種能力 。然而,科技界的精英人士指出了匆忙發(fā)展人工智能的消極后果 。兼任特斯拉(Tesla)和太空探索技術(shù)公司(Space X)首席執(zhí)行官的埃隆·馬斯克(Elon Musk)曾指出,發(fā)展人工智能無異于“召喚惡魔” 。比爾·蓋茨、蘋果公司聯(lián)合創(chuàng)始人斯蒂夫·沃茲尼亞克(Steve )、美國企業(yè)家與風險資本家彼得·蒂爾(Peter Thiel)等都對人工智能的潛在危險提出了警告 。在人工智能的所有研究者中,加州大學(xué)伯克利分校教授斯圖爾特·羅素( )是最直言不諱的,但他并不是唯一的一個:眾多專家都已警告人工智能可能構(gòu)成一個存在性風險 。2008年,在牛津大學(xué)舉行的一次關(guān)于全球災(zāi)害風險的會議上,對與會專家進行的調(diào)查顯示,他們將超級人工智能看作是對人類最大的存在性威脅,超過了核戰(zhàn)爭、流行性疾病和氣候變化 。他們認為 , 到2100年,超級人工智能導(dǎo)致人類滅絕的可能性為5% 。
這些專家擔憂的并非是這樣一幅場景:世界被尋求毒害人類的惡意計算機接管 。相反,他們擔心的是一項具有巨大能力的技術(shù)的出現(xiàn)可能帶來的意外后果 。這項技術(shù)的誘因完全來自數(shù)行計算機代碼 。當你對筆記本電腦進行了一項誤操作時,其后果頂多是丟失了一份Word文件 。但如果人工智能完全依照程序員寫下的指令實施了類似操作,而又無法完全預(yù)料到其所有后果 , 那么就將造成全球性災(zāi)難 。

能爆炸永無止境
出現(xiàn)能在所有領(lǐng)域像人一樣進行操作的機器也許還需耗時十余年,但一旦機器能達到通用人類智能,它們就能快速超越 。這種轉(zhuǎn)變的影響是巨大的 , 并且具有不可逆性 。上世紀后半葉,對人工智能風險的討論還僅限于科幻小說或電影,但現(xiàn)在則完全不同了 。
有限或弱勢的人工智能系統(tǒng)在事先設(shè)定的受限環(huán)境中運行 。從移動電話中的導(dǎo)航應(yīng)用到亞馬遜的購買建議系統(tǒng),再到機器翻譯工具和自動股票交易算法,此類系統(tǒng)能在各自領(lǐng)域以相當于或超越人類智能水平運行 。但自1997年以來,當IBM研發(fā)的“深藍”戰(zhàn)勝了俄羅斯超級大師加里·卡斯帕羅夫(Garry )之后 , 全世界最強的國際象棋選手就一直是計算機 。
盡管如此,“深藍”僅能在象棋領(lǐng)域擊敗人類 。與之相對的是通用人工智能,指的是能在眾多智能任務(wù)方面與人相匹敵的機器 。通用智能是一個難度很高的問題 , 其進展也比50年前專家預(yù)計的要慢 。然而,在過去5年里,新的視覺識別和語音識別系統(tǒng)已經(jīng)取得了突破性進展,這超出了人工智能研究者的預(yù)期 。
對人工智能安全性的最嚴重關(guān)切并非來自有限智能甚至是通用人工智能,而是將隨著通用人工智能而來的超級人工智能 。學(xué)習(xí)能力是獲得了通用智能的任何系統(tǒng)的內(nèi)在能力 , 因此人工智能將能夠提升其自身的能力,設(shè)計一個自身的改進版本,然后再由這個改進版本設(shè)計一個更為智能的版本 。這種永無止境的自我改進將導(dǎo)致“智能爆炸”,計算機科學(xué)之父圖靈的同事、數(shù)學(xué)家I.J.古德(I.J.Good)早在1965年就預(yù)測到了這一點 。
超級人工智能的到來尚有時日,現(xiàn)在考慮如何應(yīng)對似乎是杞人憂天 。但超級人工智能帶來的災(zāi)難場景并不難想象 。今天,社會運作在很大程度上依賴數(shù)字技術(shù) 。服務(wù)器儲存著金融資產(chǎn);維基百科和谷歌書籍集人類知識之大成;軍用和商用無人機日益由軟件進行操縱 。
著名人工智能安全專家埃利澤·尤德考斯基( )設(shè)想了一個災(zāi)難場景:一臺擁有人工智能的計算機一旦能夠接入互聯(lián)網(wǎng),就能檢索關(guān)于生物技術(shù)的所有研究論文 , 研發(fā)出致命性極強的病原體,并將DNA字符串的特征發(fā)送給提供DNA合成并與聯(lián)邦快遞存在業(yè)務(wù)聯(lián)系的在線實驗室(這種實驗室已經(jīng)存在) 。現(xiàn)在 , 只需有一個人接受報酬或受到欺騙,接收并打開來自聯(lián)邦快遞的小藥瓶,就將導(dǎo)致一次全球性的流行疾病爆發(fā) 。

際層面控制潛在危險
實際上,現(xiàn)在要限制人工智能的發(fā)展就如同在1975年限制互聯(lián)網(wǎng)的發(fā)展一樣徒勞無功 。
因此,各國的第一要務(wù)是理解這一問題,而非進行限制 。政府應(yīng)當與大學(xué)和業(yè)界聯(lián)合建立工作組,在國家和國際層面上制定一個分析人工智能發(fā)展存在的可能風險的框架 。這些工作組應(yīng)在人工智能研究者中推廣“最佳實踐”:在控制問題上進行協(xié)作與共享,并承諾一旦通用智能的安全風險上升,就進一步采取安全措施 。越早制定一份將安全置于速度之前的規(guī)范越好 。過去數(shù)年,通過各方密切合作,已經(jīng)在核能和基因工程領(lǐng)域制定了類似規(guī)范 。
此外,政府還應(yīng)對人工智能安全性研究進行投資,單靠私人投資遠遠不夠 。在國際層面,應(yīng)借鑒控制具備潛在危險性技術(shù)的全球努力 。1972年,世界各國會聚一堂 , 討論暫停生物和毒素武器的研發(fā)、生產(chǎn)和儲存 。1975,在包括美國和前蘇聯(lián)在內(nèi)的22個國家批準后,《禁止生物武器公約》生效 。截止到2015年,173個國家簽署了該條約 。當然,生物武器和人工智能是兩碼事 。最明顯的是,人工智能并非武器 , 也不會成為一種武器 。但人工智能可在很多方面獲得廣泛使用這一事實,使得控制其安全發(fā)展變得同樣極具挑戰(zhàn)性 。
制造生物武器也許符合某一國家或流氓行為體利益而不是所有人的利益,但開發(fā)強大的人工智能系統(tǒng)卻符合幾乎所有人的利益 。不過人工智能戰(zhàn)爭 漢化,并不是所有人都會審慎考慮是否能控制自己制造的人工智能系統(tǒng) 。
當前,美國匯聚了全球大量工程技術(shù)精英,這使它很有可能成為首個研發(fā)出超級人工智能的國家 。但是 , 美國對超級人工智能研發(fā)的嚴格限制使某些研發(fā)項目進入地下狀態(tài)或轉(zhuǎn)移海外 。因此 , 國際合作比單邊措施更為行之有效 。合作有助于避免人工智能領(lǐng)域的“軍備競賽”,防止競爭者因恐懼落于人后而大幅削減對安全防范措施的投資,并有助于更公平地分配超級人工智能帶來的好處 。
國際層面和各國政府、大學(xué)和私營公司之間的協(xié)作是確保人類安全獲得通用人工智能益處的關(guān)鍵 。今天,世界上最聰明的數(shù)學(xué)家和計算機科學(xué)家正在私人實驗室工作人工智能戰(zhàn)爭 漢化 , 推動人工智能技術(shù)的進展 。在大多數(shù)情況下,他們關(guān)心其工作所產(chǎn)生的社會影響 。世界頂尖大學(xué)的研究人員正致力于解決與這些研究相關(guān)的風險 ?,F(xiàn)在已經(jīng)到了政府提高警惕,并開始理解人類下個世紀將要面臨的最嚴峻的技術(shù)和倫理挑戰(zhàn)的時候了 。一旦出現(xiàn)任何失誤,人類將萬劫不復(fù) 。
社會科學(xué)報
【世界政策雜志:限制人工智能大爆發(fā)”徒勞無功” | 社會科學(xué)報】本文到此結(jié)束,希望對大家有所幫助 。