《大家論壇》科技災難視角:AI將反噬人類 若開發者不跟社會對話

鮑恩(Seth Baum) 2018年05月26日 07:00:00

鮑恩

• 智庫全球災難性風險研究中心執行董事

 

近期人工智慧(artificial intelligence,AI)領域的各項進展堪稱一日千里。從運輸到醫藥再到國防,人工智慧幾乎正在改變所有社會領域。因此需要考慮一下,當AI變得比現在更為先進時,會出現什麼樣的狀況。

 

狹義人工智慧發揮空間尚有限

 

有種世界末日論說,人工智慧驅動的機器將智勝人類,接管整個世界並殺死所有人。這種描寫經常出現在科幻小說,但也時常被否定,因為人類仍然牢牢掌控著局面。不過許多人工智慧專家非常嚴肅地看待此一末日的可能性,而抱持這種態度是完全有必要的,社會的其他成員也應如此。

 

為了解風險究竟在哪裡,就要去理解「狹義人工智慧」(narrow AI)和「通用人工智慧」(Artificial General Intelligence,AGI)之間的區別。狹義人工智慧一次只能在一個或幾個領域進行運作,因此雖然它可能在某些特定任務中勝過人類,但仍然受於人類控制。

 

相比之下,通用人工智慧可以跨越多個領域思考,因此可以在複製許多人類智力技能的情況下同時保留電腦的所有優點,比如完美記憶力。借助精密複雜的電腦硬體,通用人工智慧可能會超出人類的認知。事實上通用人工智慧的發展似乎是無上限的

 

就目前而言,大多數人工智慧都是狹義人工智慧。事實上,即使是目前最先進的系統也只具備有限的通用性。比如雖然Google DeepMind的AlphaZero系統能夠掌握圍棋,國際象棋和將棋——使其比其他大多數只能應用於單一特定活動的人工智慧系統擁有更高的通用性——但AlphaZero系統,仍然只能在某些高度結構化的棋類遊戲的有限範圍內發揮。

 

專家對通用人工智慧態度不一

 

許多知識淵博的人對高級通用人工智慧的前景不屑一顧。美國壬色列理工學院(Rensselaer Polytechnic Institute)的布林斯瓊(Selmer Bringsjord)和耶魯大學的麥德莫特(Drew McDermott)等人,認為人工智慧不可能超越人類。其他人,諸如薩賽克斯大學(Sussex University)的博登(Margaret A. Boden)和艾倫人工智慧研究所(Allen Institute for Artificial Intelligence)的伊佐奧尼(Oren Etzioni),則認為與人類等齊的人工智慧在遙遠未來可能實現,但現在開始擔憂則為時過早。

 

跟那些試圖質疑氣候變化科學的怪人不一樣,這些懷疑論者可不是些邊緣人物。他們是電腦科學及相關領域的傑出學者,所以觀點也必須好好重視。

 

但也有一批傑出學者,包括紐約大學的查莫斯(David J. Chalmers)、耶魯大學的達福(Allan Dafoe)、加州大學柏克萊分校拉塞爾(Stuart Russell)、牛津大學的博斯特羅姆(Nick Bostrom)和路易斯維爾大學的揚波洛斯基(Roman Yampolskiy)都擔心通用人工智慧會對人類構成嚴重甚至事關種族存續的威脅。由於辯論雙方都有龐大的專家團支持,因此我們其他人應該對此保持開放的態度。

 

此外,通用人工智慧已經成為大型研發的重點。我最近完成了對通用人工智慧研發項目的調查,涵蓋六大洲、30個國家中的45個項目。許多正在進行的研究項目都由百度、臉書、Google、微軟,騰訊等大型企業以及卡內基美隆大學(Carnegie Mellon University)、哈佛大學,史丹佛大學以及中國科學院等一流大學來執行。如果簡單假設這些專案都會失敗顯然不夠明智。

 

人工智慧發展仰賴國際努力

 

考量通用人工智慧潛在威脅的另一種方法,是將其與其他災難性風險進行比較。在1990年代,美國國會認為應當指示美國太空總署(NASA)追蹤那些可能碰撞地球的大型小行星,即便在一個世紀內發生這種情況的機率僅為1/5000。在通用人工智慧方面,根據研發速度以及專家關注度的強弱,在下個世紀中發生災難的機率可能高達1/100,甚至1/10。

 

那麼問題就是如何解決這個問題。首先,我們需要確保這類研發都是以負責、安全和道德的方式來進行。這需要那些在人工智慧領域工作的人與政策制定者、社會科學家和關注這問題的民眾進行更深入的對話。那些在此領域的人了解這項技術,其中一些人還會按照商定的標準來設計這項技術;但不能讓他們獨自去制定這些標準。那些人工智慧應用程式的開發者大多不習慣考慮自身工作的社會影響。為了改變這一點,就必須讓他們接觸外部觀點。

 

政策制定者也將不得不處理通用人工智慧的國際屬性。目前大部分相關研發都在美國、歐洲和中國進行,但大部分都是開源代碼,這代表工作可能在任何地方完成。因此儘管某些區域研發中心應該在建立標準,和道德基礎規則發揮主導作用,但這最終會是整個國際社會的工作。

 

解決通用人工智慧所引發風險的努力,有一部分可以應用在已經實施、針對狹義人工智慧的政策措施之上,達到展望未來的效益。例如由馬里蘭州民主黨眾議員德萊尼(John Delaney)發起的新兩黨人工智慧小組會議。而在研究短期和長期人工智慧風險的人們之間,也存在著更多協同合作的機會

 

但無論狹義人工智慧和通用人工智慧是被放在一起或是分開考慮,最重要的是我們現在得採取建設性行動,儘量減少發生災難性事件的風險,不然等到風險真正來臨時,一切就已經太遲了。

 

 

© Project Syndicate

 

 

(原標題為Preventing an AI Apocalypse,文章未經授權,請勿任意轉載)

 

喜歡這篇文章,請幫我們按個讚

【上報徵稿】

 

上報歡迎各界投書,來稿請寄至editor@upmedia.mg,並請附上真實姓名、聯絡方式與職業身分簡介。

 

一起加入上報Telegram,新聞不漏接!@Telegram

標籤: AI 人工智慧
回頂端
@