鄧聿文專欄:「一本正經的胡說八道」 人類會生活在AI的統治下嗎

鄧聿文 2023年02月23日 07:00:00
自我意識意味著AI清晰地意識到,雖然它是人類發明的,但它不屬於人類,作為人類的工具來使用,從而將自己與人類區分開來。(美聯社)

自我意識意味著AI清晰地意識到,雖然它是人類發明的,但它不屬於人類,作為人類的工具來使用,從而將自己與人類區分開來。(美聯社)

ChatGPT的橫空出世激發了人們對技術的極大熱情。有評論稱之為是第四次工業革命的開始。目前,美中科技巨頭爭相入場,紛紛宣佈即將推出自己的聊天機器人,或投入鉅資開發更先進的聊天機器人。人類一場人工智慧領域的新競爭已經形成。有人樂觀其成,有人也從中看到了人類可能被機器人超越的危險,後者警告,一旦人工智慧擁有自主意識,人類很可能會被智慧型機器人統治。

 

AI只是基於人類已有的經驗提供答案?

 

上帝在創造人類時,賦予了人類永不滿足的特性,讓人類被好奇心和想像力驅使,這才有了今天的科技進步。在人類幾千年的文明史上,曾多次遭遇過外部環境的幾乎毀滅性的威脅,但都戰勝了危機。這給了很多人樂觀的理由,認為智慧型機器人縱使再先進,它終究是人創造的,既然人不可能超越造物主上帝,機器人怎麼能超越它的「造物主」人呢?這一天是不會到來的,即使會來,也很遙遠,現在就擔憂這個問題,有點杞人憂天。

 

ChatGPT面世後,人們問過它各種各樣的問題,它的回答都有些中規中矩,很少能超出意外,被許多人戲稱為「一本正經的胡說八道」 。就單個人來說,它看起來比人聰明多了,因為單個人的知識是有局限的,就是最博學的人,他所懂得的也只是人類知識海洋的極少部分,超越了自己的研究、關注領域,就顯得無知,而這跟ChatGPT儲存的海量資訊根本沒法比。認為AI永不能超越人類的一個理由是,AI的智慧是建立在大資料基礎上,而無論是科學家們預先輸入的資料資訊,還是它以後對海量資訊的搜索,資料資訊本身是人類現存的,如果資料資訊處於保密狀態,無法公開搜索到,或者人類還只是在頭腦中醞釀某個想法和計畫,AI的資料資訊就停留在某個階段。換言之,作為AI智慧基礎的大資料總是要比人真實掌握的資料晚一步。比如,如果不給它輸入2023的經濟資料,它就無法回答涉及2023年的經濟問題,或者說這種回答在人看來會顯得非常可笑。因此,人可以利於這個資訊的時間差來控制它。

 

ChatGPT向人類打開了智慧型機器人擁有情感和生命的可能性和想像空間。(美聯社)

 

這看似能說服人。我們無論從事研究、實驗還是作決策,都是根據過去的案例和經驗來進行的。人類的大多數工作不過是對以往一種有規律的重複,農業時代和工業時代皆如此,因此經驗對人們認識事物才是最重要的。AI只是基於人類已有的經驗給我們提供答案。然而,總有些人能夠超越過去和現在的經驗,提出大膽的理論或猜想。比如牛頓的力學、愛因斯坦的相對論在他們那個時代都是超前,很少有人能夠理解他們的學說,但它們預示著未來。決策也一樣,高明的決策者雖然要參考歷史的同類決策,可不會被它束縛,這些是AI機器人做不到的。通俗地說,現在的AI機器人雖然有深度學習能力,但它還無法像人一樣「憑空想像」,它的深度學習能力只局限在現有的資料、知識、預言和結構上。

 

AI終會擁有自我意識?

 

但是,深信AI終將超越人類的人不這麼認為,在他們看來,ChatGPT的厲害之處是它的語言模型,事實對它來不重要,重要的是它能讀懂人們的問題,並根據預先輸入的資料資訊回答問題。相比以往的機器人,這是一個革命性的突破。它預示著AI終會擁有自我意識的那一天,而且不會太遙遠。自我意識只是人才有的屬性,AI如果有自我意識,很可能是人類的末日,這個世界會被AI統治。

 

自我意識意味著AI清晰地意識到,雖然它是人類發明的,但它不屬於人類,作為人類的工具來使用,從而將自己與人類區分開來。有了自我意識的智慧型機器人也就有情感和利益需求,當它發現自己的功能比人類強大後,反過來奴役人類,要人類為它服務,並非不可能。

 

現在的問題在於,AI自我意識的生成在未來成為現實的幾率到底有多大?馬斯克前不久表示,以AI技術的發展趨勢,五年內我們會發現人工智慧比人類更聰明,他特別指出,所有的人工智慧專案中,他最擔心谷歌的DeepMind,因為該項目構建的人工智慧本質是在所有遊戲中打敗人類,google的阿爾法狗在圍棋的人機大戰中,已經擊敗了包括中國世界冠軍柯潔在內的多位世界圍棋頂級高手,而google旗下的另一個機器人阿爾法元完全通過自我對弈,不學習人類棋譜,輕鬆打敗阿爾法狗。阿爾法系列就來自于谷歌DeepMind專案。假如智慧型機器人在所有的單項技能中都能打敗人類,作為整體的人類在它面前還有什麼優勢,少數天才的顛覆經驗的超前想像又能起到什麼用?何況,既然機器人在所有的領域都能打敗人類,那麼通過自我的學習、博弈和進化,並融合人類智慧,是可以發展出自我意識的。

 

目前人工智慧的發展處於有人監督的學習到無人監督的學習轉變階段,假如AI能夠擺脫人類智慧所能達到的限制,而電腦網路所具有的資訊和運算能力遠高於作為碳基生命的人類,整體上人工智慧的進化速度確實超過想像。想想,古代最博學的亞里斯多德如果哪天活過來,看到今天的ChatGPT,是不是一定會覺得不可思議,無法想像?同樣,我們今天儼然知道十幾年、幾十年、一百多年後AI技術的發展狀況,會不會也覺得不可思議?一些人工智慧專家認為,AI擁有自我意識可能比我們想像的還要早就來到。

 

假如AI能夠擺脫人類智慧所能達到的限制,人工智慧的進化速度確實超過想像。(美聯社)

 

ChatGPT向人類打開了智慧型機器人擁有情感和生命的可能性和想像空間。雖然這一天到來的具體日期不好預測,但著眼於最壞情況的假設,人類應該從現在起,為人工智慧的開發設置最基本的規則,包括人工智慧一旦真的具有自我賦能的意識,人類如何自保? 

 

專制政權借助AI技術強化其專制統治

 

這其中的一個關鍵,是人類現在就不能向人工智慧輸入專制統治的任何資料資訊,避免智慧型機器人通過學習此類資訊而在它具有自我意識後也摹仿人類的做法對人類實行專制。如果我們不向AI輸入人類的專制資訊,它就沒有這個記憶。然而遺憾的是,這在今天是無法做到的。因為人工智慧也被作為大國競爭的舞臺。很多人在問,為什麼ChatGPT不是最先在中國發明而是美國?提問者大概是想說,習近平的專制統治因為打壓思想和言論的自由,窒息了科研人員的創新力。其實這樣看問題太簡單,有人也可以反問,為什麼ChatGPT不是最先出現在日本或者德國,又或它為什麼不是最先由Google或者蘋果公司開發的?中國這類擁有技術實力的專制國家雖然不能第一時間研發出此類創新產品,但不等於它做不出第二個或第三個,事實上,百度宣佈3月推出自己的聊天機器人。原因在於,儘管中國當局的思想鉗制會干擾產品的開發,但影響的主要是AI的資料處理,而非技術問題,但中國也是資料大國,擁有大資料優勢,科研人員完全可以做到在AI的資料資訊輸入中規避政治等敏感資訊,儘管這會影響AI對此類資料資訊的獲取,可並不影響它的聊天功能。換言之,思想鉗制導致的某些資料資訊的缺席不是中國第一個開發不出聊天機器人的最主要原因,主因還是中國在AI技術上本來比美國就有差距,即使思想寬鬆,這個差距也存在,對此我們需要客觀看待。

 

其實,比起擔憂AI學會人類的專制制度進而對人實行專制來,當下更需警惕和擔憂的,是專制政權借助AI技術強化其專制統治。因為前者即使成真也是未來若干年後的事,而非現在的緊迫問題,但隨著聊天機器人的推出,AI技術大規模運用於社會,機器學習和人工智慧就可以被專制政權拿來作為控制人的手段,將專制統治推到極致。

 

索羅斯曾對此發出警告:「在專制國家和大資料豐富的資訊技術壟斷公司之間,正在形成一種聯盟,這種聯盟使新興的企業監控系統與已經發展的國家資助的監控系統結合起來, 將導致形成一個甚至連喬治·奧威爾都無法想像的極權主義的監控網路。」這種情況實際上在中國的三年抗疫中某種程度已經出現。一些論者指出,人工智慧可以極大替代人類勞動力,降低對勞動力的需求,這將改變專制統治者與大眾在勞動上的互相依賴關係,讓擁有技術的專制者不必在乎他們的具體感受;人工智慧還能高效準確的執行統治者的命令,而不會產生任何合法性、道德、意願等的約束,從而可以極大降低社會管制成本;人工智慧也可以賦予統治者強大的暴力能力,特別是武器等鎮壓工具的智慧化,使得統治者無需用一支龐大的人工隊伍去操持武器,從而形成極大的對內對外的征服和控制能力。

 

故對專制政權而言,作為機器屬性的人工智慧是一種絕佳的統治工具,它在經濟、管制、暴力領域的進一步完善,讓專制政權第一次對被專制者具有毫無顧忌的強大能力,想採取什麼樣的統治形態就採取什麼樣的形態,完全取決於其好惡。這種專制形態,會是人類歷史上最可怕的專政。

 

※作者為獨立學者/中國戰略分析智庫研究員

 

 




 

 

【上報徵稿】

 

上報歡迎各界投書,來稿請寄至editor@upmedia.mg,並請附上真實姓名、聯絡方式與職業身分簡介。

上報現在有其它社群囉,一起加入新聞不漏接!社群連結

 



回頂端