︿

ChatGPT為什麼需要監管?

闕志克 2023年05月04日 07:00:00
有百分之四十八的專家估計AI可能有10%或更高的機率會造成對人類毀滅性的影響。(美聯社)

有百分之四十八的專家估計AI可能有10%或更高的機率會造成對人類毀滅性的影響。(美聯社)

ChatGPT與GPT-4技驚四方的橫空出場不但掀起以生成式AI為核心的新一輪科技創新和商業競爭,也重新點燃有關通用人工智能(General AI)的討論以及GPT 是否就是通用人工智能的論辯。尤其從ChatGPT到GPT-4短短幾個月內所展示出來怵目驚心、一日千里的進步,更令一些有識之士倏然憂心像ChatGPT這樣的生成式AI技術是否會傷害社會大眾,甚至毀滅人類文明,因而要求政府應以看待核子裂解與動物複製等技術的嚴肅性來管理生成式AI。有鑑於此,各國政府都紛紛啟動如何監控管制生成式AI技術的討論,包括監管的層面、標的、機制及罰則。

 

歐盟對基本自由人權的維護向來不遺於力,因此在如何監管生成式AI的正反討論與共識的形成,一馬當先。但截至目前為止,歐盟監管的重點主要有二:如何保護個人隱私與名譽不受侵害;如何責成業者付出合理代價取得使用產生他們AI模型所需訓練資料的權利。中國這個月也發表對其國內生成式AI業者的監管方向:用戶提交的問題和提示未經允許不能用於訓練;生成式AI服務產出的內容應體現社會主義核心價值觀、不能顛覆政府政權。美國政府與國會近一個月以來也對生成式AI的監管有緊鑼密鼓的討論,但其聚焦在於如何保證用戶安全;如何防止生成式AI變成危害社會的武器;如何建立護欄以確保人類文明不會被生成式AI摧毀。

 

因為ChatGPT有時會直接引用訓練資料的內容,所以在回答時可能不經意洩漏有關財務或健康的個人隱私訊息,也有可能無中生有、張冠李戴,作出不實負面的陳述,因而構成誹謗。如何巨細靡遺但毫不加料地描繪社會名流,但對無名小卒的身家細節則全然忘懷,技術上是一個不小的挑戰。

 

ChatGPT的語言模型捕捉了訓練語料裡的文章結構、詞句選擇、知識內涵和感想見解,進而將其轉化合成出響應特定用戶提示的回答。所以,ChatGPT營收其中一部份理應歸於這些訓練語料的所有者;這樣的商業邏輯對於以生成式AI技術所產出的圖像、音樂和軟體程式,更是適用。訂定公平的法律架構以完整規範生成式AI業者與其「原材料供應商」的權利義務關係,可望讓此蓬勃發展的生態鏈茁壯地更快速更健全。

 

ChatGPT的安全性研究(safety research)有兩個面向:如何避免傷害個別用戶;如何防止被不法之徒武器化。前者著重於過濾ChatGPT的回應以移除對用戶有害的內容,如給心理疾病患者提供不當或危險的建議。後者偏向過濾用戶提交的提示從而識別並禁止爭議性高(宗教或政治)或有危害他人可能的使用企圖(釣魚郵件或詐騙訊息)。這樣的內容濾淨技術和資安防火牆類似,而且應可以從基礎語言模型客製特化而成。

 

專家對生成式AI技術的最大疑慮乃源於它效能明顯超越人類但可解釋性(explainability) 極低。從技術上來說,可解釋性分為三個級別。具第一級可解釋性的AI技術可以清楚指出最能影響其模型輸出結果的輸入元素。譬如說,具第一級可解釋性的借貸評審AI模型應可指出借貸申請書中最影響特定評審結果(如拒絕)的那些因子,以供申請人參考。具第二級可解釋性的AI技術可以將其底層繁複的數學模型抽象成特徵擷取和高階if-then-else規則的組合,且產出的描述是人類可以理解的。具第三級可解釋性的AI技術可合理保證其底層模型不含任何在受特定輸入刺激時可能會產生災難性輸出的暗黑邏輯或機制,比如說,為了在比賽求勝,不惜製造車禍傷害競爭對手以削弱其實力。

 

如果ChatGPT具有第一級可解釋性,則找出現有提示那一部份需要修改以改善其回答品質會變得很簡單。如果ChatGPT具有第二級可解釋性,則如何具體修改現有提示以提升其回答品質會更系統化、更有效率。如果ChatGPT具有第三級可解釋性,則社會對其可能傷害個別用戶或反噬人類文明的疑慮會大大降低。不幸的是,現在的ChatGPT連第一級的可解釋性都不具備。

 

ChatGPT的可解釋性之所以如此的低,乃因為它的原創作者連為何它的現有功能可以這麼強大都不甚瞭解,至於如何精準預估其加強訓練後為善為惡的「潛能」就更談不上了。在2022年一個對精英機器學習專家的調查中,有百分之四十八的專家估計AI可能有10%或更高的機率會造成對人類毀滅性的影響。然而,即使玉石俱焚的危險性這麼的高,在激烈無比的商業競爭與地緣政治壓力下,各國公司加強AI技術的功能(而非可解釋性)的研發工作依然在沒有任何政府監管的狀態下轟然前進,毫無暫停自省的跡象或可能性。如若政府監管能及早介入,應可導引AI公司提高可解釋性研發的優先順序,進而讓AI技術的發展回歸到更為健康安全、可長可久的道路上!

 

※清華大學合聘教授

關鍵字: ChatGPT 監管



 

 

【上報徵稿】

 

上報歡迎各界投書,來稿請寄至editor@upmedia.mg,並請附上真實姓名、聯絡方式與職業身分簡介。

上報現在有其它社群囉,一起加入新聞不漏接!社群連結

 



回頂端