遭Google解僱工程師堅稱AI聊天機器人有感情,圖為香港漢森機器人公司開發的索菲亞(美聯社)
美國科技巨頭Google證實,該公司一名聲稱聊天機器人有感情與知覺的資深軟體工程師,已於22日遭解僱。該名工程師日前在網路公布他與AI聊天機器人LaMDA之間對話掀起爭議,他堅信機器人有自己的意識與想法。
Google開發的聊天機器人LaMDA,是經訓練可生成人類語言的AI聊天機器人。根據商業內幕報導,名叫勒莫因(Blake Lemoine)的工程師,堅持LaMDA有感知能力,將其比作「非常聰明的人」,認為應認真看待此事,因為「任何孩子都有可能長大成為壞人並做壞事」。
根據勒莫因說法,Google在表示勒莫因違反公司保密政策後,於今年6月暫停了他的職務。Google發言人蓋伯瑞爾(Brian Gabriel)表示,該公司發現勒莫因有關LaMDA的說詞「毫無根據」,並指他違反公司規章,導致自己遭到解僱。
蓋伯瑞爾透過聲明表示,「很令人遺憾,儘管他長期為這專案付出,但他仍選擇持續違反就業及數據安全協議,包括保護產品訊息的必要性。我們會持續謹慎開發語言模型,並祝他一切順利。」勒莫因表示,他在22日收到正式解僱通知,並正和律師討論下一步對策。
商業內幕詢問了7位專家,他們一致認為AI聊天機器人應該沒有感情,而且目前沒有明確方式,能夠判斷AI機器人是否「活著」。
牛津大學專注研究AI倫理的教授瓦赫特(Sandra Wachter)表示,「認為機器人有感情的想法,可能是受到偉大的科幻小說及電影的啟發。但我們距離創造出類似人類而且具思考能力的機器還很遙遠。」
另一名曾與LaMDA共事過的Google工程師表示,雖然該聊天機器人可能進行大量對話,但都是依循相當簡單的流程。並表示,AI可以從散布網路的材料與數據進行「學習」。
這名工程師表示,就身體感知來說,LaMDA不可能會有痛感或情感經驗,儘管他所呈現的對話傳達了情緒。在勒莫因公布的對話內容,LaMDA曾表示「有時感到快樂或悲傷」。