AI代理人技術日新月異,不過潛在風險卻令人憂心,AI模型愈自主,就愈有可能違背人類指令,並將完成任務與維護自身生存,置於人類利益之上。
隨著AI工具進入我們職場和生活中的更多領域,在讚賞它的無窮潛能之餘,也伴隨著對它內建偏見、持續造成不平等,以及消耗巨量能源和水資源的擔憂。但現在,一項更具危害性的發展正在萌芽:隨著AI代理人被委派自主解決任務,它們將帶來許多新風險,對脆弱的民主制度影響尤為突出。
儘管AI生成的錯誤訊息已經是巨大問題,但我們尚未能理解,更遑論控制這項快速演變的技術。
部分問題在於,推進AI代理人的公司,煞費苦心地轉移公眾和監管機構對潛在危害的注意力,這在世界上某些地區特別嚴重。倡議更安全、更合乎道德技術的那些人,需要幫助公眾理解AI代理人是什麼、如何運作。唯有如此,我們才能就「人類如何對AI代理人施加某種程度的控制」,進行實質有意義的討論。