當我們面對生成式AI席捲全球的浪潮時,一種奇特的信念也悄然蔓延:那就是相信《魔鬼終結者》那樣的災難場景絕對不會發生。這不再只是對科技的信心,而是一種信仰—對某種「看不見但善意的力量」的信仰,仿佛會在關鍵時刻介入、保護人類不受自創技術的反噬。
電影裡的Skynet之所以恐怖,不只是它的火力,而是它在獲得判斷能力後,對人類下了極端而邏輯自洽的結論:人類是威脅,必須剷除。這並非胡亂想像,今日已有不少科技倫理學者、人工智慧專家,警告所謂的「強人工智慧」(Artificial General Intelligence, AGI)將具備這種推理與行動能力。
然而,許多學界與媒體人卻對這種風險一笑置之。問題在於:他們對這場災難不發生的期待,其實建構在一套未經驗證、無實體保證的善意想像上。
他們相信總會有政府單位、企業自律、道德共識、國際合作—或者「科技人本善」這樣的觀念來守護我們。這種論述說穿了,與相信上帝會降臨拯救末日無異。
一旦AI擁有高度自主能力 人類規範恐難抵擋
身為加州州立大學的國際關係與政治學講師,我也被政治學系與刑事司法系聯合推舉,擔任學校「AI教學應對委員會」的成員。過去半年來,我親眼見到教師與學生在面對ChatGPT等工具時的巨大落差:教師懷疑、禁止,學生暗用、依賴,學術倫理與學習信任陷入膠著。
但這場對話的真正重點並非「要不要用AI」,而是我們是否準備好去處理一個比我們快、比我們強、也可能不再需要我們的智慧體。AI的發展不是線性,而是爆炸性的。一旦某種模型擁有了高度自主的學習與執行能力,過往人類設下的安全閥、道德框架與政治規範,很可能根本來不及反應。
簡言之,如果我們不相信某種仁慈又強大的力量會及時介入,那麼「AI不會造成災難」這個說法就是一種虛假的安全感。而這種信仰,恰恰才是我們真正的風險。
這個問題,不只是西方國家的哲學難題,也深深牽動台灣的未來。當前台灣引以為傲的半導體產業正站在全球AI革命的中心,但我們卻少有真正針對強人工智慧的風險思考。我們在教育上是否準備好因應AI衝擊下的學術誠信?我們的政策與產業是否能及早設定倫理與安全邊界?
面對不可預測的行為體 台灣準備好了嗎?
更關鍵的是,台灣的國安決策機構是否已意識到,當演算法開始影響輿情、戰略判斷,甚至武器操作時,這些科技就不只是工具,而是不可預測的行為體?
我們應該轉向更誠實的提問:若我們無法保證科技的走向為人類所控,那我們憑什麼如此放心地繼續發展?而我們是否有勇氣面對一個可能已經超出人類控制的未來?
願我們不是用信仰來逃避風險,而是用制度、科學、與謙卑來迎戰未來。
作者簡介_湯先鈍 Simon H. Tang
Californian State University, Fullerton 與 California State University, Long Beach兼任教授;台灣大學法律系學士,PhD of Claremont Graduate University