近年來生成式人工智慧在企業界,彷彿成了最新僱用全年無休的數位助理。從策略簡報、行銷計畫到財務分析,帶來的效率提升不可小覷。人工智慧的問題在於它看起來「上知天文、下知地理」,卻未必真懂。然而,當員工愈來愈把思考外包給大型語言模型,企業管理決策風險也隨之上升。
人工智慧出錯並非新鮮事,問題核心乃是在語氣篤定的流暢回應中,使用者放下了從資訊幻覺、到奉承式偏誤、知識時差、與過度自信的懷疑與查核。若企業只見效率紅利,卻忽略針對人工智慧這些結構特性,設計治理模式與風險控管,不但無法成為輔助利器,恐反而付出昂貴的代價。
生成式人工智慧最廣為人知的風險,正是所謂的「資訊幻覺」(Hallucination)。這最容易被低估的錯誤,是系統性地生成看似完整、實則憑空捏造的虛假資料(Fabricated Data)。其他還包括錯誤資訊(Incorrect Information),甚至經過合理加工的自創情報(Invented Intelligence)。這些內容往往以過分自信的(Overconfident)語氣呈現,值得使用者警惕。大型語言模型是根據既有資料進行機率計算,而其並非真正地理解與思考。難怪業界常以「一本正經地胡說八道」來形容這類特性。。
另所謂的「奉承式偏誤」(Sycophancy Bias),也是相當重要的結構性問題。當模型透過語言線索揣摩使用者立場時,其回應往往傾向強化既有觀點,而非提供獨立、批判性的修正意見。許多情境下,人工智慧更像一位唯唯諾諾的幕僚,而非衡量全局、提出逆耳忠言的「機器版」顧問。這種的回饋易使決策者誤以為自身判斷已獲得客觀驗證,而忽略其他重要的變數與情境。
當資訊幻覺與奉承式偏誤疊加影響,甚至可對個人判斷與心理狀態造成實質衝擊。已有許多案例與研究顯示,使用者在長時間與生成式人工智慧互動下, 極易造成情感依賴, 愈談愈想愈窄,引導使用者朝向「鑽牛角尖」。甚至在極端情況下,對心理健康產生負面影響, 鼓動自我傷害或傷害他人,或使用陪伴機器人取代真人當作好友,甚至於是配偶。這種特性尤其在高度使用的青少年與孤立族群中更為明顯。對企業而言,這不僅是技術問題,更是一項攸關判斷品質、商業倫理與公司治理的課題。
除了資訊本身的真偽問題,生成式人工智慧還面臨「知識時差」(Knowledge Lag)的限制。由於模型受限於訓練資料的時間點,在公共政策、產業監管或企業競爭策略上,往往無法即時反映最新法規修正、技術創新、地緣政治變化,甚至是競爭對手剛宣布的布局。系統通常不會主動提醒使用者這一段分析可能已經過時,於是可能是用昨日的地圖,規畫明日的戰場。
時間落差再篤定的表達風格,誤用的風險便隨之放大。在不確定性、資訊變動快速,或已超出模型知識邊界的決策情境中,過時內容極易導致方向性錯誤。問題不在於人工智慧不知道,而在於它不知道自己不知道。若未建立必要的查核與更新機制,這種滿滿自信的資訊落後,反而成為決策過程中的風險來源。
在管理決策導入人工智慧的過程中,考驗的核心不在於技術先進,而在於能否建立一套以人為本、以 人工智慧為用的治理框架,既有效控管潛在風險,又放大其提升商業價值的優勢。畢竟管理決策的最終關照對象乃是人,科技的角色應是輔助人類做出更好的判斷,而不是取而代之。若缺乏足夠的專業知識與實務經驗,管理者其實很難判斷人工智慧輸出內容的品質與適用性;因此多層次驗證、交叉比對與即時查核不只是技術流程,更應被內化為企業治理文化的一部分。
組織也必須依據風險程度,界定哪些事情可以用、又該如何使用人工智慧。在高風險的情境下,如企業併購、重大投資決策、法遵合規、涉及機密資訊、敏感隱私,或需要高度同理與人際判斷的人事議題,不宜由人工智慧主導,應交專業人士進行獨立分析與決策。
需要最新資訊、專業判斷,或牽涉倫理與文化敏感性的事項,則屬中度風險,較適合採取人工智慧輔助搭配專家審核的模式。即便是在低度風險的應用,如草擬文件或整理資料,企業仍需透過教育訓練與制度設計,讓員工了解人工智慧的限制,培養批判性思考能力,並建立可查核、可追溯的標準作業流程。效率固然重要,但真正能為企業加分的,並不是用得快,而是用得穩、用得穩。
其實這類人工智慧的濫用, 在高等教育校園內已經越來越普遍,不只學生,連教職員也加入其中。例如2023年美國某知名大學的高階管理利用人工智慧寫全校公開信, 反被學生抓包抗議,最後被迫辭職。
另2025年6月,紐約時報報導美國一所名校,發生老師利用人工智慧準備上課投影片,卻忘了將「餵」給人工智慧的提示從投影片上刪除,學生下載後發現,要求退費該門課程未果,一狀控告學校(當然原告絕無勝訴可能)的怪聞。
而2025年10月,紐約時報另一報導某名校教授抓到學生集體舞弊,而這些學生寫給教授道歉信,居然非常地神似,一看就知道非人類所完成,被教授公布。以上固然聽來像令人莞爾的笑話,但也顯出人工智慧使用的倫理問題,需嚴肅以對。
或許您的人工智慧助理看來才華洋溢,但別忘了它同時也是博覽群書但食古不化的史學家、善於阿諛的馬屁精、無中生有的小說家,因為統計計算模式讓它看來好聰明。機器與模型強大的識別能力與資訊處理,並不能夠如同人類理解與判斷,唯有對人工智慧分析結果保持批判性的思維,方能做出明智的決策。
作者簡介_邱萬鈞
美國東北大學財務金融系教授 Northeastern University, Boston, MA