隨著大型語言模型進步,生成式 人工智慧已成為各行各業重要的輔助工具,然而許多研究發現聊天機器人的結構性特性,使用者往往低估其決策錯誤的風險。企業在享受所帶來的成本節省外,需極為小心其潛在的危害。
資訊幻覺(Hallucination)是目前生成式 人工智慧最為一般人所熟知的問題。常見的包括生成虛假的資料(Fabricated Data)、錯誤資訊(Incorrect Information)、甚或自行發明的情報(Invented Intelligence),但卻常以過分自信的(Overconfident)語氣回答提問。因人工智慧原理,係根據所得資料加上統計演算所得出的結果,並非真的具思考能力,無怪乎許多時候聊天機器人被譏評為「一本正經地胡說八道」。
此外當人工智慧可使用運算模式探知使用者立場時,結果往往會不成比例地朝強化該觀點的方向發展,而非像與真人討論提供獨立批判糾錯,產生奉承式偏誤(Sycophancy Bias)。這種來自機器模型的「阿諛」,會使人誤以為其論點獲得專家認證,進而在判斷中忽略現實生活中其他應考慮的面向。
這種特性加上資訊幻覺,極易引導使用者朝向「鑽牛角尖」,以個人而言,也造成精神健康的威脅。例如社會孤獨者被聊天機器人鼓動輕生或傷害他人,或使用陪伴機器人取代真人當作知心好友,甚至於是配偶。這方面的問題在青少年中尤其嚴重。
另一項問題是受限於訓練資料的時間點「知識時差」(Knowledge Lag),在公共政策或工商管理上,難以反映最新的政策變化、技術突破、地緣政治動態或競爭新局。在使用者也不會被提醒,基於過時資訊進行規畫布局或策略訂定,容易做出錯誤結論。加上前述過度自信特質,在高不確定性或超出其知識領域的問題上,決策誤判風險大增。
在管理決策逐步導入人工智慧的過程中,真正的挑戰不在於技術本身,而在於能否建立一套以人為本、以 人工智慧為用的治理框架,取其提升商業價值之利,又能控制其風險之弊。畢竟管理與企業決策的最終關照核心乃是人,科技應用理順應人性,而非取而代之。
若缺乏足夠的專業知識與實務經驗,其實難以判斷人工智慧輸出結果的品質。因此,為避免系統性偏誤,多層次驗證、交叉比對與即時性查核不僅不可或缺,更應內化為企業治理文化的重要組成部分。
企業也需根據風險,區分可使用的業務以及如何使用人工智慧。高度風險者如企業併購、重大投資、法遵合規,或需高度準確、或涉機密情事、或觸敏感隱私、 或需同理共情、或解人事糾紛,就不宜直接使用人工智慧,交由專業人士進行獨立研究、主導處理為佳。決策需最新資訊、專業判斷、涉及倫理或文化敏感性者, 屬於中度風險, 人工智慧支援加上專家審核模式應較為適當。即便是低度風險如草擬內容或整理資料,在提高效率之際,也需透過教育及制度,使員工了解人工智慧應用的限制性,提升使用者批判性思考能力,並建立標準作業程序,確保使用過程可檢核追溯,維護使用結果的品質。
上述的論點在導入企業級人工智慧後更形重要。由於涉及納入組織內部資料庫,設定置信度警示值並建立假想敵測試,確保所有 人工智慧產生結果在進入決策系統前,需已完成必要的風險控管。
機器與模型再強大的識別能力與資訊處理,並不能夠如同人類理解與判斷,唯建立嚴謹的驗證、交叉比對與審核機制,並在合適情境中善用人工智慧,同時確保由人主導專業判斷,才能在降低風險下,極大化人工智慧的價值。
企業文化上而言,培養組織成員對人工智慧的結果批判性思辯能力,避免員工大腦被人工智慧所「外包」,進而平衡創新與治理以提升效率。「水能載舟、亦能覆舟」,可謂是企業應用人工智慧應謹守的原則。
作者簡介_邱萬鈞
美國東北大學財務金融系教授 Northeastern University, Boston, MA