• 關於我們
  • 活動快訊
  • 新聞發布
  • 科技新知專欄
  • 教學資源下載
  • 網路安全資料館
  • 臉書粉絲頁
  • Youtube官方頻道
兒童版 青少年版 家長版
入口網

入口網

兒童版 青少年版 家長版
入口網
  • 關於我們
  • 活動快訊
  • 新聞發布
  • 科技新知專欄
  • 教學資源下載
  • 網路安全資料館
科技新知專欄
首頁 > 科技新知專欄 > AI的判斷、理由與責任:從技術透明走向社會信賴的制度重構
2026.02.25

AI的判斷、理由與責任:從技術透明走向社會信賴的制度重構

關於AI使用的信任,可以使用「可信度」(trustworthiness)與「信賴」(trust)的二層結構切入......
另開新視窗分享到Facebook 另開新視窗分享到Line

AI的判斷、理由與責任:從技術透明走向社會信賴的制度重構

李長潔  淡江大學大眾傳播學系助理教授

 

信任的兩個層次:從「值得信賴」到「信賴校準」

關於AI使用的信任,可以使用「可信度」(trustworthiness)與「信賴」(trust)的二層結構切入,十分貼合近年信任研究的核心命題,信賴常與系統內在可靠性不同步,而不同步會導致過度依賴(overreliance)或拒用。在一項以AI推薦系統為情境的實驗研究中,研究者直接指出「AI信賴」(AI trust)與「可信度」(trustworthiness)的落差可能導致使用者在行為上出現過度依賴或拒用。也就是說當信賴大於可信度時,使用者選擇依賴;而可信度大於信賴時,使用者則可能拒用。這與我們對「幻覺」的分析形成互補,幻覺放大了「語言可信感[1]」與「事實可信度[2]」之間的斷裂,使社會更難把信賴校準在合理區間內(Glikson & Woolley, 2020)。

 

從更宏觀的社會資料看,信任也與「可責難性焦慮[3]」緊密相連。以歐洲超過三萬名受訪者資料建立的模型,把「責任不清、無處申訴」明確列為AI相關擔憂之一(Omrani et al., 2022);研究並指出信任與擔憂呈負向關係,顯示公共信任並非只由準確率驅動,而受到責任結構[4]是否可理解、可申訴所牽引。因此,「人們要的不是How,而是Why」,可以再推進一步,社會在追問的其實是,我們是否可以有校準的信賴條件,包括可申訴、可撤回、可補救等。

 


[1]「語言可信感」通常指一段語言表達(文字或口語)在接收者心中引發的可信度知覺,人們在讀到或聽到訊息時,會根據用詞、語氣、結構、證據呈現方式與一致性等線索,判斷「這段話值不值得相信」。

[2]「事實可信度」指接收者對一段敘述在「事實層面是否正確、可被驗證、可被依據證據支持」的主觀評估。

[3]「可責難焦慮」指個體在做決策或採取行動時,因為預期自己(或自己所屬角色)可能被指責、追究責任或承擔法律/倫理後果,而產生的焦慮狀態。

[4]「責任結構」(responsibility structure)指一個系統或情境中,對「誰在什麼環節負責什麼」所做的角色—任務—權限—問責之配置方式,包含決策權如何分配、義務如何界定、失誤或傷害發生時責任如何歸屬,以及是否存在可執行的申訴與制裁機制。 

 

黑盒子困境的核心:可接受理由與可歸責邊界

相對於「透明」,AI造成的「黑色地帶」很多時候不只是「它到底怎麼算出答案」的技術問題,更像是「出了事到底該怪誰」的責任問題,這點在所有人機互動的領域回顧研究中皆相當一致。從Glikson與Woolley(2020)對相關文獻的檢視來看,把信任拆成認知信任與情感信任兩條路徑,並指出透明性、可靠性等因素對認知信任具有關鍵性。這裡的「透明」在社會面向的含義,它指向可被理解與檢驗的正當性敘事,用以劃定責任邊界與補救路徑。

 

本文也提醒,情感信任更容易被擬人化、外觀與親和等線索觸發,且這些線索可被界面設計操控,與實際能力未必一致。這正好支撐我們對「AI擅長提供像理由的文字」的批判:當「可接受理由」被包裝成「可親近理由」,社會更容易把信賴錯置到不該承擔風險的地方。

 

「為什麼」的兩種回答:解釋不等於正當化,且可能導致錯置依賴

把「為什麼」分成「你怎麼做出這個判斷(How)」和「你憑什麼這樣判、這樣判合不合理(Why)」之後,再看實證研究會發現一點,AI給出解釋的確常會讓人更信任它,但這種信任不一定是應該有的信任,而且會因情境不同而改變(Afroogh et al., 2024)。

 

以「可解釋AI能不能讓人建立有根據的信任(warranted trust)」為主題的回顧研究指出(Afroogh et al., 2024),把解釋加進系統裡,確實有機會讓人更信任AI,但這種效果不會在所有情境都成立。換句話說,「有解釋」不等於「一定更值得信任」,解釋的形式、使用情境、以及系統本身的表現狀態,都會改變結果。

在各種解釋方式中,研究發現特徵重要性(feature importance)往往比反事實解釋更能提升使用者的主觀信任與理解(Afroogh et al., 2024)。因為特徵重要性[5]直接告訴人「模型這次主要看重哪些資訊」,比較符合人們理解決策的直覺;相較之下,反事實解釋雖然能說明「如果哪些條件改變,結果就會不同」,但對部分使用者來說更抽象、也更難轉成可操作的判斷。

 

更值得注意的是,當系統表現不穩定或品質起伏時,解釋可能反而讓人更敢用、用得更重,結果變成過度依賴(Afroogh et al., 2024)。原因在於解釋會帶來一種「我好像理解了」的心理安全感;但如果AI其實不夠穩定,這種安全感就可能把人推向高風險的使用行為。

 


 [5] 所謂「特徵重要性」是指在模型做出某個預測時,哪些輸入特徵(欄位或變數)對結果影響最大?影響大到什麼程度?影響方向是讓預測變大還是變小?你可以把它想成模型的「關鍵依據排名」或「影響力分數」。

 

讓AI進入信賴體系:從三種制度模型走向「文件—認證—申訴」的治理鏈

根據討論,我試著提出三個制度性模型,即代理(Agency)/權威(Authority)/信託(Trust)是三種把決策交付給AI的制度關係。「代理模式」(Agency model),指使用者本來有能力判斷,只因成本或效率而委託AI代辦,因此信任建立在「可監督、可查核」;權威模式(Authority model),指使用者缺乏專業,只能對被制度承認的「專家型AI」表示敬讓(deference),此時信任主要來自資格認證、標準化驗證、倫理規範與撤銷/懲戒機制,而非使用者理解推論細節,責任焦點落在授權、導入與監管該系統的機構與供應者;「信託模式」(Trust model)是最強交付,AI的決策直接影響個人重大利益,當事人難以即時控制,因此可解釋的重點在「可問責」(accountability),誰設定判準、誰批准部署、如何申訴更正與補償、如何留下可稽核的理由鏈(traceable justification)。三者差異可概括為:代理重可查核;權威重認證撤銷;信託重問責。

 

代理/權威/信託三模型,已把「信賴」放入制度差異中。信賴的制度化需要一條可稽核的鏈條,至少包含文件化、第三方評估、與可申訴性:

  1. 文件化,以SDoC(Supplier's Declaration of Conformity,全稱供應商符合性聲明)為例:在信任治理的系統性回顧中(Afroogh et al., 2024),SDoC 被視為一種以透明、清楚、全面文件來提供「可用線索(cues)」的非技術方法;它可描述系統如何訓練、部署、測試、適用與不適用情境,以及倫理疑慮。這類文件主要對能解讀指標的專家有利,可能對一般使用者造成不利,因此需要專家機構介入評估,使非專家得以依賴其背書。這正對應在「代理/權威」模型中的差異:代理偏重可監督性;權威偏重認證與懲戒。
  2. 認證與監管生態,信任需要權威節點:公共不信任可能源於監管生態發展不足;建立規則與執行資源,才會使AI在公共意義上更值得信賴。這與「權威模型」的追問一致:誰授權、如何撤銷、出錯如何懲戒,構成社會能承受風險的制度條件。
  3. 申訴與補救,把「無處申訴」視為信任警訊:Omrani 等人(2022)的調查指出,人們在使用AI技術時最在意的擔憂之一,是責任不清楚,不知道誰該負責任,以及出問題時不知道要找誰申訴、也不知道怎麼獲得補救。這表示在需要高度信託的情境(例如醫療、金融、公共治理)中,「可解釋」的意義不應停留在讓人聽懂系統怎麼做決定;它還必須接到可問責與可補救的制度安排:出了錯能追責、能申訴、能更正、也能補償。

 

此外,「道德洗白」(ethics-washing)會傷害信任,當使用者覺得企業只是在表面展示倫理合規,反而會降低信賴(Choung et al., 2023)。這與本文強調的「責任不是客服話術」,形成高度同構,即制度若只獎勵敘事,不要求可驗證的責任鏈,倫理語言會變成信任侵蝕機制。

 

補強一個社會溝通視角:信賴需要「共同建構」的制度修辭

我原以法律與哲學為主軸來進行討論,若再引入溝通研究的參與式觀點,能把「制度重構」說得更具操作性。Upton(2014)的參與式研究批判發展工作過度依賴可量化成果,並指出外部組織常因欠缺問責、透明、草根參與而被批評。這段對AI治理有一個直觀映射,若AI的制度設計只追求可量化的效能指標,卻忽略利害關係人的參與、申訴與在地脈絡,信賴難以穩定生成。換言之,信賴的制度化同時是一種公共溝通工程,它要求把「誰承擔何種責任」以可被社會共享的語言與程序固定下來。

 

從「可解釋」走向「可歸責、可校準、可補救」

綜合以上研究與法哲學框架,可得到三個結論:

  1. 透明與解釋提升信任的效應具條件性:XAI(Explainable AI,縮寫為XAI)在某些設計下確實提高主觀信任與理解,但也可能在性能不穩定時促使過度依賴。因此,治理目標較適宜設定為「信賴校準」而非「信任最大化」。制度若只把「解釋輸出」當成合乎規定,容易把風險外包給使用者。
  2. 信賴的制度基礎包含文件、認證、申訴與補救的連續鏈:要讓人對AI形成穩固的信賴,光靠系統「說得很清楚」還不夠,背後需要一整套制度串起來。像SDoC這類文件確實能提供一些可稽核的線索,讓外部有材料可以檢查;但對一般使用者來說,這些內容往往太專業、看不懂,也不足以直接形成信心。於是就需要可信的專家或第三方機構來評估、把關與背書,讓非專家也能有依據判斷。同時,公共信任也取決於監管生態是否成熟,能否迫使組織承擔倫理與法律責任。當社會擔憂「責任不清、無處申訴」時,「可補救」成為信賴的結構性條件,此與「理由配置責任[6]」形成閉環。
  3. 信任很容易被界面與敘事操控,倫理語言也可能反向侵蝕信賴:情感信任可能被擬人化線索與親和設計拉動,且這些線索與真實能力未必一致;企業若以倫理敘事替代可驗證責任,還可能落入「道德洗白」,造成信任折損。因此,社會若把「能說」誤認為「能負責」,AI會成為責任逃逸的放大器。

 

總結來看,「責任先於透明」的主張,可被更精準地表述為,AI的可解釋性應服務於可歸責與可補救的制度設計,並以信賴校準作為評估準則。這條路線要求我們把「Why」固定在制度可操作的節點上:誰制定判準、誰審核部署、誰監督、誰受理申訴、誰承擔損害、誰負擔修復。當這些節點具備可稽核證據與可執行程序,社會信賴才會從心理狀態轉化為永續的制度關係。

 


[6]「理由配置責任」可以理解為一種治理與設計原則,用理由(reasons)去對齊問責(accountability),讓系統的解釋、決策權與問責落點形成一致的結構。當AI被視為黑箱時,外界往往只能靠「避免懲罰」等外部誘因來勉強維持可信任性;因此特別強調需要在「行動者層級」把解釋與問責對齊,以支撐更健全的法律與治理框架。  

 

 

 

參考文獻

Afroogh, S., Akbari, A., Malone, E., Kargar, M., & Alambeigi, H. (2024). Trust in AI: progress, challenges, and future directions. Humanities and Social Sciences Communications, 11(1), 1-30.

Choung, H., David, P., & Ross, A. (2023). Trust in AI and its role in the acceptance of AI technologies. International Journal of Human–Computer Interaction, 39(9), 1727-1739.

Glikson, E., & Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of management annals, 14(2), 627-660.

Omrani, N., Rivieccio, G., Fiore, U., Schiavone, F., & Agreda, S. G. (2022). To trust or not to trust? An assessment of trust in AI-based systems: Concerns, ethics and contexts. Technological Forecasting and Social Change, 181, 121763.

Upton, S. (2014). Constructing the conspiring community: Using practices of invitational rhetoric to create sustainable solutions to community-identified needs (Doctoral dissertation, University of New Mexico).

 
 
 
 
 

 

作者:李長潔
李長潔博士現任淡江大學大眾傳播學系助理教授。 專業領域涵蓋未來學研究、科學傳播、數位語藝、組織傳播、文化研究與社會學。在教學方面,李博士教授行銷傳播概論、傳播理論、傳播作品精選、文創專案設計與行銷、多元文化與傳播等課程。
在學術研究上,李博士曾發表多篇論文,主題涉及數位環境中粉絲群體的形成對文化創意產業的推動性、未來意識教育的遊戲設計與實踐、新媒體的移動鑲嵌等。
李博士亦關注文化觀察,創辦了「偽學術」文化研究專頁,並主持相關Podcast節目,深入探討日常文化現象。多元身份與豐富經歷,展現了其在傳播學術與實務領域的活潑。
 
【李長潔】The News Lens 關鍵評論網(點此連結)
【偽學術】文化研究Fackbook粉絲專頁(點此連結)
【偽學術】文化研究Instagram(點此連結)
【偽學術 | 認真聽】Firstory Podcast(點此連結)
 

 [備註] 本篇文章封面圖片由網路新國民SmartKids採用Canva魔法媒體工具AI生成。

回列表
另開新視窗分享到Facebook 另開新視窗分享到Line
入口網 入口網
服務電話: 02-25621233
傳真號碼: 02-25621277
劃撥帳號: 17927432
服務信箱: ecpattw@ecpat.org.tw
服務地址: 104 台北市中山區民權東路二段26號4樓之5
衛生福利部公益彩卷回饋金
2020 ECPAT TAIWAN All Rights Reserved
Power by A-cart網頁設計
TOP