《人工不智能》Artificial Unintelligence:當電腦自以為聰明

人工不智能

「只要把作文交給機器批改,老師就能騰出時間做更有意義的事。」——2014 年,一則教育科技新聞用這句口號宣傳自動作文評分系統。但當資料記者 Meredith Broussard 把一篇由亂碼、笑話與〈鋼鐵人〉劇透混合而成的文章餵進系統,結果竟拿到高分。那一刻,她意識到:在表面華麗的演算法背後,隱藏的是我們無法察覺、卻持續影響日常生活的謬誤。這本《Artificial Unintelligence: How Computers Misunderstand the World》揭開面紗,提醒所有被「科技萬能」神話包圍的你我——當世界愈數位化,判斷錯誤的後果也會被放大。

《人工不智能》作者與本書介紹

Meredith Broussard 是美國 NYU 阿瑟·卡特新聞學院的副教授,曾在《The Atlantic》《The New York Times》擔任資料記者。她自稱「前工程師、現新聞人」,橫跨科技與媒體的雙重身分,使她對「演算法如何被社會採用」保持既期待又懷疑的目光。撰寫本書的動機,源於一次替兒子報名暑期課程時,Broussard 發現校方的線上報名系統竟把孩子的種族欄位錯填為「其他」。這個看似瑣碎的 bug,牽出她多年的田調與採訪:從教育、醫療、金融到司法,一旦目標被量化,錯誤就能在龐大的自動化流程中被迅速複製。於是她寫下《Artificial Unintelligence》,不是要唱衰 AI,而是要戳破「Technochauvinism(科技沙文主義)」——一種凡事相信電腦優於人腦的迷思。

《人工不智能》核心觀念

1. 科技沙文主義:AI 不是萬能,甚至常常「無能」

Broussard 提出「Technochauvinism」一詞,描述我們傾向認為用電腦解決問題一定比人類好。她舉例美國司法系統採用的 COMPAS 再犯風險評分工具,非裔被判定為「高風險」的比率高出白人近兩倍,實際再犯率卻沒有差距。當社會將複雜的人性簡化為指標與打分,就等同把偏見寫進程式碼裡。

2. 資料 ≠ 真相:錯誤輸入會被無限放大

「Garbage in, garbage out」並非老生常談。在費城公立學校,校方曾利用演算法預測哪些學生可能輟學,結果 20% 學生被誤標示為高危險群,導致資源錯置、學生被貼標籤。Broussard 強調:資料蒐集與定義常藏著人為假設,若問題設計本身就有盲點,再高明的模型也只能產生錯誤的確定性。

3. 黑箱效應:透明度缺失削弱民主監督

許多商用 AI 模型以「商業機密」為由拒絕公開原始碼。書中揭露,美國某大型醫院以演算法分配醫療資源,卻因演算邏輯黑箱,讓慢性病黑人患者被低估治療優先度。當演算法影響生死,卻無人能審核其中邏輯,民主社會的基石就被侵蝕。

4. 過度自動化:便利外衣下的脆弱性

Broussard 分享 2015 年紐約地鐵一卡通讀卡機大當機事件:承包商將驗票系統全權交給演算法比對,卻忽略實體環境中的灰塵與金屬干擾。當讀卡率暴跌,乘客只能排長龍等人工檢票。自動化不是目的,而是手段;忽略人性與場域,就會變成高科技災難。

5. 人機協作,而非人類退場

本書並非反科技,而是主張「適度使用科技」。在 Braille 電子書專案中,Broussard 親見編碼員與視障者並肩校對,人類語感與情境理解補足了程式把點字翻成文字時的錯位。真正的未來,是由擅長邏輯的機器與擅長同理的我們共同打造。

6. 管理遺失群體:看見統計表外的人

「被統計平均抹平的人,往往是最需要被照顧的人。」Broussard 訪談紐約流浪漢庇護中心,發現城市預算分配系統只依據人口普查,但無家者、難民與非登記移工的數據空窗,讓他們在政策與演算法裡被消失。科技若忽視邊緣族群,將使弱者更弱。

《人工不智能》總結

在大數據與生成式 AI 雀躍的 2025 年,回頭讀《Artificial Unintelligence》像一記當頭棒喝。Broussard 的故事提醒我們:演算法不是水晶球,而是一面鏡子,只映照我們輸入的價值觀。若我們在鏡中只看見效率而忽視公平,就別驚訝鏡像世界變得狹隘且冷漠。

面向未來,我提出三點思考——

  1. 演算法倫理教育應成為公民基本素養:像交通號誌一樣,人人都懂規則,才能共同維護秩序。
  2. 建立跨域審查機制:決策系統上線前,須經工程師、社會學家、利害關係人三方審核,確保多元觀點。
  3. 把「錯誤回報」設計進流程:將使用者投訴視為模型訓練資料的一部分,讓系統能真正「學會」人類的複雜。

換句話說,我們需要的不是更聰明的機器,而是更謙卑的科技觀。當下一次你被智能客服擋在門外,或看見 AI 投遞的人才履歷篩掉非名校生,別急著責怪「電腦出包」——先問自己:我們是否把人性留在算法外?

「只有了解電腦的侷限,才能讓人類的可能性真正無限。」——留給讀者的 punchline

延伸閱讀/行動清單

  1. 閱讀《Weapons of Math Destruction》:Cathy O’Neil 以「數學毀滅性武器」擴大討論算法歧視。
  2. 關注台灣政府「可信賴 AI 指南」:了解本地監管動向,參與公聽會提出意見。
  3. 試做資料素養黑客松:組隊重現公共數據預測模型,親身體驗偏誤怎麼產生。

參考連結

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *