AI Podcast:人工智慧的偏見

作者 Brian Caulfield

人們很容易將人工智慧視為一項冷酷、公正無私又客觀的技術,自動寫作軟體開發公司 Narrative Science 的首席科學家 Kris Hammond 在我們的最新一集 AI Podcast 裡表示實情並非如此,原因在於人們從來不知道人工智慧何時會將我們的偏見故技重施到我們身上。

「正如同我們的偏見開始溜進我們對孩子的對話、訓練、教導方式裡,這些偏見也會悄悄出現在我們對人工智慧系統的對話、訓練、教導方式裡。」同時兼具西北大學計算機科學系教授及芝加哥大學人工智慧實驗室創辦人等身分的 Hammond 這麼說道。

Narrative Science 運用機器學習技術將資料變成故事,讓人們更加理解身旁發生的各種事物。該公司的自然語言生成平台「Quill」能夠確實逐字生成標題,自動生出營收報表及體育活動報導等內容。

人工智慧出現偏見的例子快速增長

還是西北大學 Medill/McCormick 科技媒體與新聞學創新中心主任的 Hammond 對人工智慧出現偏見一事提出質疑,不只是出於學術研究方面的興趣。訓練人工智慧處理各種難以量化的工作(像是判斷美醜)已經是件難事,在訓練處理信譽評估等某些人覺得較不受人們偏見影響的工作上,同為不易。

Hammond 在跟網路廣播主持人 Michael Copeland 對談時,表示:「我們希望自己創造出的人工智慧系統能夠冷酷到不帶一絲情緒,這樣它們就不會像我們一樣聰明、優秀又有創意,我們才能以此開玩笑。不過實情是,我們打造、訓練這些系統,有時候還將自己使用的推理規則用在它們身上,當然避免不了將我們對這個世界的看法灌輸到裡面。」

人工智慧能讓我們沒有成見嗎?

解決之道不只是瞭解我們在訓練人工智慧系統時,自己所抱持的偏見,而且還要瞭解我們自己的限制,進而訓練人工智慧系統,協助我們去跳脫極限。
Hammond 說:「人類身上集合著各種貌似有用的經驗法則,根本誤會了統計數據。而有著瞭解人類、瞭解人類行為和思考模式的人們,當然能精確設計出迎合人類喜好的機器。」

請通過 iTunesGoogle Play Music 或 Soundcloud 訂閱本頻道,即可收聽本週 AI Podcast 完整內容。

Fast(快速)、Furious(刺激)、Frugal(低成本)

要是錯過了 AI Podcast 第六集,值得你再聽一次:平面設計師,也是 Power Racing Series 創辦人 Jim Burke 聊到將行車電腦、百來根骨頭和一輛粉紅色的芭比吉普車拼湊起來,建立一個以Fast(快速)、Furious(刺激)、Frugal(低成本)為號召的自動駕駛賽車聯盟。

請通過 iTunes  Google Play Music訂閱,便可在 iPhone Android 裝置上收聽 AI Podcast 精彩節目。

圖片提供: Valerie Everett, via Flickr