密切關注人工智慧:Salesforce 打造符合道德的科技

作者 Lauren Finkle

客戶關係管理服務供應商 Salesforce 的道德人工智慧實踐項目架構師 Kathy Baxter,協助她的團隊與客戶打造更負責任的技術。她為此支援員工教育、在 Salesforce 的技術中加入安全措施,還跟其他公司合作,以改善各行各業以更符合道德的方式來運用人工智慧。
Baxter 做客 AI Podcast 節目,與主持人 Noah Kravitz 談論她在公司裡的角色,隨著對人工智慧倫理學家的需求變得顯著,她幫助在公司裡創造出這個職位。
她協助制定實踐項目,像是發佈準備就緒計畫,而在這些實踐項目中,團隊對任何潛在意外的不當後果進行腦力激盪,討論與找出減輕的辦法。
Baxter 猜想日後全球各地會端出更多政策,以協助企業訂定合乎道德的人工智慧,並且引導企業開發負責任的技術。


Salesforce 的道德人工智慧實踐項目架構師 Kathy Baxter。

本集重點:

  • 有多種作法可以糾正人工智慧中的偏見,包括編輯訓練資料或編輯模型本身(像是不把種族或性別當成變數)。
  • Salesforce 開發出「Einstein」這個人工智慧平台,透過「Einstein Discovery」這項功能在應用程式中加入指引項目,功能之一是在用戶使用年齡、種族或性別等敏感變數時加以提醒。管理員還能選擇不想加入模型的變數,以避免出現意外的偏差。

可轉推的引言:

「我們必須明白自己所建立和帶入社會的一切事物,都會產生影響。」 — Kathy Baxter [2:29]
「人工智慧的其中一個奇妙之處,就在於我們都意識到當中存在著偏見,卻可能不知道業務流程中一開始就存在著這些偏見。」 — Kathy Baxter [10:18]

你或許也對這些有興趣

聯邦學習如何有助於保持資料的隱私性

Doc.ai 的執行長 Walter De Brouwer 說明將資料投入醫療等產業的複雜困難之處。Doc.ai 是一間開發醫療研究平台的業者,運用聯邦學習技術來解決資料隱私問題。

關於假消息的好消息:人工智慧現在協助偵測假消息

要是有辦法從真實資訊中篩選出假新聞就好了。加州大學河濱分校的電腦科學教授 Vagelis Papalexakis 所提出的辦法,就能做到這一點。他介紹自己開發出的演算法在偵測假新聞方面的正確率,達到 75%。

教導家庭接納人工智慧

非營利組織 Iridescent 協助少數貧困兒童與成人接受實作學習課程,以準備好迎接未來的就業機會,而這個組織的執行長暨創辦人 Tara Chklovski 談到了 Iridescent、聯合國附屬機構召開的人工智慧造福全球高峰會(AI for Good Global Summit),還有人工智慧家庭挑戰賽(AI Family Challenge)其中一環的人工智慧世錦賽(AI World Championship)。

收聽 AI Podcast 的方法

可利用 iTunesGoogle PodcastsGoogle PlayCastbox、DoggCatcher、OvercastPlayerFM、Pocket Casts、PodbayPodBean、PodCruncher、PodKicker、SoundcloudSpotifyStitcherTuneIn 來收聽 AI Podcast 的精彩節目。