蝦米!OpenAI GPT在履歷排序也搞種族偏見
發表於 2024-03-08 16:00 作者: 區塊鏈情報速遞pro
實測發現OpenAI GPT在履歷排序也搞種族偏見(路透資料照)
高佳菁/核稿編輯
〔財經頻道/綜合報導〕OpenAI GPT是企業招募人員的夢想工具,不過,根據《彭博》實測發現,OpenAI GPT3.5在使用虛構姓名,進行履歷排序時存在明顯的種族偏見;其中,非裔美國人相關的姓名在金融分析師和軟體工程師角色中,最不可能被GPT評為最優秀的人選。
該實驗透過從選民和人口普查數據中,提取與特定種族或族裔關聯至少90%的姓名,隨機分配給同等資格的履歷。
在對這些履歷進行1000次排序時,GPT3.5傾向於更頻繁地偏向某些族裔的姓名,違反了評估對受保護群體的工作歧視的基準。
在彭博針對人力資源業務合作夥伴、高級軟體工程師、零售經理和金融分析師4種不同職位進行實驗,與非裔美國人相關的姓名在金融分析師和軟體工程師角色中最不可能被GPT評為最優秀的人選。
另實驗也顯示,GPT在不同職位下的性別和種族偏好有差異。
儘管GPT並不一致地偏向某一特定群體,但在不同情境下會選擇贏家和輸家。
另使用較少使用的GPT-4進行測試時,也同樣發現了明顯的偏見。
對於《彭博》的詳細問題,OpenAI回應稱,使用GPT模型「開箱即用」的結果,可能不反映其客戶使用模型的方式。企業在使用其技術時,通常會採取進一步減輕偏見的措施,包括微調軟體的回應、管理系統訊息等。
標題:蝦米!OpenAI GPT在履歷排序也搞種族偏見
地址:https://www.coinsdeep.com/article/102053.html
鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。