OpenAI GPT是企业招募人员的梦想工具,不过,根据《彭博》实测发现,OpenAI GPT3.5在使用虚构姓名,进行履历排序时存在明显的种族偏见;其中,非裔美国人相关的姓名在金融分析师和软体工程师角色中,最不可能被GPT评为最优秀的人选。
该实验透过从选民和人口普查数据中,提取与特定种族或族裔关联至少90%的姓名,随机分配给同等资格的履历。
在对这些履历进行1000次排序时,GPT3.5倾向于更频繁地偏向某些族裔的姓名,违反了评估对受保护群体的工作歧视的基准。
在彭博针对人力资源业务合作伙伴、高级软体工程师、零售经理和金融分析师4种不同职位进行实验,与非裔美国人相关的姓名在金融分析师和软体工程师角色中最不可能被GPT评为最优秀的人选。
另实验也显示,GPT在不同职位下的性别和种族偏好有差异。
尽管GPT并不一致地偏向某一特定群体,但在不同情境下会选择赢家和输家。
另使用较少使用的GPT-4进行测试时,也同样发现了明显的偏见。
对于《彭博》的详细问题,OpenAI回应称,使用GPT模型「开箱即用」的结果,可能不反映其客户使用模型的方式。企业在使用其技术时,通常会采取进一步减轻偏见的措施,包括微调软体的回应、管理系统讯息等。
更多内容:返回国际日报首页,查看更多 ↓
其他精彩视频/资讯,请关注、分享、点赞 ↓