AI聊天机器人或因方言产生种族偏见

频道:行业资讯 日期: 浏览:38

近期研究显示,一些大语言模型内部存在难以通过常规方法消除的偏见。

预印本研究揭示,支撑ChatGPT等聊天机器人的大语言模型(LLM)可能会根据用户使用的方言作出种族主义偏见判断。

研究发现,相较于使用标准美式英语(SAE)撰写的虚构犯罪事实,一些人工智能系统对使用非裔美国人英语(AAE)撰写的案例更倾向于给出死刑判决。非裔美国人英语是数百万美国人使用的方言,与被奴役的非裔美国人的后裔紧密相关。这些聊天机器人还可能向使用非裔美国人英语的用户推荐较低端的工作岗位。

这项研究结果表明,大语言模型潜藏了隐性种族主义,即便它们没有直接表现出对特定种族的负面刻板印象。该研究已在预印本网站arXiv发布,尚待同行评审。


关键词:ChatGPT

相关文章