人工智能系统对男性角色和性别中性角色存在固有偏好

   发布时间:2024-01-02 17:39

【沃资讯】1月2日消息,IT之家报道,密歇根大学的一项最新研究揭示了大型语言模型(LLM)在社会和性别角色方面的偏见。研究结果显示,AI在处理法律相关任务时存在性别偏见,相比较女性角色,中立或男性角色的工作效率更高。

该研究通过Flan-T5、LLaMA2和OPT-instruct这三个模型,追踪了2457个问题,观察不同性别角色的回答情况。研究人员纳入了162种不同的社会角色,涵盖了一系列社会关系和职业,并测量了每种角色对模型性能的影响。

研究发现,表现最好的角色是导师、合作伙伴、聊天机器人和人工智能语言模型。此外,在提示中指定受众(如“您正在与一名消防员交谈”)的效果最好,其次是角色提示。

这一发现对人工智能系统的开发者和用户都有重要价值,用户可以考虑使用LLM的社会背景,以提高LLM的有效性。同时,研究人员分析了50个分为男性、女性或中性的人际角色,发现中性词和男性角色比女性角色的模型性能更高。

这一发现值得重点关注,表明这些人工智能系统对男性角色和性别中性角色的固有偏好高于女性角色。未来研究应进一步探讨如何消除AI中的性别偏见,以实现更加公正和平等的人工智能系统。

 
 
更多>同类内容
全站最新
热门内容
本栏最新