近期,有报道称OpenAI的语音转写工具Whisper存在严重问题,该工具频繁创造出虚假内容,引发多方关注。这一问题由多名软件工程师、开发人员及学术研究人员揭露,并将其称为“AI幻觉”。
尽管OpenAI已明确警告不宜在高风险领域使用Whisper,但该工具仍被广泛应用于全球多个行业,包括医疗领域。在医疗机构中,部分机构仍使用该工具记录医患咨询,引发专家担忧。
实际案例显示,Whisper的“幻觉”现象十分普遍。多名研究人员和开发人员均发现,在使用Whisper进行转录时,大量虚假内容被创造出来。
对此,OpenAI表示正在研究减少“幻觉”现象的方法,并感谢研究者的发现。公司承诺将在未来的模型更新中采纳相关建议。