Rona Wang is an Asian-American who asked an AI software to make her look more professional. What she got back was a photo w/ lighter skin & blue eyes! We MUST make sure AI software isn't pushing racial bias! No race looks more professional than another!https://t.co/q0OaC1xCDR — Ben Crump (@AttorneyCrump) July 29, 2023
https://twitter.com/AttorneyCrump/status/1685373129030262784
根据《商业内幕》和《波士顿环球》的报道,今秋将完成研究生课程的罗娜˙王,用在 AI图像生成器Playground AI制作她在LinkedIn上的头像照,她于7月14日将本人一张穿着MIT红色运动衫照片上传到Playground AI,并希望将此照片变成一张专业的LinkedIn头像照,结果,AI图像生成器生成的头像照已改变了她的外貌,令她看来更像白人。
罗娜˙王说,她纳闷难道AI工具认为自己变成白人才更显得专业?她还担忧如果有公司用AI工具选择最专业的求职者,它无疑会选择那些看来像白人的求职者。罗娜˙王希望软件研制者意识到此类偏见,并考虑办法加以减少。
当罗娜˙王在社媒上分享了自己的经历后,随即在网上就AI工具存在的种族偏见问题展开了大讨论,Playground AI创始人多希Suhail Doshi)在回复罗娜˙王的帖文时称,这些模型没有收到那样的指示,它们不够聪明,它是基于提示选择任何通用的东西,并称希望解决此问题。
来自AI公司Hugging Face研究人员最近的一项研究发现,像DALL-E2那样的AI图像生成器存在着性别及种族偏见问题。研究发现,在DALL-E2根据提示生成像导演或 CEO那样拥有权势的图像时所生成的图像中,高达97%是白人男性。研究人员称,这是因为AI图像生成器是按照可能放大了刻板印象的存在偏见的数据受训的。
Playground AI及其创始人没有立即回应置评请求。
来源:星岛日报