-
大型数据集可纠正AI在视觉任务中的偏见
发布时间:2025-11-10 08:10:41,阅读次数:108 据最新一期《自然》发表的研究,科学家建立了超过一万张人类图像的数据库,以评估并纠正人工智能(AI)模型在视觉领域存在的偏见。这一“公平的以人类为中心的图像基准”(FHIBE)由索尼AI开发,采用符合伦理手段获取、基于用户同意的数据集,可精确评估以人为中心的计算机视觉任务,从而识别、纠正偏见和刻板印象。团队认为,这是迈向更可信AI的重要一步。
计算机视觉广泛应用于自动驾驶车辆、面部识别等技术领域。许多计算机视觉使用的AI模型,其训练数据存在缺陷,可能未经同意收集,经常来自网络大规模图像抓取。人们也发现,AI模型可能会反映出延续性别歧视、种族歧视或其他刻板印象的偏见。
此次,研究团队构建了一个图像数据集,在同意机制、多样性和隐私等多方面采取了最佳实践。FHIBE包含81个国家和地区中1981名个体的10318张图像。该数据库包括了人口统计和生理特征的全面标注,包括年龄、代词类别、祖先血统、发色与肤色等。参与者获得了关于项目和潜在风险的详细信息,帮助他们做出知情同意,过程符合全面数据保护法规。这些特征使该数据库成为评估AI偏见的可靠资源。
团队将FHIBE和27个现有以人类为中心的计算机视觉应用数据集做了比较,发现FHIBE数据集在多样性与AI评估的可靠同意方面标准更高。它还有效减少了偏见,包含的参与者自我申报标注信息超过其他数据集,还包括了相当比例通常代表性不足的人群。该数据集可用于评估现有的AI模型在计算机视觉任务中的表现,能揭示更多此前无法了解的偏见。
不过,团队也承认,目前创建数据集的过程充满挑战且成本十分高昂。
【总编辑圈点】
本报近期推出了多篇关于AI易出现偏差与其尚不可靠的相关报道。本文的这项研究,则是一次对AI伦理建设具有标杆意义的实践。它最核心的价值在于,将“公平”这一抽象原则,转化为一套可操作、可验证的技术标准与工作流程。AI的偏见已经是行业顽疾,但现在可能有了一把标准量尺,使得量化评估与比较不同模型的公平性成为可能,这将直接推动算法的研发与优化。尽管其高昂成本提示了推广的难度,但这一探索本身,正是推动AI从单纯追求性能强大,转向值得人类托付之伙伴的关键点。(记者张梦然)
-
相关、相似的资讯
- 科学家提出全气候电池设计框架2025/11/10
- 一组数据看中国跑出创新“加速度”2025/11/10
- 火车票加大打折优惠力度 2025/11/10
- 10月份居民消费价格指数同比上涨0.2%2025/11/10
- 千余项“黑科技”亮相乌镇峰会 AI应用受关注2025/11/09
- 热门关注
-
- 奋楫十年 天翼云以科技创新刷新“中国速度”每个时代都有各自标志性的生产力,这是时代的烙印,也是衡量经济社会发展水平和质...
- 连续三年亏损 苏宁易购遭“ST”5月5日,苏宁易购停牌,5月6日开市起,这个昔日的零售巨头股票简称将变为“ST易购...
- 苏宁易购筹划股权转让 神秘接盘方近日将亮相2016年成功引入淘宝中国作为重要股东后,时隔4年多时间,苏宁易购再次发布重磅消息...
- 未来金融就在眼前,火星数字资产银行荣获“2018年度区块链创新服务奖”7月5日,“2018区块链世界论坛·深圳峰会”在深圳京基100举行,作为全方位为数字资...
- 公交车司机9年未过团圆年,苏宁彩电助其实现心愿转眼春节就要到了,游子已经踏上了回家的归程。提起回家团圆,大家都是归心似箭,...
