分享到:
链接已复制

LANGUAGES

星空(中国)

星空(中国)直播 星空网页版登录入口 国际 军事 政协 政务 图片 视频

财经

财经 金融 证券 汽车 科技 消费 能源 地产 农业

观点

观点 理论 智库 中国3分钟 中国访谈 中国网评 中国关键词

文化

文化 文创 艺术 时尚 旅游 铁路 悦读 民藏 中医 中国瓷

国情

国情 助残 一带一路 海洋 草原 湾区 联盟 心理 老年

首页> 中国发展门户网> 发展星空网页版登录入口>

大型数据集可纠正AI在视觉任务中的偏见

2025-11-10 09:13

来源:科技日报

分享到:
链接已复制
字体:

据最新一期《自然》发表的研究,科学家建立了超过一万张人类图像的数据库,以评估并纠正人工智能(AI)模型在视觉领域存在的偏见。这一“公平的以人类为中心的图像基准”(FHIBE)由索尼AI开发,采用符合伦理手段获取、基于用户同意的数据集,可精确评估以人为中心的计算机视觉任务,从而识别、纠正偏见和刻板印象。团队认为,这是迈向更可信AI的重要一步。

计算机视觉广泛应用于自动驾驶车辆、面部识别等技术领域。许多计算机视觉使用的AI模型,其训练数据存在缺陷,可能未经同意收集,经常来自网络大规模图像抓取。人们也发现,AI模型可能会反映出延续性别歧视、种族歧视或其他刻板印象的偏见。

此次,研究团队构建了一个图像数据集,在同意机制、多样性和隐私等多方面采取了最佳实践。FHIBE包含81个国家和地区中1981名个体的10318张图像。该数据库包括了人口统计和生理特征的全面标注,包括年龄、代词类别、祖先血统、发色与肤色等。参与者获得了关于项目和潜在风险的详细信息,帮助他们做出知情同意,过程符合全面数据保护法规。这些特征使该数据库成为评估AI偏见的可靠资源。

团队将FHIBE和27个现有以人类为中心的计算机视觉应用数据集做了比较,发现FHIBE数据集在多样性与AI评估的可靠同意方面标准更高。它还有效减少了偏见,包含的参与者自我申报标注信息超过其他数据集,还包括了相当比例通常代表性不足的人群。该数据集可用于评估现有的AI模型在计算机视觉任务中的表现,能揭示更多此前无法了解的偏见。

不过,团队也承认,目前创建数据集的过程充满挑战且成本十分高昂。

【总编辑圈点】

本报近期推出了多篇关于AI易出现偏差与其尚不可靠的相关报道。本文的这项研究,则是一次对AI伦理建设具有标杆意义的实践。它最核心的价值在于,将“公平”这一抽象原则,转化为一套可操作、可验证的技术标准与工作流程。AI的偏见已经是行业顽疾,但现在可能有了一把标准量尺,使得量化评估与比较不同模型的公平性成为可能,这将直接推动算法的研发与优化。尽管其高昂成本提示了推广的难度,但这一探索本身,正是推动AI从单纯追求性能强大,转向值得人类托付之伙伴的关键点。(记者张梦然)

【责任编辑:孔令瑶】
返回顶部