《促进人工智能算法性别相等》陈述在沪发布

发布时间:2021-11-23 20:06:12 | 作者:环球体育靠谱吗


  9月27日,由联合国妇女署赞助支撑、玛娜数据基金会主办的“促进人工智能算法性别相等”陈述发布会暨方针研讨会在上海举办,会上发布了《促进人工智能算法性别相等研讨陈述(2021)》(下称《陈述》)。

  联合国妇女署驻华办公室高档项目官员马雷军、上海市浦东新区妇女联合会副主席国云丹、玛娜数据基金会秘书长张唯、玛娜数据基金会课题组专家负责人周旅军、专家况琨,以及小米集团科技委员会技能向善议题召集人朱汐、信也集团首席算法科学家王春平、Thought Works(我国)数据智能团队处理方案架构师任添石等各界嘉宾到会本次会议,一起评论怎么促进人工智能算法中的性别相等,协同政府、企业和社会的力气促进人工智能的道德与管理的展开。

  马雷军首要宣布了宗旨讲演,他指出在联合国可持续展开方针的17个方针作业范畴里,性别相等是第5个中心方针。我国在促进性别相等以及维护妇女权益方面,也有许多实质性的行动,如《民法典》和行将出台的《我国妇女展开大纲》等。由玛娜数据基金会施行的联合国妇女署的“促进人工智能算法性别相等”项目是联合国CGF项目第9批项目投标(2019年)的中标项目,该项目填补了国内关于人工智能范畴性别问题研讨的空白。

  国云丹必定了“促进人工智能算法性别相等”项意图前瞻性含义,并指出“算法性别相等议题评论姑且处于起步阶段,现在评论算法性别管理议题将影响到往后咱们所面临的、咱们所置身的社会是何种样貌。”她提出了对算法成见问题的调查,“跟着数字化转型的展开,性别相等的推进遇到了更大的应战。技能自身无性别成见,但算法的运用使既有的、存在于社会中的性别成见得到强化”。在玛娜数据基金会的项目展开过程中,浦东妇联给予了充沛重视和支撑。等待经过该项目撬动社会认识,探究有用的落地办法,发挥浦东在人工智能数字化转型路上的引领者人物。

  据了解,2019年,国家新一代人工智能管理专业委员会发布《新一代人工智能管理准则展开负责任的人工智能》,提出了人工智能管理的结构和行动指南,明确提出要在数据获取、算法规划、技能开发、产品研制和运用过程中消除成见和轻视。该委员会近来又发布了《新一代人工智能道德标准》,第十三条特别着重防止成见轻视,在数据收集和算法开发中,加强道德检查,充沛考虑差异化诉求,防止或许存在的数据与算法成见,努力完成人工智能系统的普惠性、公正性和非轻视性。

  “正是在这样的布景下,基金会展开了促进人工智能算法性别相等的项目,经过基础研讨和学术倡议提醒出算法中存在的性别成见问题,提炼出有益于促进算法性别相等的建造性定见。”张唯在会上标明,“此外,对企业展开性别认识及才能建造,对社会倡议提高关于该问题的认知和评论,都是促进算法性别相等的行动。”

  据《陈述》介绍,现在人工智能算法的许多运用场景中均存在必定的性别轻视现象。以人工智能敞开渠道为例,一张“端着水果篮的男性”图片被AI人脸辨认渠道检测为“女人”,独自截出头像却能够被检测为“男性”。在作业场景中,2018年亚马逊公司的主动招聘算法倾向于给关键词含“女”字的简历打低分,降低了女人作业请求成功率,最终弃用了该招聘算法。

  “算法中存在性别轻视问题,首要源于练习AI的数据集反映了人类社会存在的性别成见,而算法工程师对这一问题缺少认识,未将处理性别成见归入开发需求,然后使得算法扩大了性别轻视。“该项目课题组专家况琨向记者解说算法为何会发生性别轻视问题。

  《陈述》经过专题社会调研的数据显现,58%的人工智能算法从业者不知道算法傍边存在的性别成见问题,73%的从业者不知道存在专门针对女人的歹意算法。而关于怎么处理这一问题,更是有72%的从业者不了解数据偏误(或数据误差)的处理方案或技能办法,80%的从业者不了解完成算法公正的处理方案或技能办法。标明从业者对算法性别相等的认识及才能较为短缺,亟需提高。

  为女人供给更多的科技教育时机,企业供给性别相等的作业准入、练习、提高时机,增强企业内部的性别相等认识练习等,都是处理这一问题的重要行动。在参加调研的从业者傍边,有72%的从业者参加的人工智能算法项目中女人开发者份额少于30%,66%参加的团队中女人决议计划者份额少于30%。该项目课题组专家负责人周旅军以为,提高女人开发者和决议计划领导者份额,也将有利于促进算法中的性别相等,促进科技归入愈加多元容纳和性别友爱的视角。

  开发者和程序员等相关从业集体对算法成见与算法公正性的认知尚存在很大改善空间。企业能够采纳一系列手法直接干涉算法成见,在算法产品开发和运用过程中提高性别公正性。《陈述》中从开发、审计、反应改善和运用决议计划四个方面提出主张:

  此外,立法为审计可行性供给准则保证、研讨机构和社会团体展开第三方算法审计等行动均有利于促进人工智能算法性别相等。

  关于出产和运用数据的个人,周旅军也供给了几点主张:1、作为数据出产者,认识到算法成见,防止出产出带有性别成见的线、将成见反应给渠道,参加到算法产品性别相等的改善过程中;3、要求企业揭露练习数据的审计成果;4、要求了解算法的运用场景和意图,挑选企业运用数据的方法。

  张唯在会上着重,一方面是要在人工智能的道德层面建造和倡议性别相等的认识理念和言语系统,另一方面则是要寻觅将性别相等观念落地的途径和办法,不能只止于反思和批评,要真正将性别相等的理念贯穿于人工智能工作中组织机构的内部作业,为其供给可行的操作方法,使算法能够为促进性别相等服务。

  9月27日,由联合国妇女署赞助支撑、玛娜数据基金会主办的“促进人工智能算法性别相等”陈述发布会暨方针研讨会在上海举办,会上发布了《促进人工智能算法性别相等研讨陈述(2021)》(下称《陈述》)。

  联合国妇女署驻华办公室高档项目官员马雷军、上海市浦东新区妇女联合会副主席国云丹、玛娜数据基金会秘书长张唯、玛娜数据基金会课题组专家负责人周旅军、专家况琨,以及小米集团科技委员会技能向善议题召集人朱汐、信也集团首席算法科学家王春平、Thought Works(我国)数据智能团队处理方案架构师任添石等各界嘉宾到会本次会议,一起评论怎么促进人工智能算法中的性别相等,协同政府、企业和社会的力气促进人工智能的道德与管理的展开。

  马雷军首要宣布了宗旨讲演,他指出在联合国可持续展开方针的17个方针作业范畴里,性别相等是第5个中心方针。我国在促进性别相等以及维护妇女权益方面,也有许多实质性的行动,如《民法典》和行将出台的《我国妇女展开大纲》等。由玛娜数据基金会施行的联合国妇女署的“促进人工智能算法性别相等”项目是联合国CGF项目第9批项目投标(2019年)的中标项目,该项目填补了国内关于人工智能范畴性别问题研讨的空白。

  国云丹必定了“促进人工智能算法性别相等”项意图前瞻性含义,并指出“算法性别相等议题评论姑且处于起步阶段,现在评论算法性别管理议题将影响到往后咱们所面临的、咱们所置身的社会是何种样貌。”她提出了对算法成见问题的调查,“跟着数字化转型的展开,性别相等的推进遇到了更大的应战。技能自身无性别成见,但算法的运用使既有的、存在于社会中的性别成见得到强化”。在玛娜数据基金会的项目展开过程中,浦东妇联给予了充沛重视和支撑。等待经过该项目撬动社会认识,探究有用的落地办法,发挥浦东在人工智能数字化转型路上的引领者人物。

  据了解,2019年,国家新一代人工智能管理专业委员会发布《新一代人工智能管理准则展开负责任的人工智能》,提出了人工智能管理的结构和行动指南,明确提出要在数据获取、算法规划、技能开发、产品研制和运用过程中消除成见和轻视。该委员会近来又发布了《新一代人工智能道德标准》,第十三条特别着重防止成见轻视,在数据收集和算法开发中,加强道德检查,充沛考虑差异化诉求,防止或许存在的数据与算法成见,努力完成人工智能系统的普惠性、公正性和非轻视性。

  “正是在这样的布景下,基金会展开了促进人工智能算法性别相等的项目,经过基础研讨和学术倡议提醒出算法中存在的性别成见问题,提炼出有益于促进算法性别相等的建造性定见。”张唯在会上标明,“此外,对企业展开性别认识及才能建造,对社会倡议提高关于该问题的认知和评论,都是促进算法性别相等的行动。”

  据《陈述》介绍,现在人工智能算法的许多运用场景中均存在必定的性别轻视现象。以人工智能敞开渠道为例,一张“端着水果篮的男性”图片被AI人脸辨认渠道检测为“女人”,独自截出头像却能够被检测为“男性”。在作业场景中,2018年亚马逊公司的主动招聘算法倾向于给关键词含“女”字的简历打低分,降低了女人作业请求成功率,最终弃用了该招聘算法。

  “算法中存在性别轻视问题,首要源于练习AI的数据集反映了人类社会存在的性别成见,而算法工程师对这一问题缺少认识,未将处理性别成见归入开发需求,然后使得算法扩大了性别轻视。“该项目课题组专家况琨向记者解说算法为何会发生性别轻视问题。

  《陈述》经过专题社会调研的数据显现,58%的人工智能算法从业者不知道算法傍边存在的性别成见问题,73%的从业者不知道存在专门针对女人的歹意算法。而关于怎么处理这一问题,更是有72%的从业者不了解数据偏误(或数据误差)的处理方案或技能办法,80%的从业者不了解完成算法公正的处理方案或技能办法。标明从业者对算法性别相等的认识及才能较为短缺,亟需提高。

  为女人供给更多的科技教育时机,企业供给性别相等的作业准入、练习、提高时机,增强企业内部的性别相等认识练习等,都是处理这一问题的重要行动。在参加调研的从业者傍边,有72%的从业者参加的人工智能算法项目中女人开发者份额少于30%,66%参加的团队中女人决议计划者份额少于30%。该项目课题组专家负责人周旅军以为,提高女人开发者和决议计划领导者份额,也将有利于促进算法中的性别相等,促进科技归入愈加多元容纳和性别友爱的视角。

  开发者和程序员等相关从业集体对算法成见与算法公正性的认知尚存在很大改善空间。企业能够采纳一系列手法直接干涉算法成见,在算法产品开发和运用过程中提高性别公正性。《陈述》中从开发、审计、反应改善和运用决议计划四个方面提出主张:

  此外,立法为审计可行性供给准则保证、研讨机构和社会团体展开第三方算法审计等行动均有利于促进人工智能算法性别相等。

  关于出产和运用数据的个人,周旅军也供给了几点主张:1、作为数据出产者,认识到算法成见,防止出产出带有性别成见的线、将成见反应给渠道,参加到算法产品性别相等的改善过程中;3、要求企业揭露练习数据的审计成果;4、要求了解算法的运用场景和意图,挑选企业运用数据的方法。

  张唯在会上着重,一方面是要在人工智能的道德层面建造和倡议性别相等的认识理念和言语系统,另一方面则是要寻觅将性别相等观念落地的途径和办法,不能只止于反思和批评,要真正将性别相等的理念贯穿于人工智能工作中组织机构的内部作业,为其供给可行的操作方法,使算法能够为促进性别相等服务。