今天是:2017年10月19日 星期四
首页 >> 学术图片新闻
人工智能可以打破社会偏见吗?
来源:中国妇女研究网 | 本网发布日期:2017年10月10日
标题: 人工智能可以打破社会偏见吗?
作者:
资料来源: 搜狐科技 硅谷密探
发布时间: 2017-09-20
关键字: 人工智能 社会偏见
 

  试想一个性别平等的社会:女人不是生孩子、养孩子的工具,男人不是传统思想上的统治者。人们在这个平等的社会中,扮演的角色是和他们的智慧和兴趣一致的,而不是由性别、根深蒂固的狭隘观点驱使的。

  这样的社会目前还不存在。几年前,Malala Yousafzai这位巴基斯坦的、以争取女性教育而闻名的女子,还因为想要争取自己的教育而几乎失去了生命!她的故事并不特殊,女性为了进入主流的声音,已经奋斗了数百年了。

  是的,对待性别平等这个问题,部分国家已经比较先进和发达了。但是,即使在最先进的环境中,深刻的偏差还是存在的。那么,有没有什么方法能重新设计一些由结果驱动的社会规范,而不是由固有的人类偏见驱使的社会规范呢?

  人工智能也许就能打破数千年来的、根深蒂固的社会偏见。现在的技术,可以创造一种使用深度学习和数据驱动的技术,来纠正刻板印象的机制吗?

  深度学习的软件,试图模仿人脑的大脑活动,在大脑皮层发生思考。这个软件学习识别声音、图像和其他数据。Ray Kurzweil通过软件技术,写了一本名为《如何创造心灵》的书。深度学习的目的是在机器层面重建人类智慧,然而,这种学习的结果取决于软件的训练程度,有偏见的训练会导致偏倚的结果。

  继续说我们的这个实验,让我们来看看一个简单的工作场所中的例子:在会议室,出现了一些性别歧视的言论。

  我们想要的结果是:有人举起手来,并阻止这样的言论。在这个简单的例子中,期望的结果在很大程度上取决于两个主要的假设:1)会议室中至少有一位女性 2)公司的文化氛围是能让她自由地表达她的观点。

  如果这种情况是由人工智能技术的机器人处理,那么机器人必须对基本假设进行训练。不良的训练会导致不佳的结果。当机器人接收到性别歧视的输入时,它需要了解上下文,运用透视图,然后进行相应的操作。如果机器人没有被编入女性的观点,那么它就没法达到我们预期的结果。

  技术公司的环境中,人工智能算法经过培训和测试,因为女性任职人数不足,缺乏对这种偏见的认识。计算机专业毕业的女性只有大约16%,再加上那些根深蒂固的文化和工作态度,对偏见的认识就更加不足了。

  幸运的是,与人类的偏见不同,人工智能的偏差,能通过重新编程机器人的软件来更正。为了排除偏见,这些行为应该根据“平等、公平”的原则来分类。就看我们如何训练和测试我们的数据算法、增加实现这种愿景的可能性了。未来,我们的算法,能在性别和文化的框架中,处理数据、纠正机器人的行为、模仿理想的人类语言和观念!

  也许在不久的将来,人工智能会成为我们生活中无处不在的东西,深入保健、行为经济学、政治等多种多样的领域。为了达到这样的未来,我们也需要各界人士的帮助,不止是程序员,还有从事医疗保健、人类学、经济学、金融等方面的专业人士。

  越来越多的人已经意识到:技术对于创造一个没有偏见的世界,是非常有潜力的。正如Malala倡导“女孩应该接受平等的教育”一样,将会有更多的倡导者会为之奋斗,建造一个性别平等的社会。

访客你好,
热点文章
更多>>
热点专题
图片新闻
中国妇女研究会办公室在京召开贯彻落实习近平总书记“7·26”重要讲话精神专题座谈会
第四期中国妇女社会地位调查筹备工作座谈会在京召开
头条 | "亲戚"习近平
男女平等价值观:我们的理解和认识
超八成高校学生赞同“女人的能力不比男人差”
夫妻教育匹配对家庭分工的影响
中国妇女研究会2017年妇女/性别研究研训班在京举办
沈跃跃:贯彻落实习近平总书记系列重要讲话精神 进一步推动妇女权益保障法全面有效实施
推荐文章
更多>>
关于我们 | 网站地图 | 招聘信息 | 友情链接 | 联系我们