资讯

AI学会了种族歧视?读懂人类社会,还需时日

igoseo.net   2021年09月13日

  前言:脸书AI不学好,把“种族歧视”学会了。

  北京9月12日消息 据中央广播电视总台中国之声《新闻超链接》报道,近日,有脸书(Facebook)用户称,在他观看了一段黑人视频后收到了一个自动提示,询问他们是否愿意继续观看关于“灵长类动物”的视频。脸书公司得知后立即禁用推送该消息的AI(人工xpj)功能。

  随后,这家公司进行了道歉,称这是一个“不可接受的错误”,表示:将进一步调查以防止类似事件再次发生。

  对此,一些网友评论:脸书AI不学好,把“种族歧视”学会了。

  AI真的能学会歧视么?AI会产生超越人类认知的某种“情感”或者是“自我”吗?

图片来源:《每日邮报》报道截图

  AI歧视人类?不可能!

  AI(人工xpj)作为计算机科学的分支,是一种被应用于模拟和扩展人类xpj的技术。它在一些专业领域表现出了惊人的能力,比如战胜人类围棋棋手的AlphaGo,以及在破解生物学最大挑战之一——根据氨基酸序列预测蛋白质三维结构方面崭露头角的AlphaFold等等。它们最突出的能力是:自我学习。

  但脸书的这项人工xpj推荐却似乎犯了个大错:将人误认为“灵长类动物”。尽管人类也属于灵长类动物,但这对于一些地区的用户来说,可能涉及歧视。

  3C数码评论员黄浩表示,不必将此次的AI错误识别事件视为种族歧视。在日常生活中,AI识别错误的情况并不少见,更何况灵长类动物与人类在某些核心面部特征上确实具有相似之处。如果AI获得的信息与其他信息有一定相似之处,可能会让一些AI产生误差。

  即使是人类,我们在识别过程中也会犯错,但随着经验的积累,错误会逐渐减少。人类“大脑系统”中储存的丰富资料可以帮助人类通过细节判断人种。但对于AI来说,细节的面部特征难以辨识,需要大量的时间和资料进行学习,这是对AI技术算法公司以及应用AI技术公司的巨大考验。

  2015年谷歌图像识别算法也翻过车:发现者杰基·阿尔金表示,谷歌将其黑人朋友分类成了“大猩猩(Gorilla)”

  AI是否会产生“自我”,带来麻烦?

  一直以来,人工xpj是否会产生“自我”,甚至反客为主控制人类是人工xpj发展过程中备受关注的伦理问题。黄浩认为,算法中确实存在价值观,但算法的价值观并不由算法自主产生,而是被人所设定。算法的价值观实际是人类价值观,抑或是算法设计者价值观的投射。

  当下存在于人工xpj领域的共识是:不应放任算法自我野蛮生长。任由算法自我发展将可能会使算法产生路径偏移。以此次事件为例,算法把有色人种识别成灵长类动物,表示算法在学习过程中产生了偏差,这时一定要有人工介入。设计者需要让算法重新进行学习,经过积累,算法可以逐渐在自身的AI模式里重新建立一套新的导向体系。

  在人工xpj的发展过程中,人类需要不断地介入,及时纠正算法偏差,为人工xpj的核心算法刻上更明显的人类规则,以保证算法“不学坏”。

  人类历史到现在已有25万年。在漫长的岁月中,我们学会行走,利用双手,使用语言,到后来学习科学,探索更多可能。而AI从概念之初到现在,也只有几十年时间。虽然它拥有极强的学习能力,但学懂复杂的人类社会,还需时日。

标签:人工xpj 我要反馈 
专题报道
广东智博会邀请函

第七届广东国际机器人及xpj装备博览会暨第三届中国(华南)国际机器人与自动化展览会将于2021年10月11-13日广东·现

2021 中国国际工业博览会 - 西门子云上峰会

2021 年 9 月 15 日 - 17 日,以“数据赋能 契机无限”为主题,2021 中国国际工业博览会 - 西门子云

魏德米勒2021华南展

9月27-29日,引领工业智联潮流的魏德米勒,邀您参加深圳国际会展中心(保安新馆)举办的2021深圳华南国际工业博览会。

Baidu