图片来源:CNN
AI的目标应当是:众生平等
随着现在的机器人越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中根深蒂固的偏见。而且最危险的是,算法与人类不一样,人类会有意识地抵制偏见,但是人工智能系统没有一处零部件明确需要依靠道德观念驱动,因此它们非但不会有意识的抵制偏见,反而还有可能强化现有偏见。
主流社会的语言体制与词汇,如“女流之辈”、“妇人之仁”、“雄心勃勃”、“婆婆妈妈”等等,已经把男上女下的父权体制合理化和自然化。不过,有一点我们需要注意到的是,沙文主义的受害者从来不止女性,很多男性也同样是其受害者。因为在父权体制下下,男性的形象和心态都相当扭曲,在事业、性事乃止一切事情上都需得非人性的压抑和掩饰一切人性的脆弱。2016年时,美国加州一女教师性侵男学生后产女。该教师由于两次诱奸这名未满16岁的男学生最终被指控为性侵罪名。这则事件让人们开始注意到其实性骚扰并不是男性单向对女性发出的。传统上我们会认为女生受到的性骚扰比男生多,但实际上男性遭受的性骚扰长久以来都处于被忽视的状态,“比如不少大人都曾以小男孩的生殖器来开玩笑。”
巴斯大学计算机科学家乔安娜布莱森说,“很多人认为人工智能存在偏见。不, 这表明我们有偏见,人工智能正在有样学样。”所以,在利用人工智能的自然语言处理能力来解决性骚扰事件的过程当中,我们必须保证人工智能会摒除这种性别偏见。人工智能应当关照的群体绝不止于女性,全人类都应当成为人工智能的关照对象。当一名遭受性骚扰的男性向聊天机器人讲述自己的经历时,人工智能绝不能像某些人类一样不以为然,“啥?别开玩笑了,你这大老爷们也会被性骚扰?”
[完]
智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出vb深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。
文章TAG:数据 用户 Google