者的偏见,或者中拟定程序的过程中,采用的数据是具有一定偏见性的。这种情况带来的后果是巨大的,例如,Google搜寻被曲解、合格的考生无法进入医学院就学、聊天机器人在推特(Twitter)上散布种族主义和性别歧视信息等。

算法偏见造成最棘手的问题之一是,从事程序设计的工程师,即便本身没有种族、性别、年龄歧视等倾向,也有可能造成偏见。AI本质上就是为了自行学习而设计,有时它的确会出错。

在AI招聘领域,一个最为典型的案例就是顶级管弦乐队选角,古典音乐过去一直以男性为主,但在20世纪70年代引入了盲目的试镜,这使顶级乐团的女音乐家增加了五倍以上。

但是,这并没有解决根本性的问题,第一批通过盲目试镜入选的女性依然无法融入日常演奏,乐队不得不寻找其他男性演奏家。

而我们的AI招聘:就像管弦乐队的幕布一样,机器学习是一种范式转变,有可能消除长期存在的偏见,但它本身并不能解决几个世纪的偏见。

回到机器人公务员领域,其工作内容中也不乏“价值判断”的部分,如材料完整度如何可以报账?组织部评价评优又是以何为尺度?而作为市长的日常事务的裁断更是需要一定的标准。而目前的机器人深度学习能够实现的就是“算法裁决”,这又再次落入了算法偏见的窠臼之中。

服务类公务员机器人,你敢安心让它上岗吗?

事实上,大众并不敢让机器人完全代替公务员工作,包括市长。

AI市长在日本的竞选中败了,而且很彻底。截止至最后日本多摩市的公投结果显示,“AI市长”仅获4013票,较现任多摩市长阿部裕行获得的34603票相距甚远。

《人工智能》里大卫和妈妈的一段对话让人印象深刻。当大卫询问妈妈晚饭吃什么时,妈妈告诉它,机器人是不能吃饭的。大卫却说:“我知道,但是我喜欢和家人一起坐在餐桌上。”正如剧中男主角所说,大卫既然懂得爱,那他也应该懂得恨。当人工智能愈发先进、愈发智能时,人类会不会被科学这把利刃划破双手?

正如当下机器人动手术、机器人管理金融等领域,许多人对此依然无法完全信任。机器人终究是少了一点“人气”,在公务员领域,没有了面对面的嘘寒问暖,只是例行公事地办证取证,工作似乎也少了许多乐趣。

此外,机器人公务员的应用范围也是相当狭窄的。从目前来看,随着世界数据化程度不断加深,与个人相关的数字类信息可由机器人逐步替代,如社保处理、出国签证、纳税等;另一类型的公务员机器人则与富士康工场里机器人替代传统的工人类似,通过生物识别确认人员身份等类型的工作均可由机器人充当。

但是,AI也未达到完美的程度。比如许多开发者经常会把他们的偏见写入人工智能项目,最近一项研究也发现,AI的语言翻译工具已经具有种族主义和性别歧视的偏见。

阿西莫夫在《我,机器人》一书中曾提出机器人三定律:

第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。

显然,目前机器人仍然遵循着这基本的要求,但随着机器人技术的日益发展,会有更多类型的机器人出现,当真正机器人与人类伦理发生冲突时,如何协调人工智能与人类的关系也将成为当今时代下必须重视的课题。

当然,也希望霍金的预言永远也不会成为现实。

[完]

智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。

 2/2   首页 上一页 1 2 下一页

文章TAG:机器人  开发  解决  
下一篇