每一部成功的犯罪题材影视作品,最引人入胜的元素,都是大反派最后的揭晓。而在现实中,确定犯罪嫌疑人并公布其罪行,却并非易事。
于是,人们把目光投向了方兴未艾的人工智能,希望已经秒杀人类智力的阿尔法狗们,能够在司法工作中扮演包公、狄仁杰或者福尔摩斯的角色。一系列的探索尝试已经进行,但也引发了围绕人性与科技关系的争议。
因为一条与AI有关的消息,谷歌近日又上了热点新闻:三名美国科学家发表万字长文,批评中国某高校团队在半年前发布的一项旨在用AI技术辨认罪犯的研究。
美国学者为什么感到愤怒?
2016年,上海交通大学的两位科学家研发了一个神经网络系统,能够通过脸部识别技术辨认罪犯。他们使用一系列的机器视觉算法来检测一批包括罪犯和非罪犯的面部照片,并试验这一网络神经系统是否能辨别出罪犯。
据媒体报道,在实验过程中,研究员使用了1856名男性的身份证照片,他们的年龄在18到55岁之间,其中一半的人有犯罪史。90%的照片用来训练这一AI算法,剩下的10%用来检验算法效果,结果十分惊人,这一系统的识别准确率高达89.5%。
这套AI最终的结论是,犯罪分子与遵守法律的公民相比,他们长相和普通人之间的差异更大。换句话说,如果一个人的脸越大众,他们越不可能成为罪犯。这项研究对象几乎具有相同的种族背景,这就提出一个严重的问题,虽然犯罪行为可能有遗传因素,但大多数研究人员认为它与环境社会经济因素相关,而不是与遗传因素有关。
而三名谷歌研究者的愤怒,恰恰来自于“长相”。他们认为这不过又是以貌取人,是“科学种族主义”,并从历史、伦理出发,对相面术及其在机器学习时代的新形态进行了批评。
文章指出,相面术试图从人的外貌推测其内在性格。虽然今天相面术被视为伪科学,但民间还是有人相信可以从面相或身材中鉴别出低级一点的人群。
此外,也有人对中国学者研究的科学性抱有质疑。比如不足2000个样本很容易造成机器过度学习,照片只是转瞬间(无意义)表情的记录等等,但伦理层面的问题依然是最受关注的。
对于指责,中国学者强调该研究只呈现了其中的相关性。其中的因果关系,即到底是长相决定了天生的犯罪性,或者是人类社会对长相的歧视促成了犯罪概率的差异,则留待社会科学的解读。至于这项研究本身的善恶对错,他们的回答令人深思:核物理学家该为原子弹造成的伤害负责吗?
义理未明,实践已远
尽管科研圈里的争吵思辨尚未结束,人工智能干涉司法是否正义还没定论,但心急的人已经将先进技术加以应用。
在好莱坞经典科幻大片《少数派报告中》,未来的警察能够借助“先知”对未来的预知,提前赶到并组织重大犯罪行为。现在,人工智能已经在许多地方扮演起先知的角色。
迪拜警方2016年就发布了一款新型人工智能设备。这款设备利用犯罪识别软件,能够在违法犯罪事件发生之前对其进行精确的预测,从而减少违法犯罪事件的发生,降低人类警察可能会错过违法犯罪事件发生的概率。这款人工智能的应用程序,已经使得通过人工智能对违法犯罪行为进行预测的技术,更加接近于现实。
在美国,宾夕法尼亚大学统计学教授理查德·伯克开发了一种新的算法,能够预测哪些人会在未来犯罪的风险高。在此之前,他的算法已经能帮助监狱确定该把哪些犯人关到高度警戒区。假释部门用他的工具判断该对哪类假释人员采取更严格的监视手段,警官则用来预测曾因家庭暴力被捕的人是否会再次犯罪。他还编写过一个算法,可以告诉美国职业安全与卫生管理局,哪些工作场所可能违反安全方面的规定。
伯克的算法与“阿尔法狗”类似。他收集了从2009年到2013年约10万件家庭暴力的案例,使用了机器学习的方法,将这些数据“喂”给电脑程序,包括年龄、性别、邮编、第一次犯罪的年龄以及一长串先前可能相关的犯罪记录。比如酒后驾车、虐待动物、涉枪犯罪等。
借助这种机器学习,警方可以锁定哪些人重复犯罪,哪些二次犯罪风险较高的人需要监禁。伯克的研究可推测哪些人二次犯罪的风险较低,从而能抽出更多的警力监控那些犯罪风险较高的人。与法官的判断进行对比的结果是:法官判断有20%的人会再犯,而计算机给出的比例仅为10%。
除了家庭暴力的案件研究外,伯克在假释和缓刑方面的算法已经得到美国费城政府的使用。伯克把费城所有缓刑和假释的人都划分到了高犯罪风险、中犯罪风险和低犯罪风险三个档次里。对于系统认定为低犯罪风险的人,市政府大幅降低了对他们的监视强度。
2030年“机械战警”将会上岗
斯坦福大学在2016年末,发布了一项名为“2030年的人工智能和生命”研究的阶段性成果报告,对人工智能未来可能带来的影响进行了预测:“虽然该项人工智能应用程序可能会对预防违法犯罪事件的发生产生积极的影响,但是,该项技术的诞生会对数以百万计的工作产生强有力的冲击,使得传统工作面临前所未有的风险与挑战。”
报告提出,这些最新被研发出来的人工智能机器还具备自主学习的功能,他们允许这些计算机自主学习新的知识,而现在这些功能已经得到了应用,可以在打击违法犯罪方面产生巨大的影响。预计到2030年,具备预测功能的“警察”将被大批量的投入使用,最终被人类所依赖。
不过,报告也提醒人们,虽然这些人工智能工具的出现,可以有效地减少违法犯罪事件的发生,但是人工智能应用于司法范畴,仍存在几大问题需要解决。
首先,数据安全问题。机器学习需要基于大量的数据进行分析和学习。涉及犯罪的数据又是高度隐私的数据,因此很多人担心数据是否会泄露。
其次,准确性问题。因为算法都是基于历史犯罪统计数据来预测未来的犯罪行为,因此有可能会把过去的执法模式和认为特定人群有犯罪倾向的想法画上等号。
,算法是否应该公开。尤其是涉及商业利益时。如果不公开,其结果正确性显然会一直遭受质疑。
最后,过度依赖的问题。很多政府机构开始依赖算法提供的结果,只是尽管机器学习能做出决定,但要从目前情况来看,让系统代替人类做出决定可能还为时过早。