一旦人工智能突破了可以扳倒人类社会规则约束的临界点,那么,将没有什么来阻止人工智能决定人类的未来。
在好莱坞电影《复仇者联盟3》中,大反派灭霸运用“绝对公平”的随机模式消灭宇宙中的一半生命,从而达到他心目中的和谐。如今,人工智能正在以一种模式不同,但结果类似的方式开始决定着人类的命运。
近期,美国互联网巨头亚马逊公司解散其人工智能招聘团队,由于该团队所设计出的人工智能程序极端“重男轻女”,会自动给女性求职者降低分数。
人工智能会放大算法带来的“歧视”
随着人工智能技术的不断发展,越来越多的管理者开始运用这一革命性技术提升企业的运行效率。电影公司运用人工智能来预测电影剧本的潜在收益;企业运用人工智能监控员工的异常行为;保险公司运用人工智能评估保险人的保险偿付几率等。这些做法或多或少都存在一些与亚马逊人工智能招聘程序类似的歧视性现象。
这种敏感、潜在的风险让一些学者也开始反思人工智能的实质。例如,诺贝尔经济学奖获得者托马斯·萨金特在“世界科技创新论坛”上表示,人工智能其实就是统计学,只不过用了一个很华丽的辞藻。
这种说法虽然受到不少人工智能业界人士和爱好者的批判,但深究起来并非毫无道理。人工智能建立在以统计学为基础的算法之上,当前的“智能”部分仅体现于通过计算机自身的“学习”功能迅速完成了统计检验过程。
基于这种运算过程,人工智能也不能避免统计学的局限性。
第一是样本选择偏见。例如,亚马逊的人工智能团队所选择的学习样本,主要基于现有的互联网业界招聘数据。由于美国软件业的从业者及求职者的男性比重远大于女性,人工智能程序在不断样本学习后得出了男性更适合此类职业的结论,没有纠正反而扩大了样本带来的偏差。
第二是算法的不透明性,人工智能的多数算法处于“黑箱状态”,缺乏解释能力,如果算法本身存在不公正倾向极难被发现。
第三是难以兼顾效率与公正。算法的目的在于找到最优解、最直接有效的手段,并不考虑解决方案对社会其他成员所带来的影响。人工智能缺乏共情能力,其所做出的决定并不会考虑人类文明所遵循的公共伦理和规则。
我们对人工智能的管控落后于其进步
上述局限性使得人工智能的广泛运用将带来与机遇相等的风险。
一方面,在一些效率优先、只追求胜负的领域,人工智能显现出远超常人的能力。政府、军方和企业为了赢得竞争优势,不得不加快人工智能的应用和研发,甚至将一些试验性、未成熟的技术投入使用。
另一方面,这种对胜率的追求也会对人类社会带来潜在的冲击,甚至将破坏人类社会中效率与公平的平衡。一个越来越由人工智能所主导的世界,很可能是一个贫富差距更加巨大、阶层固化更为明显的世界。这对于处于弱势的人群、文化和国家并不友好,将加大这些弱势群体与精英社会的差距,甚至让其成为事实上的“无用的人类”。
这些风险蕴含着一种未来世界的危险图景,即由人工智能所带来的“数字进化论”。在“数字进化论”的世界,人工智能将成为新的选择、淘汰机制,只有符合人工智能“算法偏好”的人群能够适应这种新环境,得到生存发展的机会。而其他不符合其算法需求的人们则将面临发展路径终结,其所面临的生存环境将不断恶化。
相对于人工智能技术、产业的进步,对于人工智能的管控和约束显然落后了。当今国际社会对人工智能的贪婪大于恐惧,对于人工智能的认知慢于人工智能的自我进化。但是,一旦人工智能突破了可以扳倒人类社会规则约束的临界点,那么,将没有什么来阻止人工智能决定人类的未来。在灭霸拿到极限手套的“六颗无限宝石”后,消灭宇宙的一半生命只在弹指之间。