摘要:
许多传统上由人做出的重要决策,现在都是由计算机做出的。算法统计选票、批准贷款和信用卡申请、指定公民或社区进行警务审查、选择纳税人进行税务审计、批准或拒绝移民签证等。然而,监管此类决策流程的问责机制和法律标准,尚未跟上技术的步伐。目前,可供决策者、立法者和法院使用的工具,是为监督人类决策而设计的,当把它们应用于监督计算机决策时,通常会失灵。例如,如何判断一个软件的意图?由于自动化决策系统可能会输出不正确、不合理或不公平的结果,因此,我们需要采取其他手段,以使此类算法具有可问责性和可操控性。本文提出了一套新的技术措施,它能够以法律公平为准绳,来验证自动化决策。法学界的主流文献认为,算法透明可以解决这些问题。本文对这一主流观点提出挑战。通常而言,源代码的公开,既不必要(由于计算机科学中的替代技术),也不足以证明决策流程的公平性(由于分析代码时所存在的问题)。此外,算法透明也可能是不可取的,例如,它可能会披露个人信息,也可能会帮助不法分子或恐怖分子与税务审计或安全检查的系统进行周旋。真正的核心问题是:如何使自动化决策更具可问责性,以确保公民个体和整个社会的利益?本文认为,技术正在创造新的机会——以比算法完全透明更巧妙、更灵活的方式,来设计自动化决策的算法,使其更好地顺应法律和政策的目标。这样做不仅可以改善当前对自动化决策的治理,而且在某些情况下,还可以改善普通决策的治理。人类决策者的内在(或外在)偏见,很难被发现和根除,但我们却可以窥视算法的“大脑”:计算过程和目的规范可以在事前声明,并在事后验证。本文介绍的技术可以得到广泛应用。它们可以用来设计私营机构和公共部门的决策流程,并可根据决策者、监管者或公众的