随着人工智能的应用不断推进,参与我们的日常生活和社会治理,如何设计一个人工智能系统不仅仅是科学家和工程师的工作。越来越多的设计范式涌现,“人机回圈”(Human-in-the-Loop)是其中一个核心部分。在许多情况中,机器所面临的是一个复杂的问题,需要决策与妥协。而通常,如何妥协的问题是一个伦理问题,不能单纯依靠机器学习的算法来得到答案。这时,需要一个人机回圈的过程来辅助机器做决策支持,人是规划环路的一部分,人的判断既用于业务决策,又被反馈到机器学习算法中,使其更智能。在涉及到千万人的社会问题中,更需要由大家众筹得到一些社会问题的共识,形成自动算法+社会判断的反馈回路,这就是所谓的“众机回圈”(Society-in-the-Loop)。启蒙时代标志着人类向现代的社会契约转型。现在,我们致力于缩小“众机回圈”的差距可能将人类带向一个新的算法化的社会契约。通过协作式规划,迎接人机共存的未来。
  人工智能前沿之“众机回圈”
Iyad Rahwan在刚刚发表在《科学》杂志上的文章中第一次使用“众机回圈”(Society-in-the-Loop)这个术语。在这篇论文中,他在线测试公众会如何为一辆自动驾驶汽车在不同情况下做各种决定—这是个现代版本的伦理学中的“电车难题”(注:该项目名为Moral Machine,是一个致力于采集人类对自动驾驶汽车等未来智能机器可能遇到的各种道德难题的意见的平台)。实验背后的想法是,通过理解公众的优先选项和价值观,我们可以训练机器,使它按照社会认可道德的方式行事。我们还可以创造一个系统,允许人们与人工智能(AI)进行交互,并通过提出问题或观察其行为来测试道德。

   “众机回圈”是“人机回圈”(Human-in-the-Loop)的拓展版本,这也是AI研究中一个越来越重要的领域。通常,机器由AI工程师使用大量数据“训练”。由工程师决定使用什么数据,如何加权,使用的学习算法类型和各种参数来尝试创建一个准确有效的模型,做出正确的决策并提供准确的见解。训练机器的人通常不是某个领域的专家。多数情况下,机器学习的训练由机器学习专家完成。这产生了一个重要的问题,数据中的任何偏差或错误将导致偏差和错误的模型。一个例子是如果数据来自于允许拦截和搜身的地区 - 很明显,目标社区会显示出更高的犯罪率。

   “人机回圈”机器学习是一种尝试创建允许通过让专家与机器的一系列交互参与到机器学习的训练中的系统工作。“人机回圈”的核心是构建模型的想法不仅来自数据,而且来自于人们怎样看待数据。 Karthik Dinakar称这个过程为“透镜”,提取某领域专家或公众的视角,并将其用于训练机器学习算法。我们认为这对于提供机器学习的民主化的工具有重要的启示。
在最近一次与哲学家和人工智能及技术专家的会议上,我们讨论了机器替代法官工作的可能性。我们有证据表明,机器可以对涉及数据的事情做出非常准确的评估,并且我们可以合理假设用机器来判断保释金额或假释之类的决定可以比人类更准确。此外,有研究表明人在授予保释或判断保释金额时并没有优势。例如,判决是在午餐前后会对结果产生重大影响。

   在讨论中,我们中的一些人提议用机器代替法官的某些职能,例如判断保释和假释。然而哲学家们解释说,虽然它从功利主义的角度看结果可能更正确,但对于社会来说,“法官是人”比获得“正确”的答案更重要。因此,获得公众的接受对于任何机器学习系统来说都是很重要的,解释这个观点也是很重要的。

   有两种方法可以解决这个问题:一种方法是尝试将人纳入循环中(Human-in-the-Loop),并使用机器来协助或扩大人类法官的能力。这可能是有效的。另一方面,在医学或飞行飞机等其他领域的经验表明,人们可能以错误的决定推翻机器的选择,在一些情况下很有必要防止人们推翻机器的选择。同样,人类可能信任结果,只让机器运行系统。

   第二种方式是机器由公众社会纳入循环中的训练(Society-in-the-Loop),通过这样的方式,人们可以感受到机器更可靠地代表了人类,并且包含不同的价值观。这并不是前所未有的。在许多方面,理想的政府是一个人民感到充分知情和参与,允许政府行使权力,并相信它代表他们,并且能为行为负责的政府。也许有办法设计一个机器,可以获得公众的支持和代理,能够受到公众的培训,并且足够透明能让公众可以信任它。政府处理能处理竞争和利益冲突,那么机器也可以。虽然还存在明显的复杂障碍,包括:与传统软件不同,机器学习模型更像是一个大脑,其中代码像一系列规则,不可能查看每一个比特来理解它究竟做什么或将做什么。需要有一种方法让公众测试、审核机器的价值观和行为。

   如果我们能够弄清楚如何从公众获取输入,然后获得公众的支持,使他们成为这台机器的最终创造者和控制者,它可以解决这个司法问题的另一方,由人制造的机器犯罪的问题。例如,如果公众认为他们对自动驾驶汽车的行为有足够的投入和控制,公众是否也能感觉到公众或代表公众的政府能对自动驾驶汽车可能造成的损害负责,从而帮助我们解决任何公司开发自驾车汽车将面临的产品责任问题?

   机器将如何接受来自公众的输入,并由公众进行审核和控制,可能是最重要的需要开发的领域之一。这个领域可以使人工智能实现决策功能,保证公正甚至挽救生命。这需要向每个人提供机器学习的工具,建立一个非常开放和包容性的对话,并重新分配来自人工智能进步的力量,而不仅仅是找出方法来训练它显得符合伦理。