登录×
电子邮件/用户名
密码
记住我
人工智能

让人类管好算法

弗洛里迪:我们都可能沦为算法错误的受害者,比如不公平的责任认定,或者其他一些“卡夫卡”式的由电脑造成的灾难。

4月26日,英国下议院(House of Commons)科学技术委员会公布了其“决策中的算法”调查收到的回复。它们在长度、内容和角度上各有不同,但都有一个重要信念:就信赖算法作出的决定而言,人类的干预可能是不可避免的,的确,人类干预将是件好事。

自动化已彻底改变了农业和工业。如今,棕领和蓝领工人是少数。约80%的美国就业岗位在服务业。我们大多数人会在工作中与数据和软件打交道,而不是农作物或重型工具。问题是电脑在对付数据和软件方面得心应手。数字革命正在威胁白领就业。

这不是因为数字让技术变得智慧,而是因为它让任务变得愚蠢,换句话说,成功执行这些任务不需要智慧。一旦这种情况出现,算法就能介入并取代我们。

后果可能是今天的大范围失业,但可能也意味着明日的新就业岗位。例如,欧元区失业率仍高于9%。然而在德国,工程技术人员供不应求。英国也是如此。根据世界银行(World Bank)的数据,到2030年,全球将需要8000万医疗工作者,是2013年的两倍。

在一个算法和其他自动化过程日益明显的社会里,下议院特别委员会聚焦的重要问题是,我们能够在多大程度上信任这些无脑技术?如今做决定的经常是它们,而不是我们。

既然白领就业正在被取代,我们都可能沦为算法错误的受害者,比如不公平的责任认定,或者其他一些“卡夫卡”式的由电脑造成的灾难。

防范这类失败的最佳方法是让人类智慧重新做主。

信任取决于任务的完成、透明度和问责制度。例如,如果你的医生在尽心尽力,如果你看得到他们在做什么,如果他们在出现问题时承担责任,那么你就会信任你的医生。算法也是如此。如果它们完成的是应该完成的任务,如果它们在是否完成任务方面是透明的,如果在出现问题时,我们可以追究某人的责任,至少是道德上的责任(如果不是法律责任的话),我们就会信任它们。

这就是人类要介入的地方。首先,要设计正确的算法,以此降低风险。其次,即便是最好的算法有时也可能出错,或者被导入错误的数据或者以其他方式被不当利用,因此我们需要确保不把所有决策都交给无脑的机器。第三,尽管一些关键决定可能的确过于复杂,人类无力应对,但我们应监督并管理这些决策过程。第四,尽管决定是由算法做出的,但在出现问题时,这不能成为无视只有人类能够提供的洞见和理解的理由。

简言之,我们需要一个由人类监督的设计、控制、透明度和问责体系。这不需要意味着拒绝数字技术提供的帮助。毕竟,尽管电脑下棋的技能可能超过人类,但人机合作才是无敌的。

显然,下议院特别委员会调查收到的回复是好消息。它们表明,未来人类将有大量的智慧工作要做。但填补这些新岗位的不是白领员工。只有专家才能应对这种新的数字环境及其人工代理。算法将是新的羊群。我们未来的工作将是做行业的牧羊人。“绿领工人”时代正在到来。

本文作者是牛津大学(University of Oxford)哲学和信息伦理学教授

译者/梁艳裳

FT中文网客户端
点击或扫描下载
FT中文网微信
扫描关注
FT中文网全球财经精粹,中英对照
设置字号×
最小
较小
默认
较大
最大
分享×