登录×
电子邮件/用户名
密码
记住我
技术

高新技术会带来多少道德难题?

FT副主编桑希尔:随着人工智能、生物科技和机器人领域的技术进步,每个人都急于弄清楚其对社会、经济和道德层面的潜在影响。不妨先考虑三个问题。

毕加索(Pablo Picasso)曾经说过:“计算机没什么用。它们只会给你答案。”

这位西班牙艺术家的笑谈或许符合20世纪的实情,那时计算机在很大程度上是强化版的计算器,用于执行明确界定的功能。但是,21世纪初计算能力的扩展意味着,计算机现在提出了我们这个时代一些最棘手的问题。而且目前还不清楚由谁负责提供答案。

人工智能、生物科技、纳米技术、机器人技术和神经系统科学等领域的技术进步,促使政策制定者、商界人士和消费者急于弄清楚它们在社会、经济和道德层面的全面潜在影响。

不妨只考虑三个问题。第一个是,人工智能是否像埃隆•马斯克(Elon Musk)所说的那样,“可能比核武器还要危险”?

几十年来,失控机器人摧毁其创造者的想法,一直是科幻小说的一个热门话题。但现在,一些严肃的科学家(比如史蒂芬•霍金(Stephen Hawking))以及知名的科技企业家(包括执掌特斯拉汽车(Tesla Motors)和SpaceX的马斯克)都对此表达了担忧。

我们如何才能确保人工智能被用于仁义目的、而不是非道德目的?足以威胁人类生命的超级智能即使真会出现,看来也至少是几十年以后的事情。

去年底,马斯克、彼得•蒂尔(Peter Thiel)以及硅谷其他一些企业家承诺投入10亿美元,创立非盈利公司OpenAI,其宗旨是保证人工智能一直是“个体人类意志的延伸”。

“很难设想人类水平的人工智能可能怎样造福于社会,同样难以想象的是,如果构建或使用不当,它可能对社会产生多大危害,”OpenAI的创始人在一篇博文中写道。

马斯克还向位于马塞诸塞州剑桥的未来生活研究所(Future of Life Institute)捐赠了1000万美元。该所正在研究人工智能在社会和伦理层面的影响。

该所的使命宣言是这么说的:“技术正给人类带来前所未有的潜能,让他们绽放才华……或者自我毁灭。让我们来扭转乾坤吧。”

第二个难题是,如何在自动驾驶汽车中植入“伦理弹性”?无论是好事还是坏事,人类驾驶员在评判不同情景的伦理时具有无限的灵活性——比如,违反“不得超车”规则,以便让骑自行车的人享有更大路面空间。但是,我们应当对自动驾驶汽车如何编程,使其在遇到真正危机时做出正确反应?我们应当为车主提供可调整的伦理设置吗?

在去年的一次演讲中,德国汽车制造商戴姆勒(Daimler)的首席执行官蔡澈(Dieter Zetsche)问道,“如果一场事故真的无法避免,而唯一选择是撞上一辆小汽车还是一辆大卡车、驶入沟渠还是撞上一堵墙,或者冒险沿边擦过推着婴儿车的妈妈还是80岁的老奶奶时”,自动驾驶汽车应该怎么做?

自2012年以来,戴姆勒和奔驰基金会(Daimler and Benz Foundation)已支出逾150万欧元,支持一个由20名科学家组成的团队,研究自动驾驶的社会影响以及由此引发的一些伦理难题。

这样的问题以前是道德哲学家研究的领域,比如哈佛大学的迈克尔• 桑德尔(Michael Sandel)曾经探讨的课题:“谋杀会是合理的吗?” 但现在,公司董事们和车主或许日益发现,自己不得不辩论伊曼努尔•康德(Immanuel Kant)的绝对命令(Categorical Imperative)与杰里米•边沁(Jeremy Bentham)的功利主义(utilitarianism,又称效用主义)的利弊。

FT中文网客户端
点击或扫描下载
FT中文网微信
扫描关注
FT中文网全球财经精粹,中英对照
设置字号×
最小
较小
默认
较大
最大
分享×