无人驾驶

AI杀人,谁来负责?

如果说某一人工智能系统需要承担直接责任,那么谁或者什么需要因它而受到惩罚?再有,具体会通过什么样的形式来接受惩罚?反正就目前而言,这些问题都还没有一个明确的答案。

试想一下:现在是2023年,路上全是无人驾驶汽车。不幸的是,其中一辆撞死了行人,酿成了自普及以来的第一起事故,因而登上了各家报纸和媒体的头版头条。那么,在这场势必会备受瞩目的交通事故诉讼案中,应该应用什么样的法律法规?

以往,这个问题我们是完全没有想过的。但好在,来自英国布莱顿大学的John Kingston,为我们提供了一些思路和答案。他为我们分析了这个尚处于早期发展阶段的法律领域,同时也提出了一些相对而言较为重要的问题,希望汽车行业、计算领域和法律界能够认真去寻找相应的解决方案。

其实,在上述设想情形中,我们所要争论的核心问题,就是人工智能系统是否需要为其不当行为或带来的严重后果承担特定的刑事责任。Kingston指出,来自以色列非营利学术机构Ono Academic College的Gabriel Hallevy,已经针对这一问题进行了较为详细的分析以及较为深入的探讨。

通常情况下,刑事责任的界定,同时需要心理层面上的意图和生理层面上的行为。用法律行话来说,就是既需要犯罪行为,也需要犯罪意图。根据Kingston的介绍,Hallevy主要列出了三种适用于人工智能系统的场景。

首先,第一种情形就是借助他人实施攻击或犯罪。简单地说,如果实施攻击的一方,是心理上存在缺陷的人或动物,那么就应该判定为无罪。但如果有人故意教唆心理上存在缺陷的人或动物去攻击他人,那么这个教唆者就应该判定为有罪。举个例子,如果狗主人诱导自己的狗去攻击其他人,那么狗主人就应判为有罪,因而要承担相应的法律责任。

同样的道理,放到人工智能系统上来。如果那些设计智能机器或者使用智能机器的人,存在某种攻击他人的意图,那就另当别论了。用Kingston的话说:“按理说,某款人工智能程序本身应该是没有任何思维能力的,所以一旦出了事是应该判定无罪的。但它背后的软件程序员或用户,如果涉及故意攻击之嫌,那就应该判定有罪。”

其次,第二种情形就是我们通常所说的自然可能后果。

违法和不良信息举报电话:010-64158500-8113,18610056652    举报邮箱:infoweb@zero2ipo.com.cn    举报网上不良信息