最明显的分歧不是全世界受试者之间的分歧,而是他们和专家之间的分歧。弗吉尼亚交通研究委员会的研究科学家Noah Goodall说:“人们会提议一些不道德的行为,比如把保护狗的优先级置于保护罪犯之上。”人们对电车困境问题(以及其他许多问题)的道德本能和在生活中并不一致。在此前的一系列研究中,Shariff和图卢兹经济学院的Jean-François Bonnefon以及麻省理工学院媒体实验室的Iyad Rahwan调查了近2000人对自动驾驶汽车的看法。去年,德国交通部采纳了一个由14名成员组成的道德委员会的建议,禁止试图使用性别或年龄差别来解决电车困境。“我在‘道德机器’实验中看到的最大价值在于,这有助于发现需要解决分歧的关键领域。”Lin说。如果有时间进行反思,大多数受访者很可能会同意专家的观点。“至于人们在网上游戏测试的倾向是否和现实中的表现相同,我们还不得而知。”Shariff说。许多伦理学家比受试者更能区分是否采取行动。Lin说:“如果你必须在主动杀死别人(kill them)和被动让别人死亡(let them die)两种罪恶之间做出选择,那么后者的罪恶会稍微轻一些,这就是为什么在电车问题上不采取行动是能被接受认可的原因。”他表示不采取行动是有局限的,如果要在一名路人和十名乘客之间该怎么选择?但调查参与者考虑选择最佳实用性也同样会有局限。在2015年的一篇论文中,Lin提到一个两难问题:是撞一个戴头盔的骑车人,还是撞不戴头盔的?撞击戴头盔的人更有可能存活下来。但如果是否戴了头盔决定你会不会被撞,谁还会选择戴头盔呢?事实上,一些骑车人已经会借口因为司机倾向去撞有头盔的人,来给自己不戴头盔的行为进行开脱。━━━━道德抉择有待时间考验怀疑论者反对说,整个测试过程过于简单,没有多大用处。Goodall说:“这些场景看似可能发生,但实际上难以成立。”它描述了一连串不可思议的故障:在步行区驾驶汽车,以高速公路速度行驶,并且刹车失灵。更糟糕的是,他们假设驾车人对事件有完备的认知并能清楚地预料到可能出现的所有后果。但通常,我们并非是在沉着的理性认知中权衡利弊、进行操作。代尔夫特理工大学研究技术伦理学的教授Aimee van Wynsberghe说:“尽管作者认同这个缺陷,但他们没有意识到这个缺陷非常致命。”她认为自动驾驶汽车应该被限制在专用的高速公路上行驶,在那里他们不需要进行繁琐的道德计算。不过,Lin认为,这个项目就同其他任何科学实验一样,将问题分解到本质,使其更易于处理。他说:“的确,像大多数的科学实验一样,这个实验是人为设计的,但这并不能说明它是无效的。”电车问题让人们讨论了几个有争议的原则:不采取行动是否等同于采取行动,涉及的人数是否重要,以及某类生命体是否比其他生命体更具价值。现在,汽车公司应该好好考虑下这些权衡取舍的问题了。“他们会提前一到五年规划出这些决策。”Lin说,“即便他们真的陷入这种两难困境,他们比真人反应的时间也多得多。”Shariff说,“道德机器”也可以用来研究机器伦理学的其他问题,例如法院和假释委员会用来预测累犯风险的算法。这套系统能提供更为准确的预测,有助于降低社会整体犯罪率,减少监狱中被关押的人数。但如果这种减少在不同种族或其他类别中有明显差异,则会打破分析预测的平等性。人们能够接受这种妥协吗?“我们应该优先考虑它的准确性,还是应该优先考虑平等(即使这意味着为了平等而把更多不必要的人关进监狱)?”他补充道。从定义上讲,两难困境并没有一个简单的解决办法,但我们至少应该仔细考虑各种选择,并能够捍卫我们的选择。