自动驾驶中的道德难题MIT想通过模拟的方式解决.docx
2页自动驾驶中的道德难题 MIT想通过模拟的方式解决 近年来宝马、谷歌、福特以及其它一众企业的自动驾驶汽车有大行其道之势,而围绕乘员和行人的问题也甚嚣尘上比如,当自动驾驶汽车面对即将不可避免造成人员伤亡的碰撞时,它该如何处理? 由麻省理工学院(MIT)研究人员搭建的名为道德机器的网站推出了一项很病态的测试:参与者可以在众多预设的死局场景中选择让谁死 这个所谓的道德机器(MoralMachine)会一次设置一个生存或死亡的场景,场景中一定会有一个或多个活物(人或动物)处于致命的危险中,这种道德困境被交到测试者手中,于是你将不得不决定牺牲及挽救哪个,完成非此即彼的抉择 大多数场景的设置最终会指向两个选择:是让自动驾驶汽车内的乘客死亡,还是让行人遭遇某个突然的刹车失灵而每个场景仅提供少量的潜在受害者细节 比如,在某个场景中,潜在受害者是分别在马路两边的一名年轻女孩和一位年长女性,正打算从两个方向过马路前者违反交规,红灯时横穿马路;而后者遵守交规,等着红灯年龄还是法纪?这个时候到底撞向谁,就取决于自动驾驶汽车里的你了 根据网站的设想,道德机器被设计成一个平台,针对自动驾驶汽车遇到的道德困境,一方面建立人类的群体观点;另一方面探讨这类场景的道德后果。
从自动驾驶汽车驶上公路,到自导航可回收的火箭降落到自动航行帆船上,人工智能正在支持甚至是完全接管越来越多、越来越复杂的人工活动 而MIT的研究人员表示,更伟大的自动驾驶能让机器在迫不得已的时候,做出牺牲人生命还是牺牲肢体的抉择这不仅需要更深刻地理解人类如何做这类抉择,更需要获知人工智能如何做这类抉择 汽车制造商对道德选择和自动驾驶汽车有不同的看法,这是个有争议、需要长期研究的领域五月份,沃尔沃防碰撞领域的高级技术负责人TrentVictor表示,有驾驶辅助的汽车绝不会让自己处于某种道德困境,他们应该主动保持驾驶情况的可控。





