自动驾驶汽车?法律:伦理

  1. 云栖社区>
  2. 博客>
  3. 正文

自动驾驶汽车?法律:伦理

uncle_ll 2017-07-12 18:11:33 浏览1535
展开阅读全文

首发地址:https://yq.aliyun.com/articles/73372

更多深度文章,请关注:https://yq.aliyun.com/cloud

自动驾驶汽车中的法律与伦理

                                           与机器人共享道

作者介绍karla Lant 

一位有经验的自由撰稿人和编辑,兼职教授。具有先进的教育和写作经验。作为一名作家,其研究领域包括:技术、科学、技术写作、教育、商业、法律等。

个人主页:https://karlalant.contently.com/

领英:http://www.linkedin.com/in/karlalant/

自动驾驶汽车很可能会比人操作汽车更加安全,但也不是完美的。在很长的一段时间里,自动驾驶汽车仍然需要与人自己驾驶汽车共享道路,这意味着大量关于自动驾驶汽车的法律和伦理应该被发展。

目前的法律状态

汽车的驾驶员和安全领域中以人类的伦理标准编撰自动驾驶汽车的法律,这意味着以灵活的方式诠释许多法律法规,以至于我们能够在每种情形下实现一个公正的结果。

正常人标准

在类似的情况下,如果没有像一个合理谨慎的人那样做,那么我们是疏忽大意的。在决定一些人的行为是否像正常人,法律考虑了很多的因素,包括个人经历、学识以及其感知能力等。

法律假设我们所有人都能看见、听见并知道正常人会在相同情形下的行为,并假设都知道一些常识。

217ba359b631bbb19ea0af34c98089b6590117fe

合理的机器人

合理的机器人应该需要满足或者超过对正常人的期望,这即是简单又是复杂的,因为它包含了技术和伦理成分。

合理的技术

自动驾驶汽车将有尽可能多的感知信息,以帮助其作出每个决定。在加利福利亚,自动驾驶汽车牌照必须提供它们30s的传感器数据,这意味着工程师有数据去精确地重建任何碰撞、分析其逻辑处理以及感知的预备方案。最后,自动驾驶汽车的碰撞将会很少发生,但一旦发生碰撞,律师和监管部门将能够对这些汽车执行难以置信的高安全标准,以至于人类永远不会与其发生碰撞。

068f54b42719718ab3efd45bff27b4271fbc9329

合理的伦理

当考虑到伦理问题时,合理的机器人就陷入问题中,我们认为正常人知道基本的常识,但这对于机器人来说是困难的。另外驾驶与风险同在,决定如何在自动驾驶汽车、骑自行车的人、行人之间分配风险,如何遵从法律、分散风险并最小化伤害,这些都是需要面临的难题。

1da2b2289b8114aea53e3f82cfc5d5865cd01ef0

自动驾驶系统使用判断违反法律

存在许多的情形会让驾驶员的常识不顾法律的规定,比如一个小孩突然跑进你车前的视野中,你将会在双黄线上转弯以避免撞到小孩。对于自动驾驶系统而言,这主要归功于在安全的前提下决定破坏双黄线法律。自动驾驶系统不依赖于人的常识,但存在置信度。

7b69f1851a033e2bc68d9b9e546cf6d27f63091b

伦理和最小化法律责任

谷歌在2014年知识产权中取得了针对自动驾驶系统的风险最小化策略的专利权。谷歌想象自动驾驶汽车行驶在三线宽的公路上,左侧有一辆小车,右侧有辆大卡车。自动驾驶系统将会使其更靠近小车以最优化汽车的安全。但这个涉及到伦理问题,自动驾驶系统不公平地将更多的危险分配到小车上。

c1a8859ad52882558ce3d0c268f6a755a575edd6

生命独无二的价值

现存的法律系统估计生命是与自动驾驶系统有区别的,比如在非正常死亡负责起诉陪审团能基于逝者的教育水平、工作性质以及其它因素来决定一个人的生命在未来有的价值。而在风险分配和自动驾驶系统中,这种区别潜在会带来不好的结果。

17588744a16c877b39863d13d7589c9250bc341a

双输的情景

双输情景会在碰撞是无法避免的时候发生,在这种情景中,自动驾驶系统应该基于一些目标最小化产生的结果,决定什么目标就会选择不同的方式。最小化人的伤害是一个重要目标,但是选择如何分配或者直接伤害人并按照人的优先顺序排列保护是困难的。

6b6088c9ea333f120917bd87ce4a9e37f465c37c

经济上的损失

假设自动驾驶系统能够精确地区分动物与非动物目标,非动物目标应该如何排序?如果自动驾驶系统必须选择伤害其中一个,应该首先伤害最小价值的汽车?应该对自动驾驶系统的伦理进行编程以避免受到一些人为因素去碰撞其它汽车?

4afd3b342458d3a527c40f88e57a5a153f15e8ea

关于针对自动驾驶系统的机器人伦理

没有单一的伦理指导原则指导自动驾驶系统编程。而不是寻找正确的基本指令我们应该学会通过将编程伦理看做成一个工程问题来区分各种问题的解决办法。

1a4f66b00700c702dff052dacee2a31341add907

伦理作为工程上的挑战

将伦理作为一个工程问题意味着服从一些严格的限制当需要优化几个方面。选项在道德上不可接受或根据约束几乎不可能排除。识别利益相关者和共同利益可以阐明剩余的选项。

理想情况下,基于控制的结果决定是高风险或低风险决定是否硬编码或将选择留给消费者。高风险的硬编码决定最大化安全并维护制造商之间的竞争,并通过允许消费者选择低风险的决定来尊重消费者并提供更多的选择。

863e5a9523e557e707384d8af8453f287dfdf329

在设计中嵌入伦理

专业伦理学家应该参与到设计和工程过程中,这种方式在设计决策时有具体作用,可以在做出道德决策之前识别选择。伦理作为设计过程的一部分,所有可能的权衡可以被视为伦理的积极方法中的一部分。

d20f0f6a2c244f9a6e0b66cc614df943323a3ff6

 

本文由北邮@爱可可-爱生活老师推荐,阿里云云栖社区组织翻译。

文章原标题《Lows and Ethics for Autonomous Cars》,作者karla Lant,译者:海棠,审阅:东东邪

文章为简译,更为详细的内容,请查看原文

 翻译者: 海棠 

Wechat:269970760 

Email:duanzhch@tju.edu.cn

微信公众号:AI科技时讯

157f33dddfc596ede3681e0a2a0e7068dc288cc1

网友评论

登录后评论
0/500
评论
uncle_ll
+ 关注