• 首页
  • 襄阳
  • 湖北
  • 国内
  • 国际
  • 科技
  • 体育
  • 娱乐
  • 明星
  • 旅游
  • 美食
  • 军事
  • 财经
  • 法制
  • 时政
  • 社会
  • 教育
  • 生活
  • 女性
  • 时尚
  • 健康
  • 婚姻
  • 房产
  • 汽车
  • 家居
  • 文化
  • 摄影
  • 当前位置: > 汽车 > 正文

    自动驾驶正在撕碎人类的道德假面

    时间:2020-05-20 16:13来源:未知 作者:襄阳热线 点击:
    自动驾驶正在撕碎人类的道德假面

    自动驾驶迎来了大发展的春天。

     

    自动驾驶正在撕碎人类的道德假面

    自动驾驶

     

    5月19日,交通运输部副部长刘小明,在“加快建设交通强国 推动交通运输行业高质量发展”新闻发布会上表示,自动驾驶是新一代信息技术与交通运输行业融合发展的产物,已经成为全球新一轮的科技创新和产业变革的重要领域。交通运输部对此高度重视,将自动驾驶作为科技创新支撑加快建设交通强国的重要领域之一。在“鼓励探索、包容失败、确保安全、反对垄断”的原则下,积极推进自动驾驶技术的研发试点和应用工作。

    国家层面的自动驾驶引导加速,大约从2013年开始,米国率先公布一系列自动驾驶相关法规,包括《关于自动驾驶汽车的初步政策》《联邦自动驾驶汽车政策:加速下一代道路安全革命》《自动驾驶系统2.0:安全愿景》《自动驾驶汽车3.0:准备迎接未来交通》等。我鸽国自2018年开始发力自动驾驶相关法律法规和产学研测得配套建设,近两年可谓动作频仍,一口气公布了更新了《智能网联汽车道路测试管理规范(试行)》《自动驾驶封闭测试场地建设技术指南(暂行)》《营运客车安全技术条件》《营运货车安全技术条件 第1部分:载货汽车》《营运车辆弯道速度预警系统性能要求和测试规程》《营运车辆服务 车路交互信息集》《适应自动驾驶公路设施技术规范》《公开地图内容表示补充规定(试行)》《遥感影像公开使用管理规定(试行)》等规范文件,认定了5个自动驾驶研发中心,3个封闭测试场地。

    各大整车厂和互联网巨头,全部参与或者主导了自有的自动驾驶研究,可以说在物理层面,自动驾驶已经初步准备好了,然而,在道德层面,自动驾驶正在撕裂人类的道德假面。

     

    自动驾驶正在撕碎人类的道德假面

    自动驾驶

     

    所谓的自动驾驶,终极意义是完全依赖机器—智慧电脑完成驾驶与行驶的整个过程,在这种情况下,机器与智慧电脑需要代替人类做驾驶过程的全部决策,而这些决策,客观上一定是由人类事先规定和约束的,这导致了一些人类个体驾驶时可以随机性选择的问题,在约束机器时必须是一个恒定值,而恰恰是这个恒定值无法逃避开道德层面的悖论。

    悖论一,著名的电车难题

    电车难题不是为自动驾驶准备的,但刚好切中了自动驾驶的道德痛点。这个难题的原设定是,一辆有轨电车面临两个分道口,但一个分道口轨道上有一个无法移动的人,而另一个分道口轨道上有五个无法移动的人,这时候,电车驾驶员已经没有刹车的选择,他是选择哪个分道口呢,要撞死一个人拯救五个人,还是撞死五个人拯救一个人。

     

    自动驾驶正在撕碎人类的道德假面

    电车悖论

     

    在人类决策时,无论选择哪个分道口都是对的也都是错的,这似乎是人类觉得的隐性道德范畴,可以随机选择,但无对错。但如果驾驶电车的是机器与智慧电脑,这个问题则不能做人类一样的随机选择了,因为是创造智慧电脑的人类需要事先告诉它,应该怎么选择。那么,智慧电脑该怎么设定?撞死1人还是撞死5人?客观上,随着自动驾驶的普及,自动驾驶里程的累计,这种道德困境几乎一定会出现,开发自动驾驶的人们,已经准备好接受口诛笔伐了吗?

    悖论二,杀死自己还是杀死别人

    杀死自己还是别人的假设是,当自动驾驶遇到是紧急规避但很大可能杀死自己,还是不做规避但很大可能杀死别人的问题是,该如何选择。

    在人类驾驶决策时,这种情况可以交给应急反应而不必考量道德准则,每个驾驶员的紧急反应不同,在做紧急反应的时候,客观上也可能不清楚这种反应的必然后果。但在机器决策时,它必然已经计算出不同反应的高概率结果,那该如何设定?

    选择杀死自己成全别人的话,似乎没有道德污点,但这样的车,你敢买吗?

    选择顾全驾乘人员而杀死路人,在有这个默认设定时,已经模糊了道德底线,甚至涉嫌触犯法律。即使不讨论法律道德,单纯的考虑技术层面,当机器认为多大的概率杀死自己与多大概率杀死别人的时候,要选择杀死别人?这几乎是不能解决的。

    悖论三,保护弱者还是一视同仁

    这一悖论有点类似电车困境的演绎版,无论是乘员和行人,在需要紧急规避时,机器是可以瞬间识别出哪些是道德意义上的弱者,比如婴幼儿、老人,哪些是正常成人,如果紧急规避造成的伤亡概率相同,该不该优先保护弱者?这在人类驾驶时不是问题,因为人类孱弱的判断反应速度,但机器驾驶时,这将成为必然需要面临的选择。

    襄阳热线 xy.net.cn 2010-2011 版权所有 新闻投稿及广告热线:sheng6665588@gmail.com 湖北省互联网新闻信息服务备案登记证号:鄂ICP备05004147号-1

    网站地图