近日,发改委、工信部等11部委联合印发《智能汽车创新发展战略》文件,提出在5年时间构建6大体系,到2025年,中国标准智能汽车的技术创新、产业生态、基础设施、法规标准、产品监管和网络安全体系基本形成,有条件自动驾驶的智能汽车达到规模化生产,高度自动驾驶的智能汽车在特定环境下市场化应用。
智能汽车既是人工智能与机械化的结合,也是信息文明时代人、社会和智能相互融合的一种方向,是智慧城市的一个要素。构建智能汽车的6大体系,是同时发展实现目标,还是分时间和重点一个个突破,这个问题还需进一步探索。而智能汽车能不能上路,既在于技术是否实用,也在于与之相关的社会要素是否配套,因此,尽管智能汽车的6大体系需要推进,但还需要其他方面的配套发展,例如伦理和法规。
按照科技与社会关系的架构,技术的发展在先,它是一种创造性的推动力量,因此,技术是先行者,之后,人类社会需要制定相应的规则来适应技术创新。现在的智能汽车就是如此。一方面,需要对原有的交通规则进行修改,或者重新制定智能汽车时代的交通规则,另一方面,必须要解决智能汽车的伦理问题——对人类社会的伤害减到最小,或接近零。这是1967年由哲学家菲利普·福特提出的哲学难题,在智能汽车时代,这一问题可能会更加凸显和尖锐。
无论智能汽车的技术如何尖端和适用,道路基础设施如何先进,智能汽车上路也会有产生交通事故的可能性。在事故将要发生之前,AI的选择是挽救路人还是保护汽车中的乘客,这是必须解决的问题。
2018年8月,麻省理工学院媒体实验室的研究人员在《自然》杂志发表了一项大规模调查结果,揭示了自动驾驶汽车在全球不同国家的伦理偏好,以及这些偏好的一些区域差异。对233个国家的受访者进行的调查表明,不同社会的伦理具有共性,保护人类的生命,而非其他动物的生命;拯救多人的生命,而非少数人;保护年轻人的生命,而非老年人。
同时,智能汽车无论是否出现事故,法律上该负什么责任,也必须在智能汽车上路前都应当制定出规则。而如今,社会配套方面并没有制定相应的规则。2018年3月18日晚,美国Uber的一辆自动驾驶汽车撞上了49岁的妇女伊莱恩-赫茨伯格,并导致其死亡。2019年11月19日,美国国家运输安全委员会(NTSB)宣布,车祸的主要原因要归咎于Uber脆弱的安全文化,公司的法人代表(董事长或CEO)要负主要责任。但是,这并非是法律上的判决。而且,当时Uber自动驾驶汽车上还有一名安全员,并非完全无人驾驶。
在未来,如果完全是无人驾驶,出现事故是公司法人负责,还是智能汽车的设计者负责,抑或智能汽车的运营者、审批者负责,或者是其都有责任?种种伦理和法规,都是需要在智能汽车上路之前就应当解决的问题。因此,尽管智能汽车有必要推进6大体系,但是,技术创新与伦理法律也应当同步进行。
(责任编辑:戴贤军)
免责声明:中国网汽车转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。
本文来自投稿,不代表中国汽车之声立场,如若转载,请注明出处:http://www.china-auto.org.cn/zt/2020/0922/269.html