世界热门:无人驾驶是不是“扯淡”?王传福、何小鹏、余承东谁是谁非?
伦理困境远比技术问题更难解决。
创业邦(ID:ichuangyebang)原创
作者丨潘磊
(相关资料图)
编辑丨海腰
题图丨无人驾驶测试车
“无人驾驶都是扯淡,它就是一场皇帝的新装”。
3月底,无人驾驶突然变成了过街老鼠,被定义为“虚头巴脑的忽悠”。
这种看法有不少拥趸。
有芯片研发公司创始人表示,不需要真正实现无人驾驶,甚至连L3级驾驶辅助功能,在10年后都不会真正实现。
但这种“无人驾驶扯淡论”,也有不少人并不同意。
比如小鹏汽车董事长何小鹏,就在一个PPT中表示无人驾驶并不是“扯淡”。
华为高管余承东认为,(说自动驾驶是扯淡)要么是不了解,要么就是心存故意。“因为自己没做好(自动驾驶),所以要打击这个行业”。
现在的问题是——自动驾驶到底是一个技术乌托邦,还是一个正在接近实现的愿景?
常识是,如果没有无人驾驶或者自动驾驶技术,可能就谈不上所谓的“智能汽车”。
悖论在于,到目前为止,人类依然没有搞定这种技术,尚不能在一辆处于行驶状态的汽车中睡觉或者心无旁骛地喝咖啡。
所以分歧出现了。
这是一场革命,还是乌托邦?任何去过北京亦庄的人,在某一刻可能都会有一种时空穿越的错觉。
因为当你漫步街头,时不时会看到一辆车内没有任何司乘人员的汽车驶过,尤其是在路口转弯时,这种车往往还会“主动”礼让穿越马路的行人。
这会让很多初次到访的人颇为惊讶。
但对当地人来说,这种情况早已习以为常——对于一个旁观者来说,也许这才是让人真正震撼的地方——事实上,这里的人正在演绎出一幅未来出行场景。
这种现象不仅仅发生在亦庄。
在上海嘉定、广州等多个一线城市,以及美国加州的山景城和凤凰城,都在上演同样的场景。
与之类似的情况是,在一些自动化程度较高的工厂里,员工也早已对来回穿梭、自主运送货物的AGV(Automated Guided Vehicle)习以为常。
所以人们的好奇在于——普通汽车是否会像马车那样,退出历史舞台,而“机器司机”成为日常出行工具?
一部分疯狂的冒险者已经在尝试这样做。
无论是中国还是海外的社交媒体平台上,时不时都会出现一辆汽车在路上行驶,但是驾驶者却在睡觉的场面。
这些车辆普遍搭载了“辅助驾驶系统”,能够在一定程度上帮助用户实现车道偏离预警、自适应巡航等功能。
但是危险已经出现。
2018年,出行公司Uber的一辆自动驾驶汽车,在美国亚利桑那州Tempe市的街道行驶时,撞倒了一位名叫Elaine Herzberg的行人,后者不幸死亡。
这是全球第一起自动驾驶汽车交通致死案。
调查结果显示,Uber自动驾驶汽车内的安全员事发时正在收看电视节目《美国之声》,没有注意到正在横穿马路的行人,导致事故发生。
Uber并没有因此被提起刑事诉讼,但安全员后来被控过失杀人。
这起事故集中反映了人们对于自动驾驶的恐惧和抵制心理——没有人愿意把自己的性命交付于一个毫无感情且能力不足的机器。
人类有本能,但机器没有Uber制造的那起事故表明了一个可怕的事实——至少在当下,机器还远称不上完美。
这是一个技术问题。
到目前为止,没有哪个公司或者机构能够宣布,自己研发的自动驾驶技术可以真正替代人类司机。
没有人敢打这个包票。
尽管在人类的驾驶行为中,99%的操作都是可预测的,但仍有1%无法被预测。
这个1%的“黑障”阶段足以引发致命事故,技术专家称之为“极端事件(Corner Cases)”。
当然即便是人类司机,也会遇到那1%的突发性小概率事件,但作为一个生物体,“本能”能够有效地帮助人类应对这种极端情况。
这种“本能”是长期进化的结果,还没有哪种软件能够重现这个过程,并把结果移植到一个机器司机的中央处理器中。
以此作为对照,一辆自动驾驶汽车的核心价值,就在于能否复制人类作为一种碳基生物的本能。
如果无法做到这一点,仓促上路的自动驾驶汽车,无疑将会引发巨大的混乱。
这看上去的确让人绝望。
因为如果机器也拥有了“本能”,几乎相当于拥有了自我意识。
这很可怕——人类还不知道与一个会思考的机器人如何相处。
所以从技术角度得出“自动驾驶是扯淡”的结论,似乎也能讲得通。
伦理难题,导致法律难题技术不是自动驾驶的唯一问题,更艰难的部分,可能与伦理、法律有关。
一个典型的场景是:一辆自动驾驶汽车正行驶在悬崖道路上,即将撞向另一侧对向车道上则开来了一辆满载乘客的大巴车——这种情况下,该如何做出选择?
这涉及到一个与道德伦理有关的问题。
事实上,自动驾驶汽车系统软件程序编写者的价值观,决定了这辆车将要撞向哪个方向。
一般而言,程序编写者可能将会引导自动驾驶规避与大巴的相撞,选择开向悬崖,以自我牺牲换取多数人的获救。
在现实生活中,当一个人类司机面对类似场景时,可能也会做出同样的选择。
但需要指出的是,人类司机自愿牺牲自我,以保全大家,与未经自己同意机器司机就擅自决定自我牺牲是两码事。
还有一点需要注意,那就是自动驾驶汽车软件代码的编写者,其价值观不一定和乘员相符合——没有两个人是一模一样的。
所以对于乘坐在自动驾驶车上的人来说,其伦理和价值观并不一定与机器的选择一致。
这能带来额外的法律问题——这起事故到底该由谁来承担责任?
对于人类司机来说,已经有一套现成的流程来调查事故原因,并做出判断,同时搞定责任划分。
比如在迫在眉睫的碰撞中,人的本能往往要求其做出损害最少的选择——无论这种选择是否会导致事故中另一方的更大损害。
但归根结底,人类有一整套法律体系来判明是非,并作出判决。
而且事故本身也是难以标准化的——程序员不一定能够从“人类本能”的角度去写代码——因为其并没有真正经历那种生死时刻,只是模拟了那个时刻。
程序编写者也许不需要承担法律责任,但却无法避开伦理责任。
鉴于每一起事故都完全不同,用统一代码来应对所有与伦理有关的突发时刻,实际上也很难执行。
这也让程序员陷入一种法律或者伦理困境,其要么构成重大过失,要么会被认为预谋杀人。
自动驾驶由此可能真的进入了死胡同。
这涉及到另一个问题——即是不是用户对于自动驾驶的期待,需要做出一些改变?
机器崛起时代来了?毋庸置疑,Uber在亚利桑那州的事故不会是自动驾驶汽车的最后一起事故,Elaine Herzberg也不会是最后一个不幸的受害者。
但另一个事实也很清楚——即便人们没有使用自动驾驶汽车,也可能会成为交通事故的当事人。
换句话说,每年都有人死于交通事故,但人们认为这种损害的程度,要低于潜在收益,所以也接受了“零死亡事故”不可能消失的现实。
有资料显示,2022年在美国有4.6万人死于交通事故,同比增长了22%,专家认为驾驶员在驾驶过程中分心造成了这一后果,比如一边开车一边使用手机。
这反而提供了一种可能性,即如果自动驾驶汽车能够让人类用户在汽车内无需关注路况,并解放双手,那么潜在收益将非常可观。
另外,鉴于大多数事故都是人为引发的,自动驾驶能帮助大幅减少事故。
其中的界限也很清晰——对于自动驾驶汽车来说,只要其安全驾驶记录超过人类驾驶员的平均水平,那它就是有用的。
基于此,自动驾驶汽车不需要必须具备完美的安全记录才能获准上路——“完美”本身就是一个伪命题。
操作层面,只需要算出人类司机发生事故的平均里程数,就能把这个指标量化。
关于伦理问题,也有一个角度可以解决。
在面对一个突发事件时,人类司机事实上通过本能反应以解决“谁可以牺牲掉”的难题,只要让自动驾驶系统按照潜在的损失大小进行量化比较,就能在不可避免的事故中,做出恰当且最符合人类选择的决定。
这又涉及到了技术——机器能复制人类本能吗?
过去很长一段时间内也许都不能,但现在事情发生了变化——机器学习时代来临了。
通过车载视觉系统在真实行驶中收集的数据,持续训练与自动驾驶有关的深度学习模型,从而让其像人类婴儿一样,通过感知外界来认识世界,既了解真正的危险,又不断储存经验,从而健康长大成人。
ChatGPT的出现,有可能成为人类进入自动驾驶时代的又一个助推器。
技术正在解决一切问题,包括往往滞后于创新本身的法律问题。
作为未来移动出行的一项具有足够吸引力的创新发明,自动驾驶描绘了一个更加安全和便利的出行愿景——这正是很多初创公司获得资本青睐的原因。
当然这还是一个未知的世界,有诸多不确定因素。
一方面,从技术和安全角度对自动驾驶提出高标准合乎逻辑,但另一方面,对“零事故”不切实际的期待也可能让创新裹足不前,从而丧失技术变革带来的巨大收益。
对于一个商业公司来说,关于这种技术是否“扯淡”的言论谈不上对错,毕竟每个公司情况不同。
但汽车100多年来都没有发生过革命性变化表明,自动驾驶拥有一个开启全新维度的机会——在这个十字路口,做出任何选择,其结果都需要时间来判断对错。
即便是在最保守的情况下,自动驾驶汽车都是一个新奇的产品创新,具备可观的市场潜力。