3月10日,埃塞俄比亚航空公司一架波音737 MAX 8客机在飞往肯尼亚途中坠毁。机上有149名乘客和8名机组成员,无人生还,其中包括8名中国乘客。短短半年时间,同一机型两次空难,其中一次的失事原因已明确为软件设计缺陷。虽然目前我国航空公司已经紧急叫停了该型号飞机执飞航线,但也引发我们思考:我们到底要在多大程度上信任人工智能?
“人工智能危机”上演现实版
据报道,此次失事的是一架全新的波音飞机,四个月前才交付给该航空公司。
据悉,737 MAX 8属于第四代波音737MAX家族。第一架737 MAX 8于2015年12月8日下线,环球网报道称,据公开数据统计,737 Max 8是波音公司目前最受欢迎的机型之一,已经向多家航空公司交付200余架。
来自民航资源网的数据显示,截至目前,我国国内航空公司共有96架737 MAX 8机型正在运营,中国民航局11日表示,为确保中国民航飞行安全,囯内暂停该机型的商业运行。
这也是波音737 MAX 8半年内出现的第二起严重事故,第一起发生在2018年10月29日,印尼狮航的坠落事件,189人罹难。
去年10月发生的狮航空难中,有一种比较主流的观点认为,事故的根源在于波音737MAX8安装的那套全新的安全系统。调查人员发现,飞机AOA迎角传感器错误数据,会导致飞机的尾翼配平系统启动自动保护功能,在未经飞行员操纵的情况下,自动让机头向下。美国《西雅图时报》称,正是这一系统的故障让狮子航空客机在空中进行了12分钟的“拉锯战”——接到错误数据的系统反复将机头下压,飞行员则不断将其重新抬起,最终导致飞机失控跌入爪哇海。
波音公司此前已向相关航空公司发出警告:飞机俯冲的问题只会在手动飞行时发生。彭博社当时曾报道称,在飞行员手动飞行时,此问题会导致传感器给出飞机即将失速的错误数据,737 Max会自动将机头向下压。
不过,波音737MAX8在手动模式下自动开启失速保护的AI系统非常强势,它有极高的权限,能在特殊情况下,否定飞行员的判断,按照自己的程序逻辑,代替飞行员进行操作,哪怕前方等待着人们的是死亡,它也毫不犹豫。
本次埃塞俄比亚航空空难的具体官方报告还未公布,从目前已有的消息来看,与狮航的全球第一架737MAX空难有些相似。比如狮航空难是起飞后13分钟就坠毁,埃航这次空难是起飞6分钟后坠毁,都属于起飞后不久即出现问题。
还有就是,两次飞机失事前都经历了反反复复爬升下降,下降爬升的过程。此次飞机高度7000-8600英尺之间,最大地速达到383海里每小时,超过了飞机正常的飞行速度。在此前的狮航空难事件中,该系统接收到了错误数据,导致飞机在正常情况下开始不断下压机头,飞行员在11分钟内连续手动拉升20余次终告失败,坠海罹难。
根据埃塞航公布的消息,失事的波音737 Max 8客机于去年11月15日交付,飞行时间为1000小时左右,埃航坠毁的这架飞机才仅仅使用了4个月,而去年狮航坠毁的那架飞机机龄才77天,CNN航空分析师、美国运输部前监察长玛丽·夏沃对埃航事件发表评论时说:“新款飞机,一年内两次坠毁,这种情况根本不应该发生。”
波音公司当地时间周一(11日)晚发表声明称,将针对737 MAX 8的软件系统进行升级。此前,美国联邦航空管理局表示,将在4月前强制要求对该机型进行“设计更改”。
人工智能发展绕不开算法缺陷
现在民航领域的自动驾驶已经非常普及了,与其说飞行员是在“开飞机”,还不如说是在“按按钮”。与之类似的是,近年来,汽车的无人驾驶技术进入了大众视野,在当前的设想场景里,安装了无人驾驶系统的汽车通过一个全方位的雷达感应器,可以感知车身一定距离之外的全景环境,并通过计算机技术实现精算,再作出即时反应。
完善自动化的好处显而易见,语音识别、图像识别使身份认证更可信赖,短短几秒就能证明“你就是你”,智能诊疗和自动驾驶,更让人们看到了战胜疾病、减少事故的新机会,可随之而来也出现了新的问题:如何保证每次精算的100%准确?
实际上,高效、聪明的人工智能并不完美。比如,人工智能存在算法缺陷。国外媒体曾报道这样一个案例:你正坐在一辆自动驾驶汽车中,按照每日的常规路线行驶。你们来到了一处停车标志前,这个地方已走过了上百次。然而这一次,汽车竟直接开了过去。
原因就是,在几分钟前,一名街头艺术家在这块标志上贴了一小张贴纸。在常人看来,这块停车标志看上去别无二致。但对于汽车来说,它却成了完全不同的标志。
现代的自动驾驶系统的仪器越来越精密,精准度早已超越了人工所能达到的极限,但过犹不及,它实在是过于精准了,以致于做出的判断都是习惯于对事物采取一刀切的处理方式。
再比如,接受识别癌症训练的系统主要采用的是浅色皮肤的摄取照片和扫描。在未来,它可能会导致黑褐色皮肤的人被误诊。
“每种算法都存在其漏洞,”美国范德堡大学计算机科学与计算机工程助理教授叶夫提尼·沃罗贝琴科(Yevgeniy Vorobeychik)指出,“我们生活在一个极其复杂的多维世界中,而算法只能关注其中的一小部分。”
加州大学伯克利分校电子工程与计算机系教授马毅表示,“老百姓概念里的‘大数据和我们所认为的大数据是完全不一样的,就拿图像处理来说,数十亿的数据量看似量级很高,但对我们来说,它其实是‘小样本’。因为真正能够训练出好的模型的数据量,应当是趋于无穷的,所以即便是拥有了大量数据去训练模型,和理想的智能模型之间,也有着本质的差别。”
商汤、旷视等头部企业也表示,即便训练出的系统模型准确率高达99%,但在实际应用中,系统仍然会犯很多“弱智”的错误。
科技是中立的,但人是有人伦的,在2015年5月美国布鲁金斯学会的无人驾驶研讨会上,有专家就曾提出了这样一个例子:如果无人驾驶汽车为了保护乘客而急刹车,但是急刹车会殃及旁边的行人,那无人驾驶到底应该如何做?显然决策就会存在人伦问题,正因为如此,不久前生效的欧盟《通用数据保护条例》专门规定,人工智能公司必须让人来审查某些算法决策。
腾讯研究院法律研究中心高级研究员曹建峰认为,即使作为一种数学表达,算法本质上也是以数学方式或者计算机代码表达的意见,是编程人员的主观选择,在算法决策起作用的诸多领域,算法歧视也并不鲜见。
比如去年IG夺冠,王思聪微博抽奖,113名获奖者中只有1名男性,随即有人发现,几乎所有的微博抽奖都是女性获奖。
2016年3月,微软人工智能聊天机器人Tay上线,在与网民互动过程中,性别歧视、种族歧视屡屡出现,最终微软不得不让它“下岗”。
人类应该有超越AI的权限
人工智能是一个很广阔的领域,而我们才刚刚开始上路。不过阿尔法狗已经向人类证明了AI强大的自我学习能力,假以时日,人工智能时代终将来临。
由皮尤研究中心进行的一项新研究显示,三分之二的美国人认为机器人将在未来50年内取代人类进行大部分工作。受访者当中65%的美国人认为机器人将采取确取代人类做大部分工作,受访者当中只有32%的美国人认为这种情况不会发生。
但AI是有漏洞的,它处理问题过于刚性,可能留下难以估量的安全隐患,对待AI这把双刃剑要慎重,若不注意有效地安全控制和管理,有时候会酿出惨祸。波音737 MAX 8客机在飞往肯尼亚途中坠毁的案例就是一个极大的警示。
霍金、盖茨、马斯克都曾提醒过人类,要对人工智能的发展保持警惕,防止出现“人工智能危机”,威胁到人类的生存。“人工智能的短期影响由控制它的人决定,而长期影响则取决于人工智能是否完全为人所控制。”这是知名物理学家霍金给人类留下的警示。
狮航空难和埃航空难两次惨痛的教训表明,对于关乎人类性命的事情,最后的裁决权依然应该交给人类,即便AI无比强大。
值得一提的是,两会期间,人工智能安全发展已经受到关注。政协委员严望佳特别强调了人工智能安全、可靠、可控的必要性。严望佳建议,在一些直接影响国计民生和公共安全的关键领域中,例如医疗、金融、交通和教育等,建立人工智能应用的准入审查机制,加强人工智能算法及应用的安全性、可控性和透明性的审查。
政协委员、百度董事长李彦宏也建议:明确人工智能在安全、隐私、公平等方面伦理原则。在他看来,只有建立完善的人工智能伦理规范,处理好机器与人的新关系,人们才能更多地获得人工智能红利,让技术造福人类。
清华大学张钹院士指出“我们现在的人工智能基本方法有缺陷,而我们必须走向具有理解能力的AI,这才是真正的人工智能。”正如张钹院士所言,“我们正在通往真正AI的路上,现在走得并不远,在出发点附近。但人工智能永远在路上,大家要有思想准备,而这也就是人工智能的魅力。”