华为一直认为,未来的世界是从万物的感知到万物的互联,再到万物的智能。其实用一个非常通俗的表达方式,比如三岁之前我们这里看一看那里摸一摸,就是一个感知的过程,三岁到二十五岁是神经元发展互联的过程,二十五岁以后有了自己的思想和智慧,形成一个智能化的过程。很多事物的发展也是一样,包括智能汽车或者智能网联、自动驾驶的发展,道理都是相通的。华为希望把这样数字化、ICT的技术带入个人、家庭和组织,也非常希望把包括5G在内的ICT技术带入汽车这个领域和行业。
我们认为,不能单独从车来看车,现在是V2X,就是汽车到Everything,但更多的是XTV,很多事情都要把信息发给车。这和我们说的感知、连接和智能的过程是一样的,现在的智能交通场景在自动驾驶层面和交通产品层面也是这样的发展曲线,就是从单一的、静态的交通场景开始。比如交警要把所有车辆行驶状态收上来,或者是车要把旁边车的信息收上来,会从这些静态场景未来发展到实时融合动态的场景,我们需要做一些相对的辅助控制。
我们不要等5G的商用完全来临才去考虑自动驾驶或者智能网联,因为事物的发展不是一蹴而就的,而是一个一个场景不断做下来的。我们认为现在4G的技术下,包括产业、技术和生态已经比较成熟的情况下,其实很多的场景包括准实时半自动的场景是可以用4G技术和4G生态支撑的。我认为智能交通从单一静态的场景向融合实时交互的场景是一个逐渐演变的过程,这个过程当中一定会有非常多的场景可以逐步被支撑,比如一些半封闭的自动驾驶、自动泊车、最后一公里、低速的自动物流,这些场景都会逐渐被支持,最后一定会发展到一个融合的、实时交互的场景,真正实现车、路、人、网、云的协同,V2X对未来真正实现融合、实时的交互是非常关键的一个技术。
除了从单一静态的场景向融合实时的场景转变,未来的融合实时场景占主导、主流的时候将会产生一些新的公司、新的玩家、新的物种。大家可以回顾一下高铁、航空和其它交通行业的发展,到了高级阶段其实不是单一的交通主体作为核心,一定是有一个区域的控制或者运营的主体调度作为核心。我们认为未来智能实时互动的场景占据主导的时候也可能会出现这样的一些主体,这些主体的雏形可能开始是车联网的运营商,也有可能是城市交通的管理部门,甚至可能有一两条高速公路的所有者,这些都可以成为未来新的交通运营商的初始状态。随着自动驾驶和智能交通技术的发展,随着5GV2X技术的发展,未来会逐渐出现城市、高速以及交通设施方面能够提供运营服务的新的物种。
基于这样的观点,如果这样的物种要生存下来或者要出现,必须拥有几项非常关键的核心能力:
首先是要能够实时融合地去感知整个交通的状态,包括物和车的状态,也包括路车协同的状态,必须要有这个能力去感知,就像通信运营商能够感知每一个终端的状态是一个道理,而且这种感知是融合的,不是一个单一的感知,必须要知道其所管理的交通核心要素的实时信息。
其次是要有一个平台,能够支撑它与多个系统互联,这种互联一定是跨域的。这次我们在无锡去做V2X示范的场景,就是有无锡的交警把所有路口的摄像头信息和平台的信息打通,可以使所有运行在这个场景的车辆通过这个平台调用超视距的视频,这是一个非常简单的场景,但是已经打通了交通RTX系统,包括华为OC智能交通平台以及当地交警其它的信息平台。如果没有这样的跨域互联互通能力,未来这个新的物种也无法生存。
再就是要具备意识,现在的自动驾驶完全是基于AI理论技术实现,说的直白一些,就是基于图像的识别和语音的识别,基于大量数据的训练实现。现在AI理论顶点就在这里,我们还没有突破这个顶点,AI产生不了意识和智慧,不要说智慧了,目前AI还没有办法根据已经存在的知识和经验指导它的下一步行动。我们是通过大量的数据训练来推举这种情况下应该怎么做,听到的声音的含义是什么,这是现在AI技术理论的顶点。在这种情况下,我们的自动驾驶很难达到L5,达到L4就已经很不错了,甚至L3到L4都突破不了。