9月1日举办的百度世界大会上,百度公司创始人、董事长兼首席执行官李彦宏先生与NVIDIA联合创始人、总裁兼首席执行官黄仁勋先生共同表示,双方将达成合作,共同开发基于人工智能的自动驾驶汽车平台。

2.0_.PNG


其实,对绝大多数了解人工智能这个领域的朋友而言,双方的合作可谓“皆是意料情理之中”,因为NVIDIA和百度早在4年前(2012)就已经在深度学习研究上擦出了火花。

当时已经担任百度首席科学家的吴恩达与NVIDIA宣布:GPU加速的高性能计算使深度学习速度大幅提升。而如今百度Minwa超级计算机配备了144块NVIDIA Tesla K40 GPU加速卡,百度深度学习平台运行着数以千计的NVIDIA Tesla GPU,甚至百度位于中国和硅谷的人工智能实验室都少不了NVIDIA以GPU为核心打造的超级计算机的身影…所以,NVIDIA和百度在自动驾驶技术领域的合作不过是之前关系向新的维度延伸罢了,可以说是水到渠成的结果。

在大会上,黄仁勋先生表示,这两家公司将在人工智能和深度学习方面展开合作。“英伟达与百度的合作,将汇集两家世界级公司的技术实力,以及我们各自在人工智能领域的专长,”他说 “通过在这两方面的合作,我们能够打造一款‘从云到车’的架构平台,并有望在今后几年内推出搭载该平台的汽车。”

百度公司研发自动驾驶汽车已经不是秘密,在国内已经进行了多年测试,上周刚刚获得美国政府许可,将在加利福尼亚州测试自动驾驶汽车,按照他们的规划,百度自动驾驶汽车会在5年内量产。

另一方面,我们也知道NVIDIA公司的Tegra处理器重点已经转向汽车电子市场——这个领域不需要关注处理器功耗及基带问题,更适合高性能的Tegra发挥优势。今年初NVIDIA又推出了Drive PX2自动驾驶平台,性能非常强大,号称世界首款车内AI超级电脑开发平台。

依托双方在人工智能领域的丰富的经验与专业知识,此次合作结合了百度云平台、地图技术和NVIDIA汽车人工智能计算平台。

2.1_.PNG


黄仁勋先生称,英伟达和百度将构建一个端到端的自动驾驶汽车解决方案,它们的最终目标是打造一个让百度得以推出无人驾驶出租车队的驾驶平台,它们还计划将该平台授权给汽车OEM厂商使用,而且所有使用该平台的汽车都将融入到同一个网络。黄仁勋先生表示,这意味着该平台将向品牌汽车商的消费车型开放,同时也向商用无人驾驶汽车开放。他还称,这是一个“完全开放”的平台,他们非常希望其他汽车OEM厂商能够加入到当前的研发队伍当中。

黄仁勋先生最后表示:“NVIDIA所做的每件事,都是为了让客户完成更伟大的事,这就是NVIDIA的使命。未来,相信诸如百度这样的中国企业,将能够引领人工智能技术的研究,为人工智能技术的应用提供更广阔的空间。NVIDIA也希望能与更多的中国企业一起,开创人工智能的黄金时代,共享这个时代的红利与未来。”

不过大家一定好奇的是NVIDIA和百度合作的细节,以及双方未来在基于AI的自动驾驶汽车研发上都有哪些具体规划?小编整理了车云网对黄仁勋先生的专访。专访就NVIDIA &百度的合作、人工智能、深度学习等问题进行了交流。所以往下看别走神,下面有你们想要了解的所有答案。

NVIDIA&百度合作的三大维度

在9月1号上午百度世界大会的主题演讲中,黄仁勋先生就在不断地重申自动驾驶给计算领域带来的巨大挑战,需要深度学习和人工智能应对无限可能的状况。而实时感知环境并根据周围环境,确定汽车位置,制定行车计划,实现安全驾驶,这一切都必须建立在自动驾驶系统能够快速响应的前提下。

2.2_.PNG


所以当记者询问NVIDIA和百度的合作细节以及未来有哪些规划时,他首先抛出的是要实现无人驾驶的三大重要技术:

1. 具备超算能力的AI计算机。这是保证能对周围环境变化快速响应的前提;

2. 要有强大的AI算法。无人驾驶汽车行驶中需要不断识别、理解周围的环境,作出相应的判断,并最终通过决策实现安全驾驶,这些都离不开算法的支撑;

3. 实时绘制高精度地图的能力。无人车在道路行驶过程中,除了依赖摄像头、激光雷达等传感器进行实时感知外,还需要云端地图的支持。通过实时通讯比对,一旦发现通过传感器获取的外部环境信息和云端地图数据不一致,车辆的自动驾驶系统就需要进行更新、修改等操作,以实现更安全的驾驶。
 

不过黄仁勋也指出,目前全世界范围内没有哪家公司同时掌握着上述三种技术,所以这也是NVIDIA选择和百度合作的原因:

百度在人工智能及深度学习领域经验相对丰富且有较成熟的产品问世,同时百度在高精度地图研发上亦有不错的成果,加上NVIDIA搭建的以GPU产品为核心的超级计算机,以及NVIDIA在基于GPU的深度学习算法上的优势,取长补短的同时也就真正解决了无人驾驶汽车研发面临的三大技术门槛。
 

此外,黄仁勋还从战略层面解读了NVIDIA和百度合作的意义。他表示:

“这是第一次,对中国市场来说,出现了完整的从云到车的端对端的自动驾驶平台架构。而在这基础之上,我们才有机会想象无人驾驶汽车的未来”。

2.3_.PNG


NVIDIA 从云到车端对端的自动驾驶平台解决方案

这里提到的“从云到车的端对端平台”,指的是利用NVIDIA Drive PX 2 AI 超级计算机,配合云端数据中心的NVIDIA Tesla GPU,可在更短的时间内创建和更新适用于自动驾驶汽车的精细地图。过去要花几周时间才能完成的过程现在几乎可以实时完成。这个端到端系统高度可定制,不仅包含车载 AI 超级计算机,还包含基于 Tesla GPU 的云组件。对汽车开发商而言,这个用于创建和不断更新地图的架构能够实现汽车的自动驾驶。

其次,这个架构它不是封闭的,而是开放平台。它能够供不同品牌的车辆使用。可能从AI算法以及平台架构来说并没有区别,但它却能够在各厂商的不同车型中共享。这对百度而言,可以充分利用其在云服务方面的优势,把市场份额做大,提升品牌竞争力。那么NVIDIA又能获得什么呢?记者认为同样是前景广阔的中国市场以及未来国内自主及合资品牌车企对NVIDIA的技术依赖。
 

Drive PX 2的售价将近1.5万美金,那么它的目标客户是谁?和恩智浦的BlueBox,Mobileye的EyeQ5相比,Drive PX 2的优势又在哪里?

针对这两个问题,黄仁勋倒是答得不紧不慢。“Drive PX 2是面向企业和开发者的Developer Kit,是供他们进行深度学习算法及自动驾驶技术开发用的,所以卖得比较贵。之后大规模量产后,价格会相对便宜,在普通消费者能够接受的范围内”。
 
对此,NVIDIA展台的一位工程师,他表示,“Drive PX 2除了为无人驾驶、以及深度学习的复杂计算提供强劲性能支持外,它还能够同时驱动多个高分辨率的显示设备,应用于智能汽车中的仪表盘、地图导航、车载中控面板等。而最终量产版本的Drive PX可能会根据不同客户的需求,进行定制化处理,甚至形状、大小、功能等都会和现在我们看到的Drive PX 2有很大差异”。
 
而至于之前提到的供货时间,这位工程师称,目前第一批小规模量产的Drive PX 2样品已经全部销售完毕,但具体客户名录不方便透露。不过据记者掌握的信息,沃尔沃将是第一个“敢吃螃蟹”的主机厂,明年届时会有100辆配备Drive PX 2的XC90 SUV在瑞典哥德堡市的公路上进行公开自动驾驶测试。
 
而鉴于百度刚刚获得了美国加州无人驾驶测试牌照,很可能未来在加州,在安徽芜湖、乌镇旅游区测试的百度无人驾驶汽车也会搭载NVIDIA的Drive PX 2。当然,奥迪、WEpod、Nutonomy未来也都有可能加入Drive PX 2的客户大军。
 
当然,黄仁勋针对恩智浦的BlueBox以及Mobileye的EyeQ5也提出了一些个人的看法。他认为Mobileye EyeQ5只是一款视觉识别芯片,主要是用来进行物体探测的,但Drive PX 2它本身是一台具备超算能力的自动驾驶平台,不仅能够进行传感器数据的分析处理,还可以定位、规划路径并实现安全驾驶。至于恩智浦的BlueBox,它更多地是一台具有通用计算能力的设备,可能无法满足对人工智能要求较高的无人驾驶汽车。总而言之,这几款产品并非严格意义上的竞品,目标市场几乎没有重叠,并不相同。

 当谈到人工智能未来10年的发展趋势,老黄表示有可能通过大量的数据和经验对计算机进行训练,是可以让机器学会常识的,而且具备常识的机器可能很快出现。但如果是通用目的的AI可能就是不同的问题了,但是不是像电影《机械姬》里Ava那样具有和人类意识相近的感知能力的机器人,一切还都是未知数。


声明:本篇报道整合了车云网的相关报道,如有不妥,请联系机器人2025微信后台删除,谢谢。

相关文章推荐:
自动驾驶平台之争 NVIDIA为何能先赢一局?
http://auto.163.com/16/0526/08 ... .html


进军影视业 IBM用人工智能制作了一部电影预告片
继自动驾驶、疾病诊断之后,IBM家的人工智能系统Watson又点亮了一门新技能:制作电影预告片。近日,20世纪福克斯的科幻电影《Morgan》预告片便是由Watson操刀制作而成。
 
IBM的工程师们给Watson看了100部恐怖电影预告片,但与普通人不同的是,Watson看到的是这些影片的切割片段或单独场景。Watson对这些预告片进行了画面、声音、创作构成的分析,并标记上对应的情感。它甚至还分析了人物的语调和背景音乐,以判断声音与情感的对应关系。

2.5_.PNG

 
Watson完成学习后,工作人员又将完整的《Morgan》电影导入,Watson迅速挑出了其中10个场景组成了一段长达6分钟的影片。尽管还是需要一名工作人员将这些镜头剪辑成最终的成片,但在Watson的帮助下,制作预告片的时间由通常的10天到1个月,缩减到了短短的24小时。
 
事实上,早在Watson之前,人工智能就已经开始进军影视产业了。今年6月,纽约大学的科学家们便用一个叫Benjamin的递归神经网络创作出了完整的电影剧本《Sunspring》,但情节混乱、台词前言不搭后语的硬伤在剧本中还是随处可见。
 
2.6_.PNG


IBM院士约翰·R·史密斯(John R. Smith)在一篇博客文章中写道:
 “值得注意的是,像这样的创意项目,不存在‘绝对正确’。根据我们的培训和系统测试,我们知道温情的和悬疑的场景会被选中,但我们不清楚系统会选择哪些来完成创作。”
 
抛开成片质量不谈,20世纪福克斯使用AI制作预告片不失为一次巧妙的营销。要知道,在这之前,这部电影在烂番茄网(Rotten Tomatoes)上只收获了39%的正面评价。
 
文章来源于 机器人2025