协作仅限地图导航层面 特斯拉 与百度协作优化智驾性能 不失实
特斯拉与百度协作风闻又起。
日前有外媒信息称,特斯拉正在与百度协作,以优化其FSD驾驶辅佐系统在中国市场的性能表现。该报道称,百度最近几周派遣了一组地图团队进驻特斯拉北京办公室,努力于将百度地图(车道标志、信号灯)等信息与特斯拉FSD V13版本启动更好地融合开发。
3月14日,特斯拉方面就此回应澎湃资讯记者称,网传信息“特斯拉与百度协作优化其在中国市场的智能辅佐驾驶系统的性能”不失实。特斯拉方面还强调,“特斯拉和百度的协作仅限于地图导航层面”。
往年2月25日,特斯拉正式迈出了FSD入华的第一步。
特斯拉中国微信小程序显示,特斯拉已末尾分批次为客户推送2024.45.32.12软件更新。本次OTA软件更新最关键的更新就是“城市路途Autopilot智能辅佐驾驶”(优化现有NOA智能辅佐导航驾驶性能):在通行受控路途(路途经常经常使用者经过匝道入口和匝道出口进出的主干道)和城市路途上经常经常使用Autopilot智能辅佐驾驶,会依据导航路途引导车辆驶出匝道和交叉口,在路口识别交通讯号灯启动直行,左转,右转,掉头号举措。并依据速度和路途智能启动变道举措。在不设置导航路途时,会依据路途通常状况选择最优路途行驶。
终年以来,特斯拉不时在为FSD入华扫清阻碍,其中在地图方面,特斯拉与百度曾经协作多年。
在以后法律法规条件下,测绘资质是一切智能网联汽车入华肯定要处置的疑问。特斯拉在中国和百度地图早已有深度协作。早在2020年1月17日,特斯拉就和百度共同宣布,特斯拉地图数据服务商将改换为百度地图,即特斯拉导航系统将基于百度地图数据服务全新公布。
另外,业内有信息称,针对中国版FSD,特斯拉目前经常经常使用的是百度地图提供的初级辅佐驾驶地图(高辅地图)。
数据安保方面,2021年,特斯拉成立特斯拉上海数据中心,成功数据本地化存储。同时引入第三方声威机构对公司信息安保控制制度启动检查,并经过安保控制体系认证(ISO27001)。
2024年4月28日,中国汽车工业协会、国度计算机网络应急技术处置协调中心公布《关于汽车数据处置4项安保要求检测状况的通报(第一批)》,其中提到特斯拉上海超级工厂消费的车型一切契合合规要求,是该批次中惟逐一家外资企业。
百度地图导航与百度导航区别?
一、网络导航有以下的性能及优势: 1.最快的导航数据更新最快,在离线算路最快。 2.导航双形式车载形式、地图形式,不同场景不同体验。 3.全语音操控小度语音助手,随时语音唤醒,完全束缚双手。 二、网络地图有以下的性能及优势。 1.本地生活服务提供周边餐饮美食、休闲文娱、酒店购物等海量商户信息, 还可享用最新颖的团购折扣信息。 2.智能出行规划拥有弱小的路途查询及规划才干,支持公交、驾车、步行、 地铁四种出行方式,提供路途方案和叫车费用。 3.不要钱语音导航路况播报,实时播报您周围路况灵活,随时明晰掌握每一条路途的状况电子眼预告,丰厚的电子眼信息,不再为罚单忧虑。 4 .海量资源不要钱下载提供全国377个城市高清卫星图、3D图,支持手势操作。 3D形式 支持智能仰角,地图随视角而动。
什么是人机共驾?
人机共驾(Shared Autonomy)MIT 以为智能驾驶应该分为两个等级:一、人机共驾(Shared Autonomy);二、全智能驾驶(Full Autonomy)。 这样的分类方式不只能够提供有树立性的指点方针,参与必要的限制条件同时还可以对要成功的目的启动量化设定。 甚至,对每个类别下要成功的性能、对应的技术需求以及或许遇到的疑问都可以划分出来。 这个准绳的中心在于对「人类驾驶员在环」的讨论。 为了成功对车辆的有效控制,人和机器组成的团队必需共同坚持对外部环境有充沛的感知。 目的是促使整个行业对「人机共驾」和「全智能驾驶」启动明晰地划分。 要求指出的是,表 I 中的术语「Good」和「Exceptional」用来表示处置 1% 极端案例的优先级顺序。 远程操控、V2X 和 V2I 等并非必需的技术,假设要经常使用的话要求到达特殊的才干要求。 在成功初等级智能驾驶的方法上,传统思绪全程都跳过了对「人」这个要素的思索,精神关键集中在对地图、感知、规划以及表 I 中「全智能驾驶」一栏标注为「exceptional」的技术上。 实践来看,思索到目前的配件和算法才干,这种处置方案对高精度地图、传感器套件的鲁棒性要求很高,提供的是较为保守的驾驶战略。 而正如表 I 所述,「以人为中心」的智能驾驶汽车着眼点关键在司机身上。 担任控制车辆的依然是人,但前提是要对人的形态、驾驶方式及之前的人机协作阅历做充沛的考量,同时把车辆的转向、加减速等交由人工智能系统担任。 以特斯拉的 Autopilot 为例,之前 MIT 的研讨显示,测试中有超越 30% 的行程都是由这套 L2 级驾驶辅佐系统控制成功的。 而假设人机共驾运行成功的话,应该能成功超越 50% 的机器控制率。 在这次实验中,MIT 表示无人车系统在接收环节中出现出了不同水平的才干,而人类驾驶员一直在亲密关注着机器的灵活,依据感知系统取得的信息及时预测或许出现的风险。 二、从数据中学习(Learn from Data)从表 I 不难发现,这其中触及的任何一项车辆技术都是数据驱动的,要求搜集少量的边缘案例数据,应用这些数据继续不时地优化算法。 这个学习环节的目的应该是,经过少量数据成功从传统的模块化监视学习向端到端半监视式和无监视学习过渡。 要成功车辆的智能驾驶,传统的方法,不论是哪个级别,简直都不会少量的运行机器学习技术。 除了在一些特殊的线下场景,比如 Mobileye 的视觉感知系统要启动车道线识别,或许是通用 Super Cruise 搭载的红外摄像头要对驾驶员头部举措启动预测等。 特斯拉的 Autopilot 或许要比其他方案更进一步,在开发针对第二代配件平台 HW 2.0 的软件算法时,在视觉感知上运行了越来越多监视机器学习的原理。 但即使如此,对车辆的绝大部分控制以及对驾驶员形态监测的成功中,并没有应用大数据驱动的方式,也简直不触及线上学习的环节。 而在目前业界启动的一些全智能驾驶技术的路测中,机器学习关键运行于环境感知这一环节。 更甚的是,这些车辆采集到的数据,无论是从量还是多样性来看,和具有 L2 级智能驾驶才干的车型相比,逊色不少。 特斯拉 Autopilot 对目的物、车道线的检测关键依赖机器学习算法启动 | ElectrekMIT 以为,「L2 级智能驾驶系统中机器学习框架经常使用的数据,从规模和丰厚性的角度来看都具有足够的扩展才干,可以掩盖多变的、具有代表性、应战性的边缘案例。 」人机共驾(Shared Autonomy)要求同时搜集人和车辆的感知数据,开掘剖析后用于监视学习的标注。 在 MIT 的实验环节中,驾驶场景感知、途径规划、驾驶员监控、语音识别以及语音聚合都运行了深度神经网络模型,可以经过搜集到的少量驾驶体验数据启动继续性的调校和优化。 在启动数据采集时,MIT 表示并不会只局限于单一的传感器来源,而是对整个驾驶体验通盘思索,并将一切的传感器数据流经过实时时钟(real-time clock)汇总、聚合,用于多个神经网络模型的标注。 这种方式能够让驾驶场景与驾驶员形态能够很好地婚配起来,而在聚合的传感器数据流启动标注任务,使模块化的监视学习可以在数据规模支持时轻松地向端到端学习过渡。 三、监视人类(Human Sensing)这个其实就是我们俗称的「驾驶员监控」。 它指的是对驾驶员的全体心思以及性能特征,包括专心、疲惫、留意力分配和容量、认知负荷、心情形态等的不同水平启动多维度的权衡和评价。 目前除了通用 Super Cruise 在方向盘上装有一枚红外摄像头外,不论是搭载了 ADAS 驾驶辅佐系统的量产车型,还是在路测的全智能驾驶汽车,绝大部分都没有提供任何有关驾驶员监控的软件和配件。 特斯拉 Model 3 其实也装了一枚车内摄像头,但目前尚未启用,详细功用官方表示要等软件更新后才知道。 而基于视觉的处置方案以外,市面上还包括一些准确率不高的方式。 比如特斯拉在方向盘上装置了扭矩传感器,也有的公司应用监测方向盘能否出现倒转的方式推断驾驶员能否出现疲劳状况。 全新一代凯迪拉克 CT6 搭载的驾驶员监控系统由 Seeing Machines 提供 | 官方供图MIT 以为「对驾驶员形态的感知和监控是成功高效人机共驾的的第一步,同时也是最关键的一步。 」在过去的二十多年里,来自机器视觉、信号处置、机器人等范围的专家都启动过相关课题的研讨,目的都是在讨论如何尽或许保证驾乘人员的安保。 此外,对驾驶员形态的监测对如何改善和优化人机交互界面、初级驾驶辅佐系统 ADAS 的设计都有很大协助。 随着汽车智能水平的不时提高,如何准确、实时地探测到驾驶员的各种行为对打造安保的特性化出行体验尤为关键。 比拟有意思的一点是,从完全的手动驾驶到全智能驾驶,这其中触及到不同形式切换的疑问。 普通来说双手脱离方向盘(handoff)就是一种信号,或许表示系统要做好接收的预备了,但还有什么其他更准确的信息可以用来判别,或许这也是「驾驶员监控」的研讨人员要求继续思索的中央。 四、共享的感知控制(Shared Preception-Control)深刻点来说,这相当于为整个智能驾驶系统参与了「一双眼睛和手」。 目的是树立额外的感知、控制和路途规划机制。 即使在高度智能驾驶系统运转形态下,也要及时地为驾驶员推送信息,将其归入到整个驾驶环节中。 研讨全智能驾驶的目的就是为了完美地处置「感知-控制」的疑问,思索到人类的不靠谱和行为的无法测性。 所以传统观念以为最简易的方法就是把人从开车这件事上扫除掉,像十几年前在 DARPA 应战赛中获胜的队伍一样。 但和传统处置思绪相反的是,MIT 提出的「以人为中心」的通常将人置于感知和决策规划闭环中的关键位置。 因此,整车感知系统就变成了支持性的角色,为人类驾驶员提供外部环境信息,这其实也是为了处置机器视觉自身存在的局限性而思索的。 表 II MIT「以人为中心」智能驾驶系统执行的感知义务,包括对驾驶员面部表情、举措以及可驾驶区域、车道线以及场景内物体的检测 | MIT在 MIT 的研讨中,任务人员围绕这个准绳设计了几条关键的算法。 表 II 是其中几个典型的案例。 首先,从视觉上可以看到神经网络做出的判别、路途分割的区域以及对驾驶场景形态的预估的可信水平;其次,将一切的感知数据整兼并输入融合式的决策建议,这样在表 IV 的场景下就能够对全体风险启动预估;再次,MIT 不时经常使用的是模拟学习:将人类驾驶员操控车辆时方向盘的举措作为训练数据,进一步优化端到端的深度神经网络;最后,MIT 经常使用的端到端的神经网络属于一个叫做「arguing machines(争论机器)」框架的一部分,它为关键的感知-控制系统(表 III)提供了来自人类的监视。 这里的「争论机器框架」是 MIT 2018年提出的一个概念,它将关键 AI 系统与经过独立训练以执行相反义务的次要 AI 系统配对。 该框架标明,在没有任何基础系统设计或操作知识的状况下,两个系统之间的分歧足以在人工监视分歧的状况下提高全体决策管道的准确性。 表 III 对「争论机器」框架在「Black Betty」智能驾驶测试车上的运行和评价 | MIT表 IV 经过结合车内外感知系统数据得出的融合型决策能够充沛预估或许出现的风险 | MIT五、深度定制化(Deep Personalization)这里触及到一个「将人类融入到机器中」的概念。 经过调整 AI 系统的参数,使其能够更适宜人类操作并出现出一定水平的定制化。 最终的系统应该带有该驾驶员的行为特征,而不是像刚出厂时的普通性能一样。 六、不逃避设计缺陷(Imperfect by Design)对整个汽车工业而言,处于很多要素的思索,启开工程设计时通常思索最多的是「安保」,所以要尽或许地讲系统错误出现的频率和水平降至最低。 换句话说,对智能驾驶而言,完美是目的,这也造成了在启动某些性能设计时,或许会因其「不完美」和「不确定」的性质而丢弃这些或许是「必要」的设计。 但是在 MIT 的研讨看来,丰厚、高效的沟通机制在设计用于成功「人机共驾」的人工智能系统时,是十分必要的要素。 就「沟通」而言,系统存在的不完美对人和机器而言,在启动感知模型的交流和融合环节中,能够提供密集、多样的信息内容。 假设将 AI 系统的不确定性、局限性和错误都隐藏起来,这也就错失了与人树立信任、深度了解相关的时机。 MIT 以为,此前业界在设计半智能驾驶系统时所采取的「完美」思绪,或许是迄今为止所犯的严重错误之一。 而在开发「Black Betty」这辆无人车时,MIT 把人工智能系统的局限性经过文字和视觉的方式与人类启动充沛沟通。 例如将人类和机器对外部全球的感知视觉化,让驾驶员知晓 AI 系统的局限所在。 研讨人员表示这种方式相比只是提供「报警」或许「模糊的信号」,是最繁复有效的人机沟通方式。 虽然这种沟通机制要成功还面临一些技术上的难题,比如视觉化的环节通常对芯片的算力和实时调用的才干要求很高。 但值得机器人、智能化以及人机交互等范围共同关注并思索处置的方法。 七、系统级的驾驶体验(System-Level Experience)目前,汽车工业的工程设计环节中,一个最关键的目的就是「安保」。 另一个则是「降低本钱」。 第二个目的导向的是模块化、基于零部件的设计思索。 但相同的形式在面向机器人、计算机视觉、机器学习等范围的人工智能系统设计中却有着悬殊的理由。 譬如在设计中注重单一性能(目的物检测等)的成功,能够有效测试该算法的合理性并逐渐使之失掉改善和优化。 但是这个环节也难免会把留意力过渡集中在单一性能而疏忽了系统的全体体验。 在过去的几十年里,「系统工程」、「系统思索」这样的准绳不时在指点着汽车工业产品的输入。 然后,相似的思索却简直没有运行在智能驾驶汽车的设计、测试和评价环节中。 正如 MIT 上方提到的这六大准绳,人和机器都无法防止会有缺陷,只要当「人机共驾」这个框架在系统层面上失掉思索时,这些缺陷才或许无时机成为优势。 对「人机共驾」的永久讨论不论短期还是常年来看,其实很难预测智能驾驶的哪条成功途径最终会成功,而且退一万步说,你甚至都不知道什么样的结果算得上是「成功」。 在谈到研讨目的时,MIT 希望一套智能驾驶系统能够同时满足「安保」、「愉悦的驾驶体验」和「优化的出行体验」这三个要求,而不是彼此妥善折中。 而虽然「人机共驾」这个话题在过去的十年里,是包括汽车工业、机器人在内很多范围研讨的焦点,但它仍值得更深化的讨论。 在往年四月份的上海国际车展上,coPILOT 智能初级驾驶辅佐系统,这是一套定位「L2+级」 的智能驾驶辅佐系统,目的是提高乘用车的安保性和驾驶温馨性。 从产品称号不美观出,这套系统相同强调了「人机共驾」的概念。 它装备了相应的传感器和性能,能够监控驾驶员并在出现潜在风险状况时触发正告。 例如,当出现驾驶员留意力不集中、简直完全未将留意力放在路面交通上或显示出瞌睡迹象等。 所以人工智能扮演了「公家驾驶助手」的角色,这个产品理念与 MIT 的研讨不约而同。 究竟完美处置驾驶义务比完美控制人类的信任和留意力哪个更难?这是值得深思熟虑的疑问。 MIT 以为关于这个疑问的讨论仍不会中止,不论是这篇论文还是「Black Betty」这台无人测试车,都是基于「人机共驾」研讨的效果,MIT 以为它是开发「以人为中心」智能驾驶系统的殊途同归。
不知道有人比拟过小鹏P7和特斯拉的智能驾驶性能吗?
小鹏P7这套Xpilot 3.0的配件架构被定义为全行业最强辅佐驾驶配件架构,搭载12个超声波传感器、5个高精度毫米波雷达、13个智能驾驶摄像头、1颗智能座舱摄像头、高精度地图、高精度定位融合、英伟达Xavier智能驾驶芯片。 除特斯拉外,小鹏是第二个能够完全自主树立感知才干的车企。 在我看来,无论是将智能驾驶分为四大颗粒——感知、定位、规划、控制,还是从这套配件架构自身,或许是从小鹏智能驾驶团队的组成架构等等来看,并不能完整诠释小鹏P7这款车的特殊性。 对比特斯拉,在智能驾驶上特斯拉不时坚持纯视觉方案,全车21个传感器,包括12个超声波、8个摄像头、1个前置毫米波雷达,关键以视觉感知为主。 而小鹏P7则是多传感器融合的方案,除了性能31个传感器外,P7还经过高精度地图+RTK差分+双频高精GPS+超高精度IMU成功了超视距+实时在线的辅佐驾驶才干。 超视距+实时在线这两个中央,是我以为小鹏P7在智能驾驶方案上与特斯拉最大的不同。 某种水平上,可以将特斯拉看成桌面端或许单机的,将小鹏P7看成是移动端或许联网的。 不论什么方面,我觉得小鹏P7会越来越强,国产新权利的开展希望。
版权声明
本文来自网络,不代表本站立场,内容仅供娱乐参考,不能盲信。
未经许可,不得转载。