小米新增超分辨率技术,仅限泊车场景,原因是算力所限?

小米加了超分辨率技术,仅限于停车场景,因为计算能力有限?

小米于2023年底正式发布小米SU7,成为继华为之后第二家推出成品的科技企业。但是,这个时候,小米需要做的,不仅仅是打造一个产品力很高的模型,更要作为后来者,更快地赶上头部智能驾驶企业。从昨天的发布会可以发现,小米SU7采用了双Orin-X芯片和27种传感硬件组合,是业界主流的解决方案。小米在智能驾驶方面的技术创新几乎全部在软件上。

从发布会传出的信息来看,小米自研智能驾驶技术的创新重点在于感知和决策。虽然都采用BEV大模型+占网方案,但小米的创新之处在于通过超分辨率技术提高感知精度,提高BEV大模型的感知范围和精度。本质上,小米加强了Orin-X芯片的AI处理份额,使用AI超分辨率计算进行高精度感知。

超分辨率占用网络,高精度得益于算法更新。

在本次发布会中,小米宣布其智能驾驶感知模型为BEV+网络占领方案。小米的方案和小鹏、理想感知模型一样,都是通过感知硬件获取空周围模型的思路。但是小米加入了zoom BEV+超分辨率占领网方案,占领网模型的精度有了很大的提高。

雷军在发布会上提到,小米的超分辨率占位网络模型精度不到0.1m,而特斯拉FSD的精度是0.32m,国产智能驾驶方案的精度是0.2m..在模型精度上,小米取得了比特斯拉方案三倍以上的提升,确实令人惊讶。

快播手机版不能播放

但在硬件方面,小米使用的感知硬件从规模到硬件水平都没有质的提升。从传感硬件的规模来看,小米SU7上的传感硬件总数为27个,包括1个激光雷达、3个毫米波雷达、11个高清摄像头和12个超声波雷达。前几天我们还在M9上采用了1个激光雷达,3个毫米波雷达,12个超声波雷达的方案。虽然发布会上没有公布具体的摄像头数量,但是很大概率会使用11个摄像头。小米的智能驾驶方案与华为ADS 2.0的感知硬件规模相同,也证明了小米在智能驾驶硬件的选择上更加成熟。

同样,小米SU7上使用的一体化激光雷达,在硬件上依然是主流的128线雷达。根据每秒153万点的数据和200米的探测距离,极有可能使用的是何塞AT128(与理想L9上的相同)。再加上小米SU7采用的双NVIDIA Orin-X智能驱动芯片方案,硬件的性能水平与华为、Ideality、小鹏相差无几。

那么小米是如何做到更高的准确率的呢?这一方面得益于小米采用了基于NAS的图像超分辨率技术,该技术来自小米AI团队。小米的图像超分辨率技术流程是特征提取、非线性映射和重建,即从现有的低分辨率图像中提取目标物体的特征,然后用AI进行特征映射和重建。小米的超分辨率AI模型使用深度卷积神经网络,优化了图像生成和多目标恢复的速度,从而生成更高质量的模型,比目前最优的超分辨率方法更快。在FLTOPS计算能力相当的前提下,深度卷积神经网络的超分辨率生成速度和效果优于其他方法,这可能是超分辨率技术能上火车的原因之一。

结合发布会上给出的样图,小米超分辨率矢量算法的计算逻辑分为四步:1。收集目标障碍物图像;2.障碍物图像和神经网络确认特征,与矢量图像库碰撞出形状和细节;3.优化重建图像,恢复高分辨率图像;4.芯片根据图像生成体素,构建职业网络空。

同样,由于超分辨率技术对画面的重建和还原,雨雪天的自动降噪功能也可以通过类似的逻辑实现,但在AI计算过程中,需要重点将现有画面与障碍物应有的画面进行对比,并对雨雪天气增加的矢量区域进行切割。由于超分辨率技术本身需要对比画面细节,实际上并没有增加AI判断环节,从而保证了超分辨率技术的还原效率。

简单来说,小米的超分辨率网络占领就是将标准分辨率图像与AI大模型进行多次对比,生成符合常识的高分辨率画面(此时相应的降噪工作已经完成),然后建立网络占领。

但随着超分辨率技术的加入,对计算能力的要求明显提升了一个层次,这可能是小米选择双英伟达Orion-X芯片的原因。小米在构建占用网络时,极有可能会调用一个Orion-X芯片单独进行超分辨率计算,以减少超分辨率技术的加入带来的网络占用延迟。

袁伯银哪里人

Zoom BEV技术,为了给汽车增加情景模式?

除了占领网络,小米发布了zoom BEV技术,这也是小米针对不同场景的技术创新。其实这也是基于超分辨率技术的一种扩展应用,即根据不同层次的场景增加或减少建模精度和范围,以满足不同场景的需求。

小米在zoom BEV的设计中设置了三种不同的使用场景,分别是小范围的停车场景、中等范围的驾驶场景和较大范围的高速场景。它的工作原理是根据不同的场景进行不同层次的硬件调用和建模调整。

联想V570笔记本有mini PCIe接口吗

从停车场景来看,模型的像素网格大小仅为0.05m,这也是上述超分辨率网络达到的最高精度。在这种模式下,小米会通过超分辨率技术增强视觉感知,从而达到0.05m的精度,然而,相应的代价是这种模式下感知范围最小。很明显,小米为了提高精准度,偏向了Orin-X的计算能力分布。

但城区和高速场景的精度维持在0.2m,不同的是城区左右识别范围达到160m,而高速场景侧重于加强前方的探测距离,达到250m。但是有一个逻辑冲突,就是小米前向激光雷达最远探测距离是200m,车辆前方250m明显超出了激光雷达的探测范围。

根据小米SU7的感知硬件分布,除了前向激光雷达,还有一套双目高清摄像组作为辅助。我们有理由把小米和超分辨率技术联系起来,在这种模式下放大前方细节,用雷达探测范围外的“看”来预测前方道路。小米在发布会的PPT上也明确写道“前方150m突发事故可以减速变道”,这意味着小米的智能驾驶系统在决策层面仍然使用雷达点云的定位验证,在200m范围内进行精细感知,在150m范围内开始决策。

但让人好奇的是,小米是如何判断车辆处于什么类型的环境中的?小米有很大概率会使用一套场景认证机制,让真实场景与AI模型库发生碰撞,从而确定车辆所在的场景。如果检测到停车杆或停车线,则确定为停车场景,或者系统判断路况来确定市区或高速场景。如果小米能实现这三个场景的识别和无缝连接,这才是真正的“黑科技”。

写在最后

从技术角度来说,小米智能驾驶更新的主轴是提高精度,用高精度的职业网络和BEV鸟瞰更新驾驶体验。但很明显,即使是500TOPS以上的双Orin-X芯片,也无法同时进行超分辨率图像处理和毫秒级智能驾驶决策。因此,小米将使用zoom BEV来调整系统的计算能力调用,提高重新感知的停车场景中的准确性,并释放一些城市/高速NOA场景中的计算能力保障决策。

未经允许不得转载:科技让生活更美好 » 小米新增超分辨率技术,仅限泊车场景,原因是算力所限?