您好,欢迎访问太原理工大学学报| 收藏本站
主管单位:山西省教育厅
主办单位:太原理工大学
出版单位:《太原理工大
    学学报》编辑部
主  编: 孙宏斌
执行主编: 冯国瑞
常务副主编: 刘旭光
副主编: 郝晓刚 董宪姝
董晓强 强 彦
熊晓燕 贾丽红
编辑部主任:贾丽红
国内发行:太原市邮政局
     报刊发行局
国外发行:中国国际图书
     贸易总公司
邮发代号:22-27
CN:14-1220/N
ISSN:1007-9432
您当前的位置: 首页 > 论文 > 优先出版
引用本文:
  • PDF点击下载大小:901KB浏览:下载:
  • 融合空间语义的自动驾驶视觉联合感知算法

    DOI:
    10.16355/j.tyut.1007-9432.20230476
    摘要:

    作为自动驾驶关键部分,视觉联合感知系统可完成自动驾驶场景中的目标检测、可行驶区域分割及车道线检测等多项任务,在实际应用中需实现精度与速率的合理权衡。自动驾驶视觉联合感知框架YOLOP在实时性方面取得了优异表现,但存在特征金字塔不同尺度间的特征冲突及下采样过程的纹理细节损失问题。为缓解这些问题,提出一种融合空间语义的自动驾驶视觉联合感知算法,以空间语义嵌入和融合为核心,从特征增强及特征融合两方面改进YOLOP原有语义融合网络。在特征增强方面,提出双向注意力信息增强模块,减少多尺度特征图生成过程中的空间信息损失,从水平和垂直两个正交维度对全局上下文先验及对应精确位置信息建模,将通道注意力语义信息嵌入至空间细节,有效突出关键区域,提升特征图纹理细节表征能力。在特征融合方面,设计多分支级联特征融合模块,缓解各层级特征对应空间位置的相互干扰,采用不同扩张率空洞卷积与指数加权池化增大感受野范围,级联融合空间上下文语义信息,利用动态卷积对多尺度场景特征进行自适应交互聚合,实现纹理细节与高层语义的信息互补。此外,针对模型中各子任务训练不均衡问题,引入自适应参数对损失函数加权系数进行改进,有效提升网络检测和分割性能。在BDD100K数据集的实验表明,相比于YOLOP,所构建自动驾驶视觉联合感知模型保证了网络推理实时性,在车道线检测及目标检测平均精度方面分别提升了8.9%1.6%


    关键字:
    自动驾驶视觉联合感知;语义融合;双向注意力信息增强;多任务;多尺度

    网站版权:《太原理工大学学报》编辑部;您是本站第 访问者

    地址:太原市迎泽西大街79号,邮编:030024;电话:0351-6111188,6014376 ,6014556
    Baidu
    map