西安工业大学电子信息工程学院韦吉月团队在《光通信技术》发表论文《生物启发多特征融合学习的室内可见光位置感知方法》,针对传统Elman神经网络在室内可见光定位中易陷入局部最优、精度受限的问题,创新性地提出了一种融合多层级特征与蜣螂优化算法的混合感知模型。该研究通过构建深度特征库并结合智能优化策略,在4m×3.5m×3m的三维空间内实现了平均0.21m的高精度定位,为复杂环境下的室内导航提供了新思路。

随着可见光通信技术的发展,室内位置感知在智能家居、仓储物流等领域需求激增。然而,传统方法往往受限于图像噪声干扰、特征表达单一以及神经网络初始参数敏感等瓶颈,难以兼顾定位精度与系统鲁棒性。为此,研究团队构建了从离线建库到在线定位的全流程解决方案。
在核心技术层面,团队首先利用BM3D算法对采集的可见光图像进行去噪预处理,随后采用ResNet50深度卷积网络提取图像的多层级特征。不同于单一层级的特征提取,该方法创新性地将低层纹理与高层语义特征进行融合,并利用核主成分分析(KPCA)进行非线性降维,构建了信息丰富的“位置感知特征库”。为了解决Elman神经网络收敛慢、易早熟的问题,研究引入了仿生学算法——蜣螂优化器(DBO)。该算法模拟蜣螂的滚球、繁殖、觅食等行为,动态优化神经网络的拓扑结构与权重阈值,显著提升了模型的全局寻优能力。
实验结果显示,在模拟真实光照环境的测试中,该算法的定位性能远超传统模型。相较于标准的Elman算法,定位精度提升了22.3%;相较于BP神经网络,精度提升幅度达30%。尤为值得一提的是,该模型在测试区域内小于0.4m定位误差的置信概率高达91.3%,且在0米至0.5米的不同高度平面上均保持了良好的稳定性。
这项成果不仅验证了多特征融合与生物启发算法在可见光定位领域的巨大潜力,也为解决室内复杂场景下的高精度位置感知提供了可复制、可推广的技术范式。