2025年视觉传感器行业标准分析:政策推动视觉传感器在工业检测领域规范化

Aa
分享到:

  报告网讯,视觉传感器作为工业自动化检测领域的核心感知器件,其技术发展与行业标准迭代深刻影响着高端制造质检的精度与效率。2025年视觉传感器行业标准进一步明确了高动态范围、高帧率、低延迟等关键技术指标,为复杂工况下的缺陷检测提供了规范指引。在航空发动机制造与检修领域,叶片作为核心零部件,需在高转速、高温、高压的严苛环境中长期工作,表面微小缺陷可能引发严重安全事故,传统检测方法已难以满足高效精准的质检需求。动态视觉传感器凭借异步事件流数据格式的独特优势,在应对运动模糊、强曝光干扰等挑战方面展现出显著潜力,成为契合新版行业标准的航发叶片缺陷检测优选技术路径,相关实验数据与技术方案对推动视觉传感器在工业检测领域的规范化应用具有重要意义。以下是2025年视觉传感器行业标准分析。 

2025年视觉传感器行业标准分析:政策推动视觉传感器在工业检测领域规范化  

  一、视觉传感器在航发叶片缺陷检测中的应用背景与技术瓶颈

  《2025-2030年全球及中国视觉传感器行业市场现状调研及发展前景分析报告》指出,航空发动机叶片是航空发动机涡轮和压气机的核心零部件,任何微小的缺陷或损伤(如裂纹、腐蚀、磨损、疲劳损伤等)都可能导致叶片失效,进而引发发动机故障。早期发现和及时修复潜在缺陷至关重要,这不仅可以避免因叶片失效造成的重大安全事故,也可以延长叶片的使用寿命,减少提前更换的频率,保持发动机在最佳性能状态,提高飞机整体运行效率,降低航空公司的维护成本。

  目前主流的检测方法分为三大类:人工目视检测、利用介质无损探伤和机器视觉检测方法。传统的人工目视检测依赖于操作人员的经验和技能,主观性较强、准确性和检测精度有限,并且耗时长、效率低,不适应大规模工业生产应用;利用介质的无损探伤对于复杂几何形状的叶片适应性较差,并且航发叶片使用的高强度合金材料与表面涂层也影响了检测效果;随着机器视觉的发展,视觉缺陷检测技术凭借其高精度、高速度、自动化和智能化等优势,成为当前的主流方法,广泛应用于3C电子、汽车制造、金属加工、印刷纺织等行业。目前也已经有成熟可行的缺陷检测算法,如单步检测算法和两步检测算法等。

  然而,视觉缺陷检测技术依赖于视觉传感器提供的信息,在工业品表面缺陷检测中,会受到传统视觉传感器以下缺陷的限制:1)传统视觉传感器以固定帧率采集图像,存在延迟问题和中间帧信息丢失问题,在针对钢管、叶片等曲面工件需要360°全周成像的高速成像场景中尤为突出。此外,由于较慢的成像速度,在曝光时间内拍摄流水线中快速运动目标时,容易产生运动模糊。2)对前景和背景赋予相同权重成像,造成感兴趣目标不够显著、信息冗余等问题,进而影响后续识别算法的精度与检测效率。3)传统视觉传感器成像动态范围小,在过曝或者过暗的环境中无法有效成像,尤其在对金属工件、曲面工件等具有类镜面反射特性的物体补光拍摄时,易产生过曝现象,使画面高光区域部分信息丢失。此外,这类物体表面反射产生的类缺陷伪影也会降低检测系统的可靠性。

  上述问题导致依靠传统视觉传感器的缺陷检测系统,难以对金属、曲面等类镜面反射物体进行快速成像和精准缺陷检测。而这些问题是由传统视觉传感器的硬件限制造造成的,难以从软件方面去避免。针对航空发动机叶片等高反光材质表面的微小缺陷快速检测需求,基于动态视觉传感器的缺陷检测方法应运而生。动态视觉传感器作为视觉传感器的重要创新类型,具有与传统视觉传感器不同的成像原理,它只对动态变化的光强作出快速响应,具有低延迟、高动态范围、低功耗等优点,可以适应复杂环境和强曝光干扰等挑战性场景。

  需要注意的是,现有基于视觉传感器的缺陷检测研究多集中于针对铝基盘片等平面光滑物体,不同于曲面形态的航发叶片工件。航发叶片的高曲率结构导致表面缺陷形态更加多变,反光效应也更加强烈。此外,铝基盘片等平面工件仅需进行平面旋转就可实现单面检测,而航空发动机叶片需进行360°高速旋转以实现全面、高效的缺陷检测,并且由于其旋转运动,导致同一缺陷在不同角度和光照条件下的成像并不相同,这就对基于视觉传感器的缺陷检测技术提出了更高挑战。

  二、视觉传感器缺陷检测实验平台搭建与成像特性分析

  依据航发叶片的物理特性和动态视觉传感器的成像原理,构建了一套仿人眼动态视觉传感器缺陷检测实验平台,选用实际服役中因损伤而报废替换的航空发动机叶片进行一系列的验证试验,分析动态视觉传感器的成像特点与应用于缺陷检测的优势。实验结果表明,动态视觉传感器可以在强曝光与高速运动的情况下稳定、清晰检出缺陷目标,并且可以去掉背景冗余信息和环境倒影信息,有效检出航发叶片的损伤。

  2.1 视觉传感器实验平台的核心配置

  搭建的实验平台主要由动态视觉传感器、转台、工业光源、相机支架及航发叶片夹具组成。动态视觉传感器选择DVSLume,搭载PROPHESEE芯片,空间分辨率为1280×720,像元尺寸为4.86μm×4.86μm,等效时间分辨率>10k fps,动态范围>110 dB,视觉传感器通过支架固定,距航发叶片大致为130mm,视野范围大致为230mm×150mm;转台选用Microvision维视图像的,最高转速可以达到60°/s,航发叶片通过夹具固定于转台中央,经调试实验选择以60°/s的转速匀速运动;条形灯带选用海康威视白色工业光源对叶片进行补光,顶光光源功率8W,背光光源功率3W,确保叶片表面能获得充分且均匀的光照,提高成像效果。

  2.2 动态视觉传感器的缺陷成像特性

  基于该实验平台展开了一系列的测试,对动态视觉传感器缺陷成像效果进行了实验分析,其特性总结如下:1)弱小缺陷成像明显。动态视觉传感器可以精准捕获由于缺陷导致的光线强度发生变化。针对深度约为1μm、长度约为5mm的划痕成像,动态视觉传感器对微小划痕成像明显,而传统视觉传感器难以对曲面金属物体上的微小缺陷进行成像。2)强曝光下稳定成像。在成像过程中常需借助额外光源进行补光,使其清晰稳定成像,实现目标特征与背景的有效分离并增强信噪比。但是对于类镜面反射物体,强烈的反光会导致传统视觉传感器过曝而无法成像,动态视觉传感器凭借其高动态范围可以克服强光干扰,依然稳定有效成像。3)可以只保留感兴趣目标,去除背景信息干扰。传统视觉传感器对前景和背景进行同权重成像,造成信息冗余。而动态视觉传感器只对光强变化作出响应,即只对运动物体成像。故在拍摄时只令叶片进行旋转,便可以去掉背景冗余信息,只对叶片进行成像,提高检测速度。4)响应速度快,能有效捕捉快速移动物体。因为叶片呈现曲面结构,同一缺陷在不同角度缺陷成像存在差异,要实现缺陷的精准检测,需要尽可能对每个角度的叶片进行拍摄成像。传统高精度视觉传感器成像速度慢,无法拍摄高速运动物体,叶片只能慢速旋转,检测效率低下。动态视觉传感器可以捕捉高速运动物体,允许叶片在高速旋转状态下完成全周检测,显著提升了检测效率。

  三、基于视觉传感器的航发叶片缺陷检测数据集构建

  基于上述实验平台,采集了大量数据,并构建了首个基于动态视觉传感器的航空发动机叶片缺陷检测数据集(Event-based defect detection dataset of Aeroengine blade, EDD-AB)。为保证缺陷真实可靠,所有叶片均来自检修厂实际因缺陷报废的航发叶片。根据检修厂技术反馈,最常见的三类高危害性缺陷及其特征如下:划痕长度一般在1~25mm、深度在0.5~500μm,点痕直径在0.1~2mm,以上两种缺陷通常导致产生更严重的裂纹和疲劳损伤,并且由于其造成的表面涂层划伤,常成为腐蚀的起点;导致边缘不再平整光滑的边缘损伤则直接影响其几何完整性,会对涡轮机组空气动力性能和结构强度构成更严重的威胁。

  共对67张叶片进行了数据采集,获取214段不同光照强度与不同叶片姿态下的叶片数据,收集了以上3种常见并且危害最大的缺陷类型,包括划痕、点痕和边缘损伤。针对事件流数据异步、空间稀疏带来的可视化与标注困难等问题,创新性提出一种基于异步事件流帧聚合技术的数据处理方法。具体而言,采用固定时间窗宽ΔT=10ms的时序划分策略,通过三维时空事件向二维图像平面的投影转换,实现异步事件流的高效可视化表征。基于此方法构建包含5964张叶片缺陷图像的数据集,并借助LabelImg专业图像标注工具完成近12000个目标的精细标注工作。

  为了进一步研究动态视觉传感器的成像特性与缺陷的特性,以针对性的设计缺陷检测算法,统计了3种缺陷的宽高比特征与像素尺度分布。对数据集中各种缺陷进行统计知,划痕数量为5210个,宽高比覆盖0~6的宽泛区间,主要集中在0到1之间,说明纵向划痕占比较大,3到4也有部分分布,说明横向划痕占比较小;点痕数量为3553个,边缘损伤数量为3068个,点痕与边缘损伤的宽高比集中在0.4到1.4之间,说明两种缺陷呈现局部点状损伤的形态特征。缺陷目标的像素尺度分布特征显示:约70%的样本面积集中在2000像素以下,同时存在1000~10000像素的中大型缺陷(占比27%),以及少量超10000像素的特例样本(占比3%),分析知这些大尺度样本主要是斜形的划痕导致目标框变大。缺陷样本在宽高比和尺寸范围上均呈现显著差异性,对基于视觉传感器的缺陷检测算法的多尺度特征提取与目标检测能力提出了挑战。该数据集已开源,链接:https://github.com/NiBieZhouMei5520/EDD-AB.git。

  四、基于视觉传感器事件流的多尺度缺陷检测算法设计

  动态视觉传感器的输出与传统视觉传感器的输出有着根本的不同:事件是异步的,空间上很稀疏;而图像是同步的,很密集。因此,为图像序列设计的基于帧的视觉算法并不直接适用于事件数据。综合考虑实际任务需求与硬件环境,平衡提升检测效率和保留事件流数据特性,基于异步事件流帧聚合的方法设计一种多分辨率自适应特征金字塔网络,提出更高效便捷的解决方案。参照主流检测模型的网络结构,选择CSPDarkNet53、PAFPN和DeCouple Head组成基础模型,结合动态视觉传感器的数据时空关联特性和缺陷形状多变、缺陷尺寸不一的特点,提出基于异步事件流帧聚合的航发叶片多尺度缺陷检测算法,以实现对航发叶片更高效的缺陷检测。

  4.1 视觉传感器事件数据的帧聚合方法

  事件仅对场景中的亮度变化进行非冗余编码,通过对视觉传感器采集的事件流进行聚合,获取亮度变化数据,以表征运动和叶片表面缺陷信息。凭借事件固有的超高时间分辨率,这种聚合方法能够以极高的帧率重建出累积的亮度图像。

  4.2 视觉传感器适配的多尺度自适应特征金字塔网络

  设计了一种多尺度自适应特征金字塔网络,以适配动态视觉传感器的事件流数据特性。针对传统特征金字塔因网络深度增加导致的图像信息丢失与特征图分辨率衰减问题,通过FPN+PAN的双向特征融合机制,系统整合低分辨率强语义特征与高分辨率弱语义特征。随着卷积层堆叠和重复下采样操作,小目标特征易被高层语义信息淹没的痛点问题尤为突出。为此,对特征融合模块进行多维拓展:首先通过设计四尺度自适应检测头,在浅层至深层网络分别部署大、中、小、微小目标专用检测分支,形成缺陷特征解耦增强架构;其次通过强化局部特征提取能力,充分利用不同层级特征图的细粒度信息。该架构创新性地实现了从宏观表面划痕到亚像素级点痕缺陷的多维覆盖,其浅层检测头可捕获微小缺陷的局部突变特征,深层检测头则聚焦大尺度缺陷的全局表征。

  4.3 融入视觉传感器特征提取的SimAM自注意力模块

  SimAM(Similarity-based Attention Mechanism)是一种基于能量函数的轻量级无参的空间-通道协同优化方法,其核心在于通过空间-通道交互建模实现特征自适应增强,可以同时关注特征图的空间维度、通道维度和实例维度。尤其是在小目标的检测中,小目标通常体现在图像的局部区域,特征较弱,但SimAM通过对空间、通道和实例的全面关注,能够在不增加参数的情况下放大这些微小特征,提升模型对小目标的检测能力。

  SimAM注意力模块基于神经科学理论来优化能量函数,通过评估每个神经元的重要性来为其分配注意力权重。单个神经元的最小能量函数有特定数学表达式,式中:e_t^*是每个神经元的最小能量函数;t是输入特征图中每个神经元的值;λ是正则化系数;M是该通道的神经元总数;x_i是该通道中其他神经元;μ̂和σ̂²是该通道上所有神经元的均值和方差。由公式可知,能量越低,神经元t与其他神经元的区别度越大,表明其重要性越高,将能量函数取倒数1/e_t^*作为权重系数,并使用Sigmoid函数进行增强处理限制其大小。SimAM通过赋予不同区域不同的重要性权重,进一步提升模型目标的检测能力。将SimAM注意力机制加入模型,将视觉传感器捕获的多尺度空间信息进一步通过注意力机制提炼出更加精确和有区分性的特征,从而提高模型的整体性能。

  4.4 适配视觉传感器数据的Star Blocks星形卷积

  为了应对缺陷形态多样、缺陷总体较小的问题,设计一种基于星形运算的高维非线性特征映射卷积,以适配视觉传感器采集的稀疏事件流数据特征。星形运算具有将特征投影到一个极高维隐式特征空间的能力,类似于多项式核函数。它与传统神经网络的增加宽度或通道数的方法有所不同,星形运算是在不同的通道上逐元素相乘融合不同的子空间特征,通过隐式高维特征映射显著提升网络表征能力。并且元素级乘法本身具有非线性特性,可以结合通道间交叉乘积,所以无需额外激活函数即可捕获复杂模式,从而降低计算复杂度。

  星形卷积Star Blocks主要由以下几个关键操作组成:1)深度可分离卷积(DW-Conv):模块中使用深度可分离卷积层进行初步特征提取,深度可分离卷积层的核大小(ks)为7,步长(stride)为1。2)批量归一化(BN)和激活函数(ReLU):该操作用于归一化数据和引入非线性。3)全连接层(FC):通过1×1卷积实现通道级的线性变换。4)星型运算(element-wise mul,即星型乘法):这是Star Blocks模块的关键操作,将不同层的特征进行逐元素乘法,从而在不增加网络宽度的情况下,将输入映射到高维非线性特征空间,实现高效的特征表示。星形卷积操作有特定的数学表达式,通过重新定义星操作后,可展开为多个不同的项,除部分项外,每个项与输入都表现出非线性关联,表明它们是独立且隐式的维度。因此可以在d维空间中进行运算,却能在近似(d/√2)²(考虑到d≥2)的隐式维度空间中表示,显著增加了特征维度。

  五、视觉传感器缺陷检测算法的实验验证与结果分析

  使用构建的基于动态视觉传感器的航发叶片缺陷检测数据集(EDD-AB),对提出的基于异步事件流帧聚合的航发叶片多尺度缺陷检测算法进行了一系列实验验证,全面评估视觉传感器与算法结合的检测性能。

  5.1 实验环境及参数配置

  所有实验均在同一实验环境下进行,实验环境的软硬件配置如下:操作环境为Window11,深度学习框架为Pytorch1.12,CUDA为11.3,Python版本为Python-3.12,CPU为Intel(R) Core(TM) i7-14700HX 2.10 GHz,GPU为NVIDIA GeForce RTX 4070Laptop 8GB。实验参数设置如下:Images size为640×640,epochs为300,Batch size为32,Optimize为SGD,Momentum为0.973,Learning rate为0.01。

  5.2 实验评价指标

  检测精度指标使用精确率(Precision, P)、召回率(Recall, R)、平均精度均值(mean Average Precision, mAP),模型复杂度使用参数量(Params)、计算量(giga floating-point operations per second, GFLOPs),检测速度指标使用每秒帧数(Frames Per Second, FPS)。精确率、平均精度均值与召回率的计算式如下:P=TP/(TP+FP);mAP=∑(AP)/n;R=TP/(TP+FN)。式中:TP表示模型正确预测为正类的样本数;FP表示模型错误预测为正类的样本数;FN表示模型错误预测为负类的样本数;AP为单个类别的准确率;n为类别数。

  采用经典的10倍交叉验证来评估准确性。具体讲,将训练集分割为10个子集,每个子集用作测试集一次,其余9个子集用于训练集,用10次的平均结果来评估模型的性能。同时为了全面评估模型性能,保证模型可靠性,使用3个交并比(IoU)阈值(0.4, 0.5, 0.6),然后将每个IoU值对应的mAP取平均值作为最终结果。

  5.3 对比实验结果

  在相同的实验环境下,与目前主流的性能优良的目标检测算法进行对比测试。对比结果显示,提出的算法相较于大部分经典的算法,在精确度、召回率、mAP都有显著提升。两个经典算法在检测精度和检测速度方面较其他模型均无优势。基于Transformer架构的检测算法,虽然在精度和检测速度均有提升,但是相较于主流系列模型,在计算量、参数量和检测速度仍有较大差距;基于混合架构的模型,在缺陷尺度差异更大、缺陷微小的数据集上,表现并不如原始模型。相较于主流系列算法,提出的算法虽然参数量Params和计算量GFLOPs有增加,但是mAP提升了4.9%,实时检测帧率提高了39。在本次检测任务中,提出的算法在参数量与计算量均低于对比算法TIFF-EDD的情况下,检测精度与效率更高,在实际应用场景和价值上更具优势。

  检测热力图对比显示,划痕缺陷特征明显,各项算法均能检出,点痕与边缘损伤因尺寸较小且特征微弱,致使检测难度增大,导致部分算法存在小目标漏检的情况,并且缺陷检测热力图均不如提出的算法效果良好。部分对比算法虽然能检出所有缺陷类型,但其针对划痕和边缘损伤生成的热力图中,存在高响应区域(红色区域)与真实缺陷轮廓贴合度不足的问题,这表明在应对航发叶片缺陷形态分布广、尺寸差异大的复杂场景时,其定位精度和检测置信度均低于提出的算法。这些数据综合表明,提出的算法在目标检测领域实现了突破性的性能跨越,为高精度实时检测任务提供了更优解决方案。

  5.4 消融实验结果

  为了评估所提方法对于航发叶片表面微小缺陷检测的有效性,在使用CSPDarkNet53、PAFPN和DeCoupleHead组成Base模型上设置多组消融实验,来对评估种改进方式对于模型性能的贡献。实验结果表明,在Base模型中使用MSAFPN优化PAFPN,虽然增加了计算量,但是模型参数量有稍许降低,并且mAP取得1%的提升;加入SimAM注意力机制,在参数量和计算量几乎不变的情况的情况下,mAP提高了0.7%,验证了注意力机制对特征聚焦的有效性,强化了局部缺陷区域的响应,尤其对不规则划痕检测提升显著;使用StarNet优化Base模型中的CSPDarkNet53,在适度增加3.2%计算量的前提下提升mAP1.2%,说明其层级特征融合策略对复杂场景检测具有显著增益;将改进模块两两加入Base,对mAP分别有2.6%、1.3%、2.3%的提升;将三个改进结合,计算量相较于基础模型有一定增加,但是检测精度显著提升,检测速度略有提升,mAP为97.7%,P为93.2%,R为93.9%,FPS为105帧/秒,相较于原始模型分别提升了4.8%、6.1%、4.3%和1.9%。说明所提出的方法在针对航发叶片表面缺陷微小、形态多变、缺陷尺寸差异大等挑战时表现优异,可以实现对缺陷目标的准确、快速检测。

  六、研究总结与未来展望

  针对航空发动机叶片表面缺陷检测中传统视觉传感器技术面临易过曝、缺陷微小多变等困难,提出了一种基于动态视觉传感器的缺陷检测新方法,契合2025年视觉传感器行业标准对高动态范围、高帧率等关键指标的要求。通过搭建基于动态视觉传感器的航发叶片质检实验平台,深入探究了动态视觉传感器的成像机理与优势,证实其在强曝光、高速运动场景下可稳定清晰成像,有效去除背景冗余信息。构建的首个基于动态视觉传感器的航发叶片缺陷检测数据集(EDD-AB),涵盖3类缺陷近6000张图像及近1.2万个标注目标,为相关研究提供了重要数据支撑。结合异步事件流帧聚合技术与多尺度特征融合策略设计的AEAF-ABDD算法,通过多分辨率自适应特征金字塔网络、轻量级SimAM注意力机制和星形卷积模块的协同作用,实现了对航发叶片多尺度缺陷的精准高效检测。

  实验数据验证表明,AEAF-ABDD算法在EDD-AB数据集上的平均精度均值(mAP)达97.7%,检测速度达105帧/秒,显著优于主流检测算法,在面对复杂曲面工件及强曝光、高速运动情况下,能够显著提升微小缺陷(如划痕、点痕)的检测精度与鲁棒性。该研究不仅为航空发动机叶片的自动化质检提供了高效解决方案,还为动态视觉传感器在工业高反光表面缺陷检测领域的应用提供了范例,未来有望进一步推广至其他复杂工况下的缺陷检测任务。

  当前研究仍存在一定局限,算法计算复杂度相较于部分模型有所增加,并且数据集覆盖范围有限,只包括三种缺陷数据。考虑到异步时间帧聚合可以去除背景冗余信息,未来工作将会继续对模型进行轻量化研究,减少模型参数量和冗余通道数,提升在嵌入式平台和工业边缘设备上的实时推理能力,并继续采集更多种类的缺陷数据,丰富数据集,进一步推动视觉传感器在工业检测领域的规范化、规模化应用。

VIP专享文档

扫一扫,畅享阅读

视觉传感器相关资讯

推荐报告

相关图表