傳統(tǒng)固體火箭發(fā)動機無損檢測圖像判讀工作存在人工識別效率低、圖像數(shù)據(jù)分散及數(shù)據(jù)利用率低等問題。本文借助機器學習算法與計算機視覺技術(shù),利用大量發(fā)動機無損檢測圖像數(shù)據(jù)開展無損檢測圖像數(shù)據(jù)預(yù)處理、邊緣檢測以及數(shù)據(jù)模型訓練和應(yīng)用等技術(shù)研究,探索快速、準確獲得發(fā)動機無損檢測圖像數(shù)據(jù)特征的方法,深入挖掘固體發(fā)動機無損檢測數(shù)據(jù)的內(nèi)在聯(lián)系,找到潛在規(guī)律。本研究不僅為固體發(fā)動機無損檢測圖像判讀提供了一種準確、高效的手段,同時,能夠為發(fā)動機無損檢測圖像識別、測量、判讀和發(fā)動機相關(guān)故障模式分析與故障診斷提供數(shù)據(jù)和決策支持,也能夠為未來機器學習在固體發(fā)動機無損檢測圖像判讀領(lǐng)域的深入應(yīng)用提供實踐探索和理論研究方面的參考。
01 引言
固體火箭發(fā)動機的零部件在塑性成形、裝藥、焊接、淬火、水壓試驗、固化冷卻、長期貯存、長途運輸、勤務(wù)處理和點火發(fā)射期間,要承受各種載荷的作用,同時受溫濕度等貯存條件的影響,發(fā)動機的推進劑、襯層、絕熱層及各部組件等將發(fā)生物理和化學性質(zhì)的變化。上述條件的共同作用會破壞固體火箭發(fā)動機的結(jié)構(gòu)完整性,導(dǎo)致藥柱內(nèi)產(chǎn)生氣孔、裂紋或藥柱與殼體粘接面脫粘等缺陷,任何一個超標缺陷都可能影響發(fā)動機的整體性能,甚至造成災(zāi)難性的事故。
實際測試證明,無損檢測技術(shù)對固體火箭發(fā)動機的絕熱層和藥柱中的氣孔、夾雜、裂紋及脫粘等常見缺陷具有很高的檢測靈敏度,并能準確測定其尺寸和部位,可以滿足較高的檢測要求。尤其是能夠?qū)腆w火箭發(fā)動機多界面進行質(zhì)量檢測,這是其它常規(guī)無損檢測方法無法比擬的。無損檢測技術(shù)的應(yīng)用,不但是其它常規(guī)無損檢測方法在固體火箭發(fā)動機質(zhì)量檢測上的補充,而且對固體火箭發(fā)動機的研制和生產(chǎn)工藝的制定也具有重要作用。由于發(fā)動機總裝后,絕大多數(shù)缺陷都不可修復(fù),因此,對固體發(fā)動機缺陷進行分析并采用快速、準確的檢測手段發(fā)現(xiàn)這些缺陷,已經(jīng)成為推進技術(shù)研究領(lǐng)域的重要課題。鑒于傳統(tǒng)固體火箭發(fā)動機無損檢測圖像判讀工作存在人工識別效率低、圖像數(shù)據(jù)分散、數(shù)據(jù)缺失以及數(shù)據(jù)利用率低等問題,本文借助機器學習算法與計算機視覺技術(shù),開展無損檢測圖像數(shù)據(jù)預(yù)處理、數(shù)據(jù)模型學習、數(shù)據(jù)模型識別和數(shù)據(jù)模型預(yù)測等技術(shù)研究,探索快速、準確獲得發(fā)動機無損檢測圖像數(shù)據(jù)特征的方法,深入挖掘無損檢測數(shù)據(jù)內(nèi)在聯(lián)系與潛在規(guī)律,以提高發(fā)動機無損檢測圖像數(shù)據(jù)利用率,為發(fā)動機產(chǎn)品質(zhì)量預(yù)判、無損檢測圖像判讀和相關(guān)故障診斷提供數(shù)據(jù)和決策支持。
02 現(xiàn)狀分析
由于固體發(fā)動機的特殊性,產(chǎn)品完成生產(chǎn)后非破壞性的無損檢測手段主要是超聲波探傷、X射線探傷和工業(yè)CT探傷三種。
2.1 超聲波探傷
超聲波探傷也稱超聲脈沖反射法,是較早用于固體火箭發(fā)動機的無損檢測手段,使用范圍有限,一般只限于殼體與襯層界面分離缺陷的定性檢測,無法進行絕熱層、藥柱和襯層界面的粘結(jié)質(zhì)量檢測。而微波、紅外和激光全息等其他用于固體發(fā)動機的類似檢測方法則對殼體材料、壁厚等條件要求較嚴格,對固體發(fā)動機多界面的粘結(jié)質(zhì)量檢測局限性很大。由于此類方法應(yīng)用范圍較窄,無損檢測圖像代表性不強,本文不對該類方法及數(shù)據(jù)進行詳細討論。
2.2 X射線探傷
通過X射線照相進行檢測探傷是目前應(yīng)用較為廣泛的固體發(fā)動機多界面粘結(jié)質(zhì)量檢測方式。對界面脫粘缺陷進行射線照相檢測時,通常采用切向透照布置,射線中心束穿透襯層與藥柱界面,典型的X射線探傷照相透照布置如圖1所示。
X射線照相檢測技術(shù)領(lǐng)域廣泛使用檢測靈敏度這個綜合性能指標來評價影像質(zhì)量。針對脫粘缺陷,縫隙寬度的檢測靈敏度與影像的不清晰度和脫粘沿圓周弧長的檢測靈敏度相對應(yīng),而脫粘縫隙寬度和軸向長度的檢測靈敏度取決于X射線布置的位置、加速器和增感屏性能等因素。基于目前的技術(shù)水平,一般新能的X射線探傷難以檢測出脫粘間隙小于0.2 mm的缺陷。
2.3 工業(yè)CT探傷
工業(yè)CT探傷即計算機層析成像技術(shù),由射線投影信息重建影像。計算機層析成像技術(shù)可顯示目標細節(jié)的位置、形狀及大小,影像容易識別和理解。某典型工業(yè)CT檢測設(shè)備布置如圖2所示。
工業(yè)CT缺陷檢測能力取決于CT影像的清晰程度和對細節(jié)的分辨能力等因素。影像質(zhì)量用密度分辨率、空間分辨率及偽像三方面來表征。受空間分辨率的影響,目前的CT檢測對脫粘間隙小于0.25 mm的缺陷難以檢測。
綜上所述,由于條件所限,傳統(tǒng)發(fā)動機的圖像識別需要檢測人員具備非常豐富的實踐經(jīng)驗和理論支持。而目前的圖像識別工作主要由經(jīng)驗豐富的技術(shù)人員使用“肉眼識別”的方式進行,無法保障無損檢測圖像判讀的正確性和效率,對自動化和智能化判讀系統(tǒng)的需求日益提高。基于機器學習的判讀系統(tǒng)在檢測發(fā)動機產(chǎn)品尺寸和對零部件進行缺陷檢測時,只需要將待檢測圖像輸入到通過機器學習訓練的服務(wù)器中,即可準確判別出被檢物體是否存在缺陷和缺陷類型,判讀速度快、一致性好,不僅有效縮短了判讀時間,還能夠節(jié)約人力和物力成本,是未來無損檢測判讀的重要發(fā)展方向。
03 發(fā)動機無損檢測數(shù)據(jù)智能判讀研究
傳統(tǒng)的固體發(fā)動機無損檢測圖像的判讀過程為:人眼識別發(fā)動機無損檢測圖像是否發(fā)生故障,如判斷結(jié)果為是,則使用手工測量工具在圖像上進行測量,線下對測量數(shù)值進行積累,后續(xù)再根據(jù)工程經(jīng)驗對發(fā)動機實際狀態(tài)進行分類和預(yù)測。為提高判讀的準確性、穩(wěn)定性以及檢測效率,降低成本,本文引入機器學習算法與計算機視覺技術(shù)對發(fā)動機無損檢測圖像進行智能判讀,總體研究方案如圖3所示。該模式下的圖像判讀主要分四個步驟:一是圖像快速識別,即利用計算機視覺技術(shù)對無損檢測圖像進行預(yù)處理,判斷“是否存在缺陷”;二是圖像精確測量,即利用算法捕捉邊界,準確給出缺陷的長度、寬度及面積等參數(shù),確定“缺陷的程度”;三是圖像評估預(yù)測,即在數(shù)據(jù)積累的基礎(chǔ)上,通過給定預(yù)測目標、優(yōu)化影響因子和分類聚類等計算機學習算法,建立并訓練故障診斷模型,使其能夠給出圖像的預(yù)測結(jié)果[1];四是提出系統(tǒng)原型的構(gòu)建思路,即固化整個判讀過程,積累數(shù)據(jù)與知識,以期達到機器換人和降本增效的目的。
3.1 數(shù)據(jù)集介紹
本研究實驗所使用的數(shù)據(jù)集由800余張發(fā)動機無損檢測底片組成,每張底片都來自于發(fā)動機實際生產(chǎn)過程,所有底片都是在統(tǒng)一X射線設(shè)備、統(tǒng)一環(huán)境及統(tǒng)一比例尺條件下完成的。底片的內(nèi)容為發(fā)動機不同部組件、不同部位和不同角度的無損檢測圖像,每臺發(fā)動機每個位置按0°、45°、90°、135°、180°、225°、270°和315°分別拍攝。本文中的數(shù)據(jù)標定規(guī)則為“發(fā)動機代號_位置_角度”,例如:“13_3_90”為序號13的發(fā)動機的第三個位置的90°X射線底片。原始無損檢測圖像中的測量數(shù)據(jù)由人工及工具輔助測量得到。本研究實驗方法如下:先由數(shù)據(jù)集訓練圖像識別模型,準確識別出缺陷位置后,經(jīng)過圖像測量的方法計算缺陷尺寸,再將計算好的尺寸歸一化處理,提取圖像測量后數(shù)據(jù)形成的訓練集,由訓練集訓練預(yù)測模型,實現(xiàn)發(fā)動機無損檢測圖像的預(yù)測。
3.2 圖像識別
圖像識別是發(fā)動機無損檢測智能判讀中的重要一環(huán),是所有后續(xù)工作的基礎(chǔ)。該部分工作是對發(fā)動機無損檢測圖像樣品(以下簡稱樣品)進行預(yù)處理,通過集中計算機的“注意力”來提高識別效率。具體做法是將輸入的圖像分成多個局部圖像,對重點部位進行重點學習,方便后續(xù)提取關(guān)鍵特征并給出初步判斷。
以某助推器的部組件的“脫粘”缺陷為例,本文中所有底片均在統(tǒng)一設(shè)備(X射線設(shè)備)、統(tǒng)一條件(圖像與實物比例相同、分辨率相同)下拍攝。由于無損檢測圖像一般為黑白底片,初步判讀依據(jù)為顏色“發(fā)白”的區(qū)域代表密度高,顏色“發(fā)黑”的區(qū)域代表密度低,可能是一般發(fā)動機的部組件缺陷(脫粘)發(fā)生的區(qū)域,其圖像識別過程如圖4所示。對于發(fā)動機無損檢測圖像判讀而言,圖4的“預(yù)處理圖像”中僅有部分區(qū)域所對應(yīng)的內(nèi)容對最終的識別結(jié)果起主導(dǎo)作用。若將圖像分割為9個網(wǎng)格,則區(qū)域編號為5的局部圖像在最終的場景識別計算時應(yīng)具有較大權(quán)重。
經(jīng)過卷積計算、空間維度降維和注意力因子映射3種運算加持后,附加了通道和空間混合注意力因子網(wǎng)絡(luò)的無損檢測圖像便可以進行快速、準確的識別了。這種方法的核心就是對圖像的不同區(qū)域施加不同的影響因子,進而可以自適應(yīng)地同區(qū)域賦予不同權(quán)重,這種處理會極大提高發(fā)動機無損檢測圖像識別的效率和準確率。選取30張底片(15張為正常底片,15張為帶缺陷的底 片)分別進行智能與傳統(tǒng)無損檢測圖像數(shù)據(jù)識別根據(jù)輸入圖像的視覺內(nèi)容對不同區(qū)域賦予不同權(quán)重[2]。由于機器學習卷積操作所固有的全局共享特性,對整幅圖像的任意區(qū)域的操作完全相同,因此,預(yù)處理的優(yōu)勢就是根據(jù)輸入圖像的不同(以下簡稱傳統(tǒng)識別),對比情況如表1所示。
由表1可以看出,在準確率方面,智能識別的缺陷判定比例為57%,傳統(tǒng)識別的缺陷判定比例為50%,智能識別的缺陷判定率要高于傳統(tǒng)模式,并且所有傳統(tǒng)識別為有缺陷的底片智能識別中均給出了缺陷判定;編號為013與017的底片智能與傳統(tǒng)識別分別給出了缺陷與正常的不同判定,仔細核對底片后發(fā)現(xiàn),013與017的底片與發(fā)生缺陷的底片極為相似,但通過解剖情況給出了黑色區(qū)域為富膠區(qū)而不是脫粘區(qū)的結(jié)論。在耗時方面,智能與傳統(tǒng)識別分別耗時約2h與10h,智能識別耗時約為傳統(tǒng)識別耗時的1/5。
3.3 圖像測量
圖像測量工作主要是對發(fā)動機無損檢測圖像的數(shù)據(jù)進行邊界檢測與測量。基于邊緣的檢測方法是把多邊形的頂點或曲率變化大的物體邊緣點作為特征點。由于特征點是物體邊緣的集合,如果邊緣定位出現(xiàn)偏差,就會對檢測結(jié)果造成很大的影響[3],因此,圖像測量對無損檢測圖像的清晰度與分辨率要求較高。在圖像邊緣識別的基礎(chǔ)上準確找到缺陷的起始與結(jié)束點,計算像素點之間的距離即可完成圖像數(shù)據(jù)的測量工作,測量過程如圖5所示。
依然以某助推器的部組件的“脫粘”缺陷為例。在本例中,智能測量的脫粘長度為53.2486mm,脫粘最大寬度2.405 mm,最小寬度0.802 mm;傳統(tǒng)測量的脫粘長度為55 mm,脫粘寬度約為1.6 mm。經(jīng)過分析,傳統(tǒng)人工方式的測量精度約為5 mm,而智能方式的測量精度可達0.2 mm,測量精度提升到原來的約25倍。
3.4 圖像預(yù)測
圖像預(yù)測是在圖像數(shù)據(jù)積累的基礎(chǔ)上,利用機器學習算法進行影響因子優(yōu)化和數(shù)據(jù)潛在聯(lián)系挖掘等研究,找出與給定目標數(shù)據(jù)最相似的數(shù)據(jù)并給出預(yù)測結(jié)果[4-5]。依然以某助推器的部組件的“脫粘”缺陷為例,選取上例中發(fā)生脫粘缺陷的17組底片進行預(yù)測,判讀影響因子為脫粘長度與寬度(長度和寬度的影響程度未知,經(jīng)分析,影響權(quán)重相差不超過10%)。在發(fā)生“脫粘”缺陷的發(fā)動機中,已知有一臺飛行失敗,以這臺發(fā)動機為基準進行無監(jiān)督算法預(yù)測,經(jīng)過歸一化處理后的失敗相似度預(yù)測結(jié)果如表2所示。
由于目前的目標樣品較少(有明確結(jié)論的試驗成功或失敗檢測圖像數(shù)據(jù)),后續(xù)經(jīng)過多次試驗取得數(shù)據(jù)后,還可以對影響因子的權(quán)重進行優(yōu)化,同時修正預(yù)測模型,進一步提高預(yù)測準確率。
04 構(gòu)建系統(tǒng)原型
為固化基于機器學習的圖像判讀過程,同時積累數(shù)據(jù)及知識,本文提出一種發(fā)動機無損檢測圖像智能判讀系統(tǒng)原型的構(gòu)建方法。基于機器學習的發(fā)動機無損檢測判讀系統(tǒng)是在采集大量無損檢測圖像的基礎(chǔ)上,通過大量已標記檢測圖像對具有學習功能的服務(wù)器進行訓練,再經(jīng)過機器學習算法的加持,形成具備發(fā)動機圖像檢測判別能力的算法模型。然后將待檢測圖像經(jīng)過預(yù)處理對其進行初步分類,再將圖像輸送到相應(yīng)的缺陷判別引擎進行判讀。服務(wù)器經(jīng)過計算和判別將結(jié)論傳遞到輸出模塊,最后再以可視化的行為展現(xiàn)結(jié)論。發(fā)動機無損檢測智能判讀系統(tǒng)組成及架構(gòu)如圖6所示。
本系統(tǒng)由發(fā)動機模型訓練系統(tǒng)(包括訓練樣本采集模塊、序列化處理模塊以及特征提取模塊等)、缺陷判別引擎系統(tǒng)(包括算法模型、分類定性識別模塊、定量計算識別模塊、協(xié)同過濾清洗模塊以及結(jié)果評估模塊)和發(fā)動機無損檢測數(shù)據(jù)管理分析系統(tǒng)(包括數(shù)據(jù)接入模塊、數(shù)據(jù)存儲代理模塊、消息隊列及任務(wù)調(diào)度模塊以及結(jié)果輸出模塊)組成。
發(fā)動機檢測圖像判別模型訓練系統(tǒng)的功能是在進行圖像判別之前,提前對帶有標注的訓練樣本進行學習訓練,對訓練樣本進行局部化、序列化的處理,提取其中的關(guān)鍵特征,最終得到機器學習判讀系統(tǒng)的重要內(nèi)容,即算法模型[6-7]。算法模型是具備圖像判讀功能的判別算法,也是整個判讀系統(tǒng)的核心。發(fā)動機檢測圖像缺陷判別引擎系統(tǒng)的功能是接到輸入消息數(shù)據(jù)后,經(jīng)過協(xié)同數(shù)據(jù)清洗,以算法模型為基礎(chǔ),使用定性分類和定量計算的方法進行圖像缺陷判別,判別結(jié)果進入結(jié)果評估模塊進行分析比對。發(fā)動機檢測圖像數(shù)據(jù)管理分析系統(tǒng)的功能是進行數(shù)據(jù)消息的傳遞和任務(wù)調(diào)度的優(yōu)化。工作流程分為兩個部分,一部分是將外部待檢測的檢測圖像接入數(shù)據(jù)管理分析系統(tǒng),經(jīng)過數(shù)據(jù)存儲代理后發(fā)往異步消息隊列中,然后依據(jù)配置好的消息策略,分配任務(wù)資源,優(yōu)化任務(wù)調(diào)度,最后發(fā)往缺陷判別系統(tǒng)進行判讀;另一部分是將缺陷判別系統(tǒng)判讀的結(jié)果接受到異步消息隊列中,再依據(jù)消息策略將判讀結(jié)果回傳到結(jié)果輸出模塊中,輸出判讀結(jié)果,并給出可視化結(jié)果行為。
05 結(jié)語
機器學習算法為固體發(fā)動機無損檢測圖像判讀提供了一種準確、高效的手段,有望取代傳統(tǒng)判讀方式廣泛應(yīng)用于工程領(lǐng)域。本文分析了目前固體發(fā)動機無損檢測圖像判讀的現(xiàn)狀,梳理了存在的問題,并引入機器學習相關(guān)技術(shù)開展了基于機器學習的圖像識別、圖像測量、圖像預(yù)測等研究及工程應(yīng)用工作。此外,本文還給出了一套完整的發(fā)動機圖像判讀方法,提出了一種智能判讀原型系統(tǒng)的構(gòu)建方式。這種方式不僅能夠提高圖像判讀準確性、穩(wěn)定性和效率,降低成本,還能同時為未來機器學習在固體發(fā)動機無損檢測圖像判讀領(lǐng)域的深入應(yīng)用提供實踐探索和理論參考。
參考文獻
[1] 吳喜之. 應(yīng)用回歸及分類[M]. 北京: 中國人民大學出版社, 2016: 152-169.
[2] ETHERM A. 機器學習導(dǎo)論[M]. 范明, 昝紅英, 牛常勇, 譯. 北京: 機械工業(yè)出版社, 2009: 146-168.
[3] 胡嘉駿, 侯麗麗, 王志剛, 等. 基于模糊C均值隸屬度約束的圖像分割算法[J]. 計算機應(yīng)用, 2016, 36(s1): 126-129.
[4] 楊劍鋒, 喬佩蕊, 李永梅, 等. 機器學習分類問題及算法研究綜述[J]. 統(tǒng)計與決策, 2019(6): 36-40.
[5] 朱虎明, 李佩焦, 李成, 等. 深度神經(jīng)網(wǎng)絡(luò)并行化研究綜述[J]. 計算機學報, 2018, 41(8): 1-23.
[6] 何清, 李寧, 羅文娟, 等. 大數(shù)據(jù)下的機器學習算法綜述[J]. 模式識別與人工智能, 2014, 27(4): 327-336.
[7] BANKO M, BRILL E. Scaling to very large corpora for natural language disambiguation[C]. Proceedings of the 39th Annual Meeting on Association for Computational Linguistics(ACL), Toulouse, France, 2001.