[Python圖像處理] 十三.基于灰度三維圖的圖像頂帽運算和黑帽運算
一.圖像頂帽運算
圖像頂帽運算(top-hat transformation)又稱為圖像禮帽運算,它是用原始圖像減去圖像開運算后的結果,常用于解決由于光照不均勻圖像分割出錯的問題。其公式定義如下:

圖像頂帽運算是用一個結構元通過開運算從一幅圖像中刪除物體,校正不均勻光照的影響,其效果圖如下圖所示。

在Python中,圖像頂帽運算主要調用morphologyEx()實現,其中參數cv2.MORPH_TOPHAT表示頂帽處理,函數原型如下:
dst = cv2.morphologyEx(src,
cv2.MORPH_TOPHAT, kernel)
- src表示原始圖像
- cv2.MORPH_TOPHAT表示圖像頂帽運算
- kernel表示卷積核,可以用numpy.ones()函數構建
假設存在一張光照不均勻的米粒圖像,如圖所示,我們需要調用圖像頂帽運算解決光照不均勻的問題。其Python代碼如下所示:

#encoding:utf-8import cv2 import numpy as np
#讀取圖片src = cv2.imread('test06.png', cv2.IMREAD_UNCHANGED)
#設置卷積核kernel = np.ones((10,10), np.uint8)
#圖像頂帽運算result = cv2.morphologyEx(src, cv2.MORPH_TOPHAT, kernel)
#顯示圖像cv2.imshow("src", src)cv2.imshow("result", result)
#等待顯示cv2.waitKey(0)cv2.destroyAllWindows()
其運行結果如下,它有效地將米粒與背景分離開來。

二.圖像黑帽運算
圖像底帽運算(bottom-hat transformation)又稱為圖像黑帽運算,它是用圖像閉運算操作減去原始圖像后的結果,從而獲取圖像內部的小孔或前景色中黑點,也常用于解決由于光照不均勻圖像分割出錯的問題。其公式定義如下:

圖像底帽運算是用一個結構元通過閉運算從一幅圖像中刪除物體,常用于校正不均勻光照的影響。其效果圖如下圖所示。

在Python中,圖像底帽運算主要調用morphologyEx()實現,其中參數cv2.MORPH_BLACKHAT表示底帽或黑帽處理,函數原型如下:
dst = cv2.morphologyEx(src,
cv2.MORPH_BLACKHAT, kernel)
- src表示原始圖像
- cv2.MORPH_BLACKHAT表示圖像底帽或黑帽運算
- kernel表示卷積核,可以用numpy.ones()函數構建
Python實現圖像底帽運算的代碼如下所示:
#encoding:utf-8import cv2 import numpy as np
#讀取圖片src = cv2.imread('test06.png', cv2.IMREAD_UNCHANGED)
#設置卷積核kernel = np.ones((10, 10), np.uint8)
#圖像黑帽運算result = cv2.morphologyEx(src, cv2.MORPH_BLACKHAT, kernel)
#顯示圖像cv2.imshow("src", src)cv2.imshow("result", result)
#等待顯示cv2.waitKey(0)cv2.destroyAllWindows()
其運行結果如圖所示:

三.基于灰度三維圖的頂帽黑帽運算

為什么圖像頂帽運算會消除光照不均勻的果呢?通常可以利用灰度三維圖來進行解釋該算法。灰度三維圖主要調用Axes3D包實現,對原圖繪制灰度三維圖的代碼如下:
# -*- coding: utf-8 -*-import numpy as npimport cv2 as cvimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Dfrom matplotlib import cmfrom matplotlib.ticker import LinearLocator, FormatStrFormatter
#讀取圖像img = cv.imread("test06.png")img = cv.cvtColor(img,cv.COLOR_BGR2GRAY)imgd = np.array(img) #image類轉numpy
#準備數據sp = img.shapeh = int(sp[0]) #圖像高度(rows)w = int(sp[1]) #圖像寬度(colums) of image
#繪圖初始處理fig = plt.figure(figsize=(16,12))ax = fig.gca(projection="3d")
x = np.arange(0, w, 1)y = np.arange(0, h, 1)x, y = np.meshgrid(x,y)z = imgdsurf = ax.plot_surface(x, y, z, cmap=cm.coolwarm)
#自定義z軸ax.set_zlim(-10, 255)ax.zaxis.set_major_locator(LinearLocator(10)) #設置z軸網格線的疏密#將z的value字符串轉為float并保留2位小數ax.zaxis.set_major_formatter(FormatStrFormatter('%.02f'))
# 設置坐標軸的label和標題ax.set_xlabel('x', size=15)ax.set_ylabel('y', size=15)ax.set_zlabel('z', size=15)ax.set_title("surface plot", weight='bold', size=20)
#添加右側的色卡條fig.colorbar(surf, shrink=0.6, aspect=8) plt.show()
運行結果如下圖所示:

從圖像中的像素走勢顯示了該圖受各部分光照不均勻的影響,從而造成背景灰度不均現象,其中凹陷對應圖像中灰度值比較小的區域。而通過圖像白帽運算后的圖像灰度三維圖的代碼如下:
# -*- coding: utf-8 -*-import numpy as npimport cv2 as cvimport matplotlib.pyplot as pltfrom mpl_toolkits.mplot3d import Axes3Dfrom matplotlib import cmfrom matplotlib.ticker import LinearLocator, FormatStrFormatter
#讀取圖像img = cv.imread("test06.png")img = cv.cvtColor(img,cv.COLOR_BGR2GRAY)
#圖像黑帽運算kernel = np.ones((10,10), np.uint8)result = cv.morphologyEx(img, cv.MORPH_BLACKHAT, kernel)
#image類轉numpyimgd = np.array(result)
#準備數據sp = result.shapeh = int(sp[0]) #圖像高度(rows)w = int(sp[1]) #圖像寬度(colums) of image
#繪圖初始處理fig = plt.figure(figsize=(8,6))ax = fig.gca(projection="3d")
x = np.arange(0, w, 1)y = np.arange(0, h, 1)x, y = np.meshgrid(x,y)z = imgdsurf = ax.plot_surface(x, y, z, cmap=cm.coolwarm)
#自定義z軸ax.set_zlim(-10, 255)ax.zaxis.set_major_locator(LinearLocator(10)) #設置z軸網格線的疏密#將z的value字符串轉為float并保留2位小數ax.zaxis.set_major_formatter(FormatStrFormatter('%.02f'))
# 設置坐標軸的label和標題ax.set_xlabel('x', size=15)ax.set_ylabel('y', size=15)ax.set_zlabel('z', size=15)ax.set_title("surface plot", weight='bold', size=20)
#添加右側的色卡條fig.colorbar(surf, shrink=0.6, aspect=8) plt.show()
效果圖如下所示,對應的灰度更集中于10至100區間,由此證明了不均勻的背景被大致消除了,有利于后續的閾值分割或圖像分割。

四.總結
寫到這里,這篇文章就介紹結束。希望文章對大家有所幫助,如果有錯誤或不足之處,還請海涵。文章寫于連續奔波考博,經歷的事情太多,有喜有悲,需要改變自己好好對家人,也希望讀者與我一起加油。
感謝在求學路上的同行者,不負遇見,勿忘初心。月是故鄉圓啊~