圖像配準(zhǔn)需是指對(duì)不同條件下得到的兩幅或多幅圖像進(jìn)行匹配、疊加的過程。最簡(jiǎn)單的做法就是求得原圖像到目標(biāo)圖像之間的透視變換矩陣,將原圖像按照矩陣進(jìn)行變換,就可以得到和目標(biāo)圖像相似的效果。透視變換是將成像投影到一個(gè)新的視平面,也稱作投影映射。
透視變換實(shí)質(zhì)上是將二維的圖片變換到三維的坐標(biāo)系中之后再變換到另一個(gè)二維坐標(biāo)系,與仿射變換相比透視變換實(shí)現(xiàn)的效果要多一些。求解精確矩陣和透視變換可以很容易地在opencv-python中實(shí)現(xiàn)。
import cv2 as cv
import numpy as np
import matplotlib.pyplot as plt
original_image = cv.imread("Image A.jpg")
target_image = cv.imread("Image B.jpg")
# 生成透視矩陣
src_points = np.array([[957, 1655], [2177, 1170], [2676, 24], [2487, 1931]], dtype=np.float32)
den_points = np.array([[687, 1150], [2000, 996], [2757, 18], [2098, 1819]], dtype=np.float32)
# getPerspectiveTransform可以得到從點(diǎn)集src_points到點(diǎn)集den_points的透視變換矩陣
T = cv.getPerspectiveTransform(src_points, den_points)
# 進(jìn)行透視變換
# 注意透視變換第三個(gè)參數(shù)為變換后圖片大小,格式為(高度,寬度)
warp_imgae = cv.warpPerspective(original_image, T, (target_image.shape[1], target_image.shape[0]))
plt.imshow(warp_imgae)
plt.show()
進(jìn)行四點(diǎn)變換前后的結(jié)果為
opencv-python也可以計(jì)算超過四個(gè)點(diǎn)的兩數(shù)組點(diǎn)之間的變換矩陣。對(duì)原圖像選擇7個(gè)點(diǎn)進(jìn)行透視變換的結(jié)果為
# 設(shè)置原始和目標(biāo)特征點(diǎn)
src_more_point = np.float32([[957, 1655], [2177, 1170], [620, 2586], [1280, 2316], [2487, 1931], [937, 758], [2676, 24]]).reshape(-1, 1, 2)
den_more_point = np.float32([[687, 1150], [2000, 996], [121, 1974], [927, 1886], [2098, 1819], [899, 280], [2757, 18]]).reshape(-1, 1, 2)
# 調(diào)用庫(kù)函數(shù)計(jì)算特征矩陣
# cv.findHomography第三個(gè)參數(shù)為計(jì)算單位矩陣所用的方法,0為常規(guī)算法,cv.RANSAC為基于RANSAC的魯棒算法,cv.LMEDS為最小中值
# 魯棒算法,cv.RHO基于PROSAC的魯棒算法.第四個(gè)參數(shù)取值范圍在1到10,絕一個(gè)點(diǎn)對(duì)的閾值。原圖像的點(diǎn)經(jīng)過變換后點(diǎn)與目標(biāo)圖像上對(duì)應(yīng)
# 點(diǎn)的誤差.返回值中H為變換矩陣.mask是掩模,在線的點(diǎn).
H, status = cv.findHomography(src_more_point, den_more_point, cv.RANSAC, 5.0)
# 進(jìn)行透視變換
warped_more_point_image = cv.warpPerspective(original_image, H, (target_image.shape[1], target_image.shape[0]))
對(duì)4個(gè)點(diǎn)、7個(gè)點(diǎn)和opencv-python函數(shù)庫(kù)自動(dòng)匹配的效果對(duì)比如下
可以看出如果匹配點(diǎn)選擇恰當(dāng),三種方法的效果并沒有太大區(qū)別。
調(diào)用庫(kù)函數(shù)的圖像自動(dòng)匹配代碼如下
# 用AKAZE庫(kù)函數(shù)進(jìn)行自動(dòng)特征檢測(cè),AKAZE與SIFT等屬于相似的 特征檢測(cè),但是有一些不同
akaze = cv.AKAZE_create()
# Find the keypoints and descriptors with SIFT
kp1, des1 = akaze.detectAndCompute(original_image_gray, None)
kp2, des2 = akaze.detectAndCompute(target_image_gray, None)
bf = cv.BFMatcher()
matches = bf.knnMatch(des1, des2, k=2)
good_matches = []
for m, n in matches:
if m.distance 0.75 * n.distance:
good_matches.append([m])
# 畫出符合條件的匹配點(diǎn)的連線
img3 = cv.drawMatchesKnn(original_image_gray, kp1, target_image_gray, kp2, good_matches, None, flags=cv.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS)
cv.imwrite('matches.jpg', img3)
src_automatic_points = np.float32([kp1[m[0].queryIdx].pt for m in good_matches]).reshape(-1, 1, 2)
den_automatic_points = np.float32([kp2[m[0].trainIdx].pt for m in good_matches]).reshape(-1, 1, 2)
# 調(diào)用庫(kù)函數(shù)計(jì)算特征矩陣
H, status = cv.findHomography(src_more_point, den_more_point, cv.RANSAC, 5.0)
# 進(jìn)行透視變換
warped_automatic_image = cv.warpPerspective(original_image, H, (target_image.shape[1], target_image.shape[0]))
# 繪制圖像
my_draw(warped_automatic_image, tip='automatic')
到此這篇關(guān)于opencv-python圖像配準(zhǔn)的實(shí)現(xiàn)的文章就介紹到這了,更多相關(guān)opencv-python圖像配準(zhǔn)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
您可能感興趣的文章:- Opencv Python實(shí)現(xiàn)兩幅圖像匹配
- Python使用Opencv實(shí)現(xiàn)圖像特征檢測(cè)與匹配的方法
- Python和OpenCV進(jìn)行多尺度模板匹配實(shí)現(xiàn)
- OpenCV-Python模板匹配人眼的實(shí)例
- OpenCV-Python實(shí)現(xiàn)多模板匹配
- python基于OpenCV模板匹配識(shí)別圖片中的數(shù)字
- Python開發(fā)之基于模板匹配的信用卡數(shù)字識(shí)別功能
- Python+Opencv實(shí)現(xiàn)圖像匹配功能(模板匹配)