使用opencv和python实现图像的智能处理,基于python的opencv图像处理
OpenCV也提供了一些机器学习的方法,比如DNN。本文将详细介绍OpenCV中通过机器学习实现的一些图像识别功能:人脸识别、车牌识别等。有兴趣的可以看看。
00-1010背景一、人脸识别二、车牌识别三、DNN图像分类
目录
OpenCV也提供了一些机器学习的方法,比如DNN;本文将简单介绍机器学习的一些应用,对比传统和前沿的算法,从中可以看出优劣;
背景
主要有以下两种实现方式:
1.哈尔级联法:一种专门用于人脸识别的传统算法:
实施步骤:
创建哈尔梯级;
导入图片并对其进行灰度处理;
调用函数接口进行人脸识别;
功能原型:
检测多尺度(img,比例因子,minNeighbors)
ScaleFactor:缩放尺寸;
MinNeighbors:最小像素值;
代码案例:
#创建哈尔瀑布
facer=cv2。级联分类器(。/haarcascades/haarcascade _ front alface _ default . XML’)
#导入面部图片并对其进行灰度处理
img=cv2.imread(p3.png )
gray=cv2.cvtColor(img,cv2。COLOR_BGR2GRAY)
#呼叫接口
faces=facer . detect multi scale(gray,1.1,5)
对于面:中的(x,y,w,h)
cv2.rectangle(img,(x,y),(x w,y h),(0,0,255),2)
cv2.imshow(img ,img)
cv2.waitKey()
结论:Haar级联法对完整人脸的检测效果较好,但对不完整人脸的识别效果较差,这可能也是传统算法的一个缺陷,泛化能力较差。
扩展:Haar cascade还可以识别面部的细节特征。
代码如下:
#创建哈尔瀑布
facer=cv2。级联分类器(。/haarcascades/haarcascade _ front alface _ default . XML’)
eyer=cv2。级联分类器(。/Haar cascades/Haar cascade _ eye . XML’)
#导入面部图片并对其进行灰度处理
img=cv2.imread(p3.png )
gray=cv2.cvtColor(img,cv2。COLOR_BGR2GRAY)
#呼叫接口
faces=facer . detect multi scale(gray,1.1,5)
i=0
对于面:中的(x,y,w,h)
cv2.rectangle(img,(x,y),(x w,y h),(0,0,255),2)
ROI_img=img[y:y h,x:x w]
eyes=eyer . detect multi scale(ROI _ img,1.1,5)
对于眼睛中的(x,y,w,eyes:
cv2.rectangle(ROI_img,(x,y),(x w,y h),(0,255,0),2)
i=1
name=img str(i)
cv2.imshow(名称,ROI_img)
cv2.waitKey()
总结:Haar Cascade提供了多种面部属性识别,包括眼睛、鼻子和嘴巴,但是效果不一定那么准确;
一、人脸识别
结构:哈尔宇宙魔方车牌识别;
说明:Haar cascade只用于定位车牌的位置,Tesseract用于提取内容;
实施步骤:
1.哈尔级联装置定位车牌位置;
2.车牌预处理操作(二值化、形态学、滤波去噪、缩放);
3.调用Tesseract进行字符识别;
注:宇宙魔方;这里需要提前安装;
代码案例:
re class="brush:py;">import pytesseract
# 创建Haar级联器
carer = cv2.CascadeClassifier(./haarcascades/haarcascade_russian_plate_number.xml)
# 导入人脸图片并灰度化
img = cv2.imread(chinacar.jpeg)
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
# 调用接口
cars = carer.detectMultiScale(gray, 1.1, 3)
for (x,y,w,h) in cars:
cv2.rectangle(img, (x,y), (x+w, y+h), (0,0,255), 2)
# 提取ROI
roi = gray[y:y+h, x:x+w]
# 二值化
ret, roi_bin = cv2.threshold(roi, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)
# 文字识别
pytesseract.pytesseract.tesseract_cmd = r"D:\Tesseract_OCR\tesseract.exe"
text = pytesseract.image_to_string(roi, lang=chi_sim+eng,config=--psm 8 --oem 3)
print(text)
cv2.putText(img, text, (20,100), cv2.FONT_HERSHEY_SIMPLEX, 2, (0,0,255), 3)
cv2.imshow(img, img)
cv2.waitKey()
结论:车牌的位置检测比较准确,但Tesseract的识别并不那么准确,可能用ORC识别会准确一些;当然识别的准确率也和图像处理后比较模糊有关,做一些处理能够提升文字的识别率;
三、DNN图像分类
DNN为深度神经网络,并且是全连接的形式;
注意:OpenCV能够使用DNN模型,但并不能训练;
DNN使用步骤:
读取模型,得到网络结构;
读取数据(图片或视频)
将图片转成张量,送入网络;
模型输出结果;
函数原型:
导入模型:readNet(model,[config])
图像转张量:blobFromImage(image,scalefactor,size,mean,swapRB,crop)
送入网络:net.setInput(blob)
模型推理:net.forward()
代码案例:
# 导入模型config = "./model/bvlc_googlenet.prototxt"
model = "./model/bvlc_googlenet.caffemodel"
net = dnn.readNetFromCaffe(config, model)
# 加载图片,转成张量
img = cv2.imread(./smallcat.jpeg)
blob = dnn.blobFromImage(img, 1.0, (224,224), (104,117,123))
# 模型推理
net.setInput(blob)
r = net.forward()
idxs = np.argsort(r[0])[::-1][:5]
# 分类结果展示
path = ./model/synset_words.txt
with open(path, rt) as f:
classes = [x[x.find(" ")+1:]for x in f]
for (i, idx) in enumerate(idxs):
# 将结果展示在图像上
if i == 0:
text = "Label: {}, {:.2f}%".format(classes[idx],
r[0][idx] * 100)
cv2.putText(img, text, (5, 25), cv2.FONT_HERSHEY_SIMPLEX,
0.7, (0, 0, 255), 2)
# 显示图像
cv2.imshow("Image", img)
cv2.waitKey(0)
结论:实际上有了模型之后,推理的步骤并不复杂,难点在于前处理与后处理;往往图像的处理上的错误,或者是对结果的处理问题,会导致结果不符,这是需要特别注意的;
到此这篇关于Python OpenCV机器学习之图像识别详解的文章就介绍到这了,更多相关OpenCV 图像识别内容请搜索盛行IT软件开发工作室以前的文章或继续浏览下面的相关文章希望大家以后多多支持盛行IT软件开发工作室!
郑重声明:本文由网友发布,不代表盛行IT的观点,版权归原作者所有,仅为传播更多信息之目的,如有侵权请联系,我们将第一时间修改或删除,多谢。