国产成人精品久久免费动漫-国产成人精品天堂-国产成人精品区在线观看-国产成人精品日本-a级毛片无码免费真人-a级毛片毛片免费观看久潮喷

您的位置:首頁技術文章
文章詳情頁

python利用opencv如何實現答題卡自動判卷

瀏覽:62日期:2022-07-28 11:12:02
目錄1、設定答題卡模板2、讀取答題卡圖像并對圖像進行灰度化處理3、高斯模糊圖像去噪點4、使用大津法二值分割圖像5、使用開運算去噪點6、使用canny邊緣檢測算法7、篩選答題區域輪廓,透視變換矯正目標區域使用攝像頭實時判卷部分總結1、設定答題卡模板

該圖像為答題卡的答題區域,黑色邊框是為了能夠在各種環境中輕易的檢測,左部分和上部分的黑色矩形,是為能夠定位到答題選項的坐標而設置,同時題目數量為20×3共60道選擇題,在進行批改試卷之前,需要手動輸入該次考試的正確答案作為模板來對識別的內容進行比較判分。

python利用opencv如何實現答題卡自動判卷

2、讀取答題卡圖像并對圖像進行灰度化處理

python利用opencv如何實現答題卡自動判卷

# 最大值法求圖像灰度值def graying(image): h, w = image.shape[0], image.shape[1] gray = np.zeros((h, w), np.uint8) for i in range(h):for j in range(w): gray[i, j] = max(image[i,j][0], image[i,j][1], image[i,j][2]) return gray3、高斯模糊圖像去噪點

python利用opencv如何實現答題卡自動判卷

gray = cv2.GaussianBlur(gray, (3, 3), 0)4、使用大津法二值分割圖像

經過上一步操作后,答題卡的前背景分明,已經能夠輕易將標識矩陣和答題區域涂改信息和背景分離開來,接下來需要將圖像的標識矩陣和答題區域的涂改信息提取出來,需要進一步規劃數字圖像信息,二值化圖像能使圖像的數據量大大減少,既保留原有的數字信息,又能將無用的數據舍去,將原本數值范圍為0-255的圖像信息分割成像素值為0或255的二值圖像,在這里0值代表背景,無用且不需要處理的信息,255表示目標信息(標識矩陣和答題區域的涂改信息),其算法原理非常簡單,圖像中像素值大于閾值時為255,小于閾值時為0。在二值化時,需要確定一個閾值,而這個閾值人為來定義是無法隨著環境變換隨時處于最優狀態,在這里我們使用1979年由學者大津提出的對圖像分割的高效算法來處理。大津法算法原理:

有假設如下:

u: 圖像像素值平均值 g: 圖像類間方差 w0: 圖像背景像素點數占圖像的比例 u0: 圖像背景像素點的平均值 w1: 圖像前景像素點數占圖像的比例 u1: 圖像前景像素點的平均值

算法公式為:

python利用opencv如何實現答題卡自動判卷

將第一個公式代入第二個得:

python利用opencv如何實現答題卡自動判卷

5、使用開運算去噪點

此時已經得到較為完美的預處理圖,但是不難發現,我們答題卡有一小塊干擾像素。在實際情況中,這種干擾信息是有可能出現的,且大小與清晰度并沒有固定范圍,因此,在判卷之前,需要盡可能的將這種干擾信息去除,前面的各種圖像預處理方法僅僅是將圖像的前景和背景分離提取出定位標識信息和涂改信息,面對這樣的情況,選擇使用機器視覺中

常用的開運算方法處理圖像可以得到較好的效果。

python利用opencv如何實現答題卡自動判卷

開運算:先對圖像進行腐蝕操作,再進行膨脹操作,就是開運算操作,能夠消除細小的物體,將兩個物體的細小的連接處去除從而分離兩個物體,且擁有平滑邊界的效果,被廣泛應用于去除圖像噪聲。

腐蝕算法原理:

步驟1:定義一個卷積核B,卷積核可以是隨意的大小與形狀,但通常是帶參考點的正方形或圓形,作為腐蝕的模板。

步驟2:將卷積核與原圖像進行卷積操作,計算原圖像包裹卷積核B的區域的像素最小值,這個區域則作為腐蝕操作后的結果。

例如有原圖像A,卷積核B

python利用opencv如何實現答題卡自動判卷

則經過腐蝕算法操作之后可得實驗結果為如下:

python利用opencv如何實現答題卡自動判卷

實驗發現,右上角的小塊圖像噪聲被腐蝕掉了,同時,下方的像素塊被腐蝕了一圈且兩塊被分割開來,為了盡量減少圖像的信息被過度腐蝕掉,接下來一步需要使用膨脹算法,將圖像像素膨脹回來,盡可能去掉圖像噪聲的同時,也減少圖像信息的過度減少。

膨脹算法原理:

步驟1:定義一個卷積核B,開運算時直接使用腐蝕操作時使用的卷積核B。

步驟2:將卷積核B與原圖像進行卷積操作,計算原圖像包裹卷積核B的區域的像素最大值,這個區域則作為膨脹操作后的結果。使用腐蝕操作后的結果來進行膨脹操作,實驗效果如下:

python利用opencv如何實現答題卡自動判卷

觀察開運算操作的前后對比,可以得知,右上角的噪聲完全去除的同時,與原圖像信息相比較,僅僅有五個像素點被去除,是完全可以接受的。

開運算操作實際實驗效果如下:

python利用opencv如何實現答題卡自動判卷

步驟進行到這,發現右下角那塊較大的圖像噪聲,仍舊無法消除,主要原因是該噪聲較大,形狀大小與顏色深度與目標信息相似,在準確保留目標信息的情況下難以將其分割開來,因此接下來選擇通過定位圖像信息來排除該圖像噪聲,對其不進行操作。

代碼網上找的,忘記從哪抄的了,百度一下都有。。。

# 圖像腐蝕def etch(img, size): h=img.shape[0] w=img.shape[1] img1=np.zeros((h,w),np.uint8) for i in range (1,h-1):for j in range (1,w-1): min=img[i,j] for k in range (i-size,i+size):for l in range (j-size,j+size): if k<0|k>=h-1|l<0|l>=w-1:continue if img[k,l]<min:min=img[k,l] img1[i,j]=min return img1# 圖像膨脹def expand(img, size): h=img.shape[0] w=img.shape[1] img1=np.zeros((h,w),np.uint8) for i in range (1,h-1):for j in range (1,w-1): max=img[i,j] for k in range (i-size,i+size):for l in range (j-size,j+size): if k<0|k>=h-1|l<0|l>=w-1:continue if img[k,l]>max: max=img[k,l] img1[i,j]=max return img1# 開運算def opening(image, size): etch_img = etch(image, size) expand_img = expand(etch_img, size) return expand_img6、使用canny邊緣檢測算法

canny邊緣檢測算法是一種運用非常廣泛的算法,由john F.Canny在1986年提出的,一種多階段的算法:

步驟1:對圖像進行去噪

步驟2:計算圖像的強度梯度

步驟3:在邊緣上進行非極大值抑制

步驟4:對檢測得到的邊緣使用雙閾值排查

步驟5:分析邊緣之間的連接

通過這一系列的操作后便可得到圖像內容里的邊緣信息,我們前面已經對圖像進行了深度的去噪操作,已經將大部分噪音完全清除,接下來的操作應該是區分定位區域和判卷區域的坐標,來對其進行判斷處理,這一步只是為了觀察圖像的邊緣信息,屬于測試步驟,在實際的運用中,并不會使用該步驟來處理圖像。

實驗結果如下:

python利用opencv如何實現答題卡自動判卷

7、篩選答題區域輪廓,透視變換矯正目標區域

通過輪廓檢測可以計算多邊形的外界,在這里我們需要檢測出答題卡涂改區域的黑色邊框位置,定位得到邊框的四個頂點坐標,再對目標進行透視矯正操作。到這一步驟,已經得到矯正后的答題區域,接下來需要對圖像的答題區域進行定位判斷。

具體實驗效果如下:

python利用opencv如何實現答題卡自動判卷

# 透視變換from imutils.perspective import four_point_transformdef wPs(image, points): warped = four_point_transform(image, points) return warped

python利用opencv如何實現答題卡自動判卷

最后判斷黑色集中的地方就可以判斷選項了

python利用opencv如何實現答題卡自動判卷

使用攝像頭實時判卷部分

調用攝像頭部分的處理方式是對圖像處理里使用的方法的一個總和。最終該系統的實時判卷,準確率達到百分之百,并且是在環境較差的的情況下進行判卷。

python利用opencv如何實現答題卡自動判卷

python利用opencv如何實現答題卡自動判卷

python利用opencv如何實現答題卡自動判卷

全部代碼如下

import cv2import numpy as np# 選取區域去除邊緣dist = 5# 畫圖線粗度line_w = 2# 畫筆顏色red = (0, 0, 255)green = (0, 255, 0)blue = (255, 0, 0)# 高斯模糊算法#防止顏色值超出顏色取值范圍(0-255)# 開運算,先腐蝕,后膨脹# 圖像腐蝕def etch(img, size): h=img.shape[0] w=img.shape[1] img1=np.zeros((h,w),np.uint8) for i in range (1,h-1):for j in range (1,w-1): min=img[i,j] for k in range (i-size,i+size):for l in range (j-size,j+size): if k<0|k>=h-1|l<0|l>=w-1:continue if img[k,l]<min:min=img[k,l] img1[i,j]=min return img1# 圖像膨脹def expand(img, size): h=img.shape[0] w=img.shape[1] img1=np.zeros((h,w),np.uint8) for i in range (1,h-1):for j in range (1,w-1): max=img[i,j] for k in range (i-size,i+size):for l in range (j-size,j+size): if k<0|k>=h-1|l<0|l>=w-1:continue if img[k,l]>max: max=img[k,l] img1[i,j]=max return img1# 開運算def opening(image, size): etch_img = etch(image, size) expand_img = expand(etch_img, size) return expand_img# 最大值法求圖像灰度值def graying(image): h, w = image.shape[0], image.shape[1] gray = np.zeros((h, w), np.uint8) for i in range(h):for j in range(w): gray[i, j] = max(image[i,j][0], image[i,j][1], image[i,j][2]) return gray# OTSU# 二值化def otsu(img): h=img.shape[0] w=img.shape[1] m=h*w otsuimg=np.zeros((h,w),np.uint8) threshold_max=threshold=0 histogram=np.zeros(256,np.int32) probability=np.zeros(256,np.float32) for i in range(h):for j in range(w): s=img[i,j] histogram[s]+=1 for k in range(256):probability[k]=histogram[k]/m for i in range(255):w0 = w1 = 0fgs = bgs = 0for j in range (256): if j<=i:w0+=probability[j]fgs+=j*probability[j] else:w1+=probability[j]bgs+=j*probability[j]u0=fgs/w0u1=bgs/w1g=w0*w1*(u0-u1)**2if g>=threshold_max: threshold_max=g threshold=i for i in range (h):for j in range (w): if img[i,j]<threshold:otsuimg[i,j]=255 else:otsuimg[i,j]=0 return otsuimg# 透視變換from imutils.perspective import four_point_transformdef wPs(image, points): warped = four_point_transform(image, points) return warped# 輪廓檢測函數def find_contour(image): contours = cv2.findContours(image, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)[0] return contours# 冒泡排序def bubble_sort(lists, type): ’’’ :param lists: 排序列表 :param type: 排序類型 :return: 排序結果 ’’’ count = len(lists) for i in range(0, count):xi, yi = cv2.boundingRect(lists[i])[0], cv2.boundingRect(lists[i])[1]for j in range(i + 1, count): xj, yj = cv2.boundingRect(lists[j])[0], cv2.boundingRect(lists[j])[1] if type == 'title':if yi > yj: lists[i], lists[j] = lists[j], lists[i] elif type == 'answer':if xi > xj: lists[i], lists[j] = lists[j], lists[i] else:return print('排序出錯') return lists#統計結果def count(roi): ’’’ :param roi: 答題選項區域 :return: 選擇結果 ’’’ grade = 0 long = roi.shape[1] / 8 contour = find_contour(roi) if len(contour) == 0:return 0 elif len(contour) >= 2:return -2 for c in contour:perimeter = cv2.arcLength(c, True)if perimeter > 5: x = cv2.boundingRect(c)[0] if x < long:grade = 1 elif x < long*3:grade = 2 elif x < long*5:grade = 3 else:grade = 4 return grade# 輪廓檢測處理def contours(img, dst): ’’’ :param img: 查看效果圖像 :param dst: 輪廓檢測對象 :return: 效果圖像,輪廓檢測效果圖像,檢測結果 ’’’ img_dst = img.copy() edged = cv2.Canny(dst, 10, 100) img_cnts = find_contour(edged) # 如果未檢測到輪廓則退出 c_len = len(img_cnts) if c_len == 0:print('error:No find contours!')return img, dst # 畫出所有輪廓 ## 得到答題區域 pt = None for c in img_cnts:cv2.drawContours(img, [c], -1, red, line_w)perimeter = cv2.arcLength(c, True)if perimeter < 40: continueapprox = cv2.approxPolyDP(c, 0.02*perimeter, True)if len(approx) == 4: pt = approxhull = cv2.convexHull(c)cv2.polylines(img, [hull], True, green, line_w) pt = pt.reshape(4,2) # 透視變換 img_dst = wPs(img_dst, pt) dst = wPs(dst, pt) img_dst = img_dst[dist:img_dst.shape[0]-dist,dist:img_dst.shape[1]-dist] dst = dst[dist:dst.shape[0]-dist,dist:dst.shape[1]-dist] # 處理答題卡答題區域部分 contours_roi = find_contour(dst) title, answer = [], [] for c in contours_roi:x, y, w, h = cv2.boundingRect(c)if x >= dist and y <= dist: answer.append(c)if x < dist and y > dist: title.append(c) # 冒泡排序 title = bubble_sort(title, 'title') answer = bubble_sort(answer, 'answer') # 判卷 result = np.zeros(60, dtype=np.int8) for title_number in range(60):miny = cv2.boundingRect(title[title_number%20])[1]x, y, w, h = cv2.boundingRect(answer[int(title_number/20+1)*4-1])x1= cv2.boundingRect(answer[int(title_number/20+1)*4-4])[0]maxx, maxy = x+w, miny+hcv2.rectangle(img_dst, (x1, miny), (maxx, maxy), blue, line_w)roi = dst[miny:maxy, x1:maxx]grade = count(roi)result[title_number] = gradeprint('title'+str(title_number+1)+':',grade) return img, img_dst, resultdef new_contours(img_dst, aim_otsu): ’’’ :param img_dst: 查看效果圖像 :param aim_otsu: 答題卡區域 :return: 效果圖像, 識別結果 ’’’ # 處理答題卡答題區域部分 contours_roi = find_contour(aim_otsu) title, answer = [], [] for c in contours_roi:x, y, w, h = cv2.boundingRect(c)if x >= dist and y <= dist: answer.append(c)if x < dist and y > dist: title.append(c) # 冒泡排序 title = bubble_sort(title, 'title') answer = bubble_sort(answer, 'answer') # 判卷 result = np.zeros(60, dtype=np.int8) for title_number in range(60):miny = cv2.boundingRect(title[title_number % 20])[1]x, y, w, h = cv2.boundingRect(answer[int(title_number / 20 + 1) * 4 - 1])x1 = cv2.boundingRect(answer[int(title_number / 20 + 1) * 4 - 4])[0]maxx, maxy = x + w, miny + hcv2.rectangle(img_dst, (x1, miny), (maxx, maxy), blue, 1)roi = aim_otsu[miny:maxy, x1:maxx]grade = count(roi)result[title_number] = grade return img_dst, result# 主要步驟def run(img): ’’’ :param img: 可操作的原圖像 :return: 預處理后的圖像 ’’’ print('image.shape:', img.shape) # 最小值法求圖像灰度值 gray = graying(img) # 二值分割大津法 thresh = otsu(gray) img_open = opening(thresh, 1) return img_openfrom PIL import Image, ImageDraw, ImageFontfont_china = ImageFont.truetype(’simhei.ttf’, 40, encoding='utf-8')def ChinaToImage(image, str, color): ’’’ :param image: 原圖像 :param str: 需要寫的字 :param color:畫筆顏色 :return:寫完字的圖像 ’’’ img_PIL = Image.fromarray(cv2.cvtColor(image, cv2.COLOR_BGR2RGB)) draw = ImageDraw.Draw(img_PIL) draw.text((20, 20), str, color,font=font_china) return cv2.cvtColor(np.asarray(img_PIL),cv2.COLOR_RGB2BGR)# 提示是否可以開始函數def hint(image, b): ’’’ :param image: 攝像頭畫面 :param b: 提示是否可以批卷 :return: 返回寫入提示的畫面 ’’’ str_s = ’按下Esc退出!n按下空格開始!’ str_e = ’按下Esc退出!n請調整好角度!’ if b:image = ChinaToImage(image, str_s, green) else:image = ChinaToImage(image, str_e, red) return image# 查找答題卡輪廓,提示是否可以開始def star_bool(image): ’’’ :param image: 攝像頭畫面 :return: 是否可以開始批卷 ’’’ image_gray = graying(image) edged = cv2.Canny(image_gray, 10, 100) con = find_contour(edged) b = False points = None for c in con:cv2.drawContours(image, [c], -1, red, line_w)perimeter = cv2.arcLength(c, True)w, h = cv2.minAreaRect(c)[1]if w == 0 or h == 0 or w/h < 0.6: continueif perimeter < 200: continueapprox = cv2.approxPolyDP(c, 0.02 * perimeter, True)if len(approx) != 4: continueb = Truepoints = approxhull = cv2.convexHull(c)cv2.polylines(image, [hull], True, green, line_w) aim_c = None aim_otsu = None if b:try: points = points.reshape(4, 2) aim = wPs(image_gray, points) aim_c = wPs(image, points) aim = aim[dist:aim.shape[0] - dist, dist:aim.shape[1] - dist] aim_c = aim_c[dist:aim_c.shape[0] - dist, dist:aim_c.shape[1] - dist] aim_otsu = otsu(aim) cv2.imshow(’aim_otsu’, aim_otsu)except: print(’角度誤差大!’) return b, aim_c, aim_otsu# 批改函數def correct(model_answer, result): ’’’ :param model_answer: 該試卷正確答案 :param result: 識別答案 :return: 顯示批卷結果,顯示效果,可檢測對象 ’’’ if len(model_answer) != 60:print(’答案模板數量不對!n請重新設置答案。’)return 0 # 成績 grade = {’score’:0, ’no choice’:0, ’mul’:0} no_choice_number = [] mul_number = [] # 題的分值,topik考試基本每題兩分 cube = 2 # 計算分數 for index in range(len(model_answer)):if model_answer[index] > 4 or model_answer[index] < 1: print('答案模板有誤!n請重新設置答案。') return 0if result[index] == 0: no_choice_number.append(index+1) grade[’no choice’] += 1 continueif result[index] == -2: mul_number.append(index+1) grade[’mul’] += 1 continueif model_answer[index] == result[index]: grade[’score’] += cube # 批卷完成 print(’-’ * 70) print(’-’ * 70) print(’正確答案:n’, model_answer) print(’識別結果:n’, result) print(’-’*35) print(’分值:’, grade[’score’]) print(’-’ * 35) print(’空選數量:’, grade[’no choice’]) print(’空選題號:n’, no_choice_number) print(’-’ * 35) print(’多選數量:’, grade[’mul’]) print(’多選題號:n’, mul_number) print(’-’ * 70) print(’-’ * 70)def main(): # 該變量為本次試卷正確答案模板,需要根據試卷受到修改原本正確答案 model_answer = [1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4, 1, 2, 3, 4,] cap = cv2.VideoCapture(0) cv2.namedWindow('image', 0) cv2.resizeWindow('image', 640, 480) while True:sucess, img = cap.read()img_temp = img.copy()b, aim, aim_otsu = star_bool(img_temp)img_temp = hint(img_temp, b)cv2.imshow('image', img_temp)k = cv2.waitKey(16)# Esc結束if k == 27: break# 空格按下開始elif k == 32: try:img_dst, result = new_contours(aim, aim_otsu)correct(model_answer, result)cv2.imshow(’answer_roi’, img_dst) except:print('您拍答題卡的角度誤差過大') else:if cv2.waitKey(0) == 27: breakelse: continue cap.release() cv2.destroyAllWindows()if __name__=='__main__': main()總結

到此這篇關于python利用opencv如何實現答題卡自動判卷的文章就介紹到這了,更多相關python opencv答題卡自動判卷內容請搜索好吧啦網以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持好吧啦網!

標簽: Python 編程
相關文章:
主站蜘蛛池模板: 精品一区二区三区中文字幕 | 在线观看精品国产 | 久久国产视频在线观看 | 91年精品国产福利线观看久久 | 国产精品99久久久久久宅男 | 一级欧美一级日韩毛片99 | 综合亚洲一区二区三区 | 国内精品免费一区二区三区 | 精品精品国产高清a毛片 | 亚洲人在线 | 一级免费 | 一级一级 a爱片免费视频 | 亚洲日本在线看片 | 手机看片在线 | 亚洲欧美另类自拍第一页 | 亚洲一区日韩一区欧美一区a | 亚洲va在线va天堂va四虎 | 一区二区三区在线视频观看 | www.99在线 | 一区二区三区四区免费视频 | 欧美三级真做在线观看 | 日本在线国产 | 精品欧美一区二区精品久久 | 欧美高清一区二区三区欧美 | 国产一区三区二区中文在线 | 亚洲精品国精品久久99热 | 亚洲视频 欧美视频 | 欧美一级特黄做 | 精品国产免费第一区二区 | 亚洲精品成人一区二区aⅴ 亚洲精品成人一区二区www | 国产亚洲欧美精品久久久 | 欧美一级一片 | 国产大秀视频 | 亚洲午夜网站 | 国产一级久久久久久毛片 | 中文国产日韩欧美视频 | 香港三级日本三级三级人妇 | 欧美性高清bbbbbbxxxxx | 国产成人一区二区三区高清 | 久草在线视频精品 | 欧美性精品hd在线观看 |