摘要:一般來說,分為分割和識別兩個部分。此文將探討分割問題。通常我們第一步是將用戶傳入的照片進行掃描,提取待識別的區(qū)域,也就如圖下面將文件摳出來。
OCR(Optical Character Recognition,光學(xué)字符識別)是指電子設(shè)備檢查紙上字符然后用字符識別方法將形狀翻譯成計算機文字的過程;采用光學(xué)的方式將紙質(zhì)文檔中的文字轉(zhuǎn)換成為黑白點陣的圖像文件,并通過識別軟件將圖像中的文字轉(zhuǎn)換成文本格式,供文字處理軟件進一步編輯加工的技術(shù)。
一般來說,OCR分為分割和識別兩個部分。此文將探討分割問題。
通常我們第一步是將用戶傳入的照片進行掃描,提取待識別的區(qū)域,也就如圖下面將文件摳出來。
具體步驟:
(1)獲取文件輪廓
(2)獲取文件四角的點坐標
(3)透視變換
導(dǎo)入庫
import numpy as np import cv2 import matplotlib.pyplot as plt import math
獲取文件輪廓
image = cv2.imread("原始照片.jpg") #讀原始照片 gray = cv2.cvtColor(image,cv2.COLOR_BGR2GRAY) #二值化 gray = cv2.GaussianBlur(gray, (5, 5), 0) #高斯濾波 kernel = np.ones((3,3),np.uint8) dilation = cv2.dilate(gray,kernel) #膨脹 edged = cv2.Canny(dilation, 30, 120) #邊緣提取 _, cnts, hierarchy = cv2.findContours(edged,cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_NONE) cv2.drawContours(image,cnts,-1,(0,0,255),3)
獲取文件四角點的坐標
cnts0=cnts[0] cnts1=cnts[1] rect = np.zeros((4,2), dtype="float32") rect[0] = cnts1[np.argmin(np.sum(cnts1,axis=-1))] rect[2] = cnts0[np.argmax(np.sum(cnts0,axis=-1))] rect[1] = cnts1[np.argmin(np.diff(cnts1,axis=-1))] rect[3] = cnts0[np.argmax(np.diff(cnts0,axis=-1))]
四角點的順序:左上,右上,右下,左下
左上坐標和最小,右下坐標和最大
右上坐標差最小,左下坐標差最大(Y-X)
根據(jù)四角點坐標求矯正后圖像的尺寸
(tl,tr,br,bl) = rect width1 = np.sqrt(((tr[0]-tl[0])**2)+((tr[1]-tl[1])**2)) width2 = np.sqrt(((br[0]-bl[0])**2)+((br[1]-bl[1])**2)) width = max(int(width1),int(width2)) height1 = np.sqrt(((tr[0]-br[0])**2)+((tr[1]-br[1])**2)) height2 = np.sqrt(((tl[0]-bl[0])**2)+((tl[1]-bl[1])**2)) height = max(int(height1),int(height2)) dst = np.array([ [0, 0], [width - 1, 0], [width - 1, height - 1], [0, height - 1]], dtype = "float32")
透視變換
M = cv2.getPerspectiveTransform(rect, dst) warped = cv2.warpPerspective(image, M, (width, height))
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/43391.html
摘要:模塊基于預(yù)訓(xùn)練模型進行識別,識別出的結(jié)果與一起經(jīng)過注意力機制得到加權(quán)的空間注意力,得到的結(jié)果與進行組合。五六結(jié)論將融入的前向處理流程,構(gòu)建了一個魯棒且準確的模型參考博客?論文題目:Beyond OCR + VQA: Involving OCR into the Flow for Robust and Accurate TextVQA?論文鏈接:https://dl.acm.org/doi/a...
閱讀 3250·2023-04-25 22:47
閱讀 3765·2021-10-11 10:59
閱讀 2300·2021-09-07 10:12
閱讀 4243·2021-08-11 11:15
閱讀 3432·2019-08-30 13:15
閱讀 1750·2019-08-30 13:00
閱讀 968·2019-08-29 14:02
閱讀 1680·2019-08-26 13:57