2016-03-23 10 views
6

Przeszukałem wszystkich, aby znaleźć jądro, które wykonuje progowanie adaptacyjne w systemie iOS. Niestety nie rozumiem języka jądra ani logiki, która za nim stoi. Poniżej znalazłem procedurę, która wykonuje progowanie (https://gist.github.com/xhruso00/a3f8a9c8ae7e33b8b23d)Próg adaptacyjny CIKernel/CIFilter iOS

static NSString * const kKernelSource = @"kernel vec4 thresholdKernel(sampler image)\n" 
"{\n" 
" float inputThreshold = 0.05;\n" 
" float pass = 1.0;\n" 
" float fail = 0.0;\n" 
" const vec4 vec_Y = vec4(0.299, 0.587, 0.114, 0.0);\n" 
" vec4 src = unpremultiply(sample(image, samplerCoord(image)));\n" 
" float Y = dot(src, vec_Y);\n" 
" src.rgb = vec3(compare(Y - inputThreshold, fail, pass));\n" 
" return premultiply(src);\n" 
"}"; 

Czy można przepisać to do adaptacyjnego jądra progowania? Obraz, który mu dostarczam, został zamieniony na B & W i został już zamazany. Czy są jakieś zasoby, na które mógłbyś wskazać? Chciałbym pozostać przy CoreImage, ponieważ mój cały stos jest zbudowany wokół niego.

Edit: Najlepszym przykładem/referencje od co próbuję osiągnąć został wdrożony w GPUImageAdaptiveThresholdFilter GPUImage za - https://github.com/BradLarson/GPUImage/blob/c5f0914152419437869c35e29858773b1a06083c/framework/Source/GPUImageAdaptiveThresholdFilter.m

Odpowiedz

2

Filtr Simona jest to najlepsze rozwiązanie, aby osiągnąć pożądany efekt, jednak trzeba zmienić kilka rzeczy.

Przede wszystkim zmień kolejność imageLuma i thresholdLuma, ponieważ chcemy, aby czarne litery pozostały czarne, a nie na odwrót. Powinieneś także dodać stałą (wybrałem 0.01), aby usunąć szum.

var thresholdKernel = CIColorKernel(string: 
    "kernel vec4 thresholdFilter(__sample image, __sample threshold)" + 
     "{" + 
     " float imageLuma = dot(image.rgb, vec3(0.2126, 0.7152, 0.0722));" + 
     " float thresholdLuma = dot(threshold.rgb, vec3(0.2126, 0.7152, 0.0722));" + 
     " return vec4(vec3(step(thresholdLuma, imageLuma+0.001)), 1);"  
    "}" 

override var outputImage: CIImage! { 
    guard let inputImage = inputImage, 
     let thresholdKernel = thresholdKernel else { 
     return nil 
    } 
    let blurred = inputImage.applyingFilter("CIBoxBlur", withInputParameters: [kCIInputRadiusKey: 5]) // block size 
    let extent = inputImage.extent 
    let arguments = [inputImage, blurred] 
    return thresholdKernel.apply(withExtent: extent, arguments: arguments) 
} 

A to, co można dostać tylko za pomocą Apple rdzenia obrazu, bez konieczności instalowania żadnych zewnętrznych bibliotek :)

enter image description here

oczywiście, można poeksperymentować trochę z wartościami stałej i wielkości bloku.

+0

Pascal, dziękuję za odpowiedź. Każdy pomysł, jak to wdrożyć w CoreImage? https://github.com/ctodobom/OpenNoteScanner/blob/master/app/src/main/java/com/todobom/opennotescanner/ImageProcessor.java#L409 – mmackh

+0

Wspomniałeś stałą 0.01, ale masz 0.001, czy to jest błąd? Czy stosujesz tę stałą do imageLuma lub progowej lumy (zakładając, że chciałem białe litery z czarnym tłem – Pochi

+0

0.01 i 0.001 nie wydaje się robić zbyt dużej różnicy.Możesz wypróbować różne wartości, aby dopasować się do twoich potrzeb . – triiiiista

4

Jak to wygląda: Użyłem CoreImage CIBoxBlur (choć dedykowanych filtrów splotu może być szybsze) i przekazałem dane wyjściowe tego do mojego existing threshold filter.

class AdaptiveThresholdFilter: CIFilter 
{ 
    var inputImage : CIImage? 


    var thresholdKernel = CIColorKernel(string: 
    "kernel vec4 thresholdFilter(__sample image, __sample threshold)" + 
    "{" + 
    " float imageLuma = dot(image.rgb, vec3(0.2126, 0.7152, 0.0722));" + 
    " float thresholdLuma = dot(threshold.rgb, vec3(0.2126, 0.7152, 0.0722));" + 

    " return vec4(vec3(step(imageLuma, thresholdLuma)), 1.0);" + 
    "}" 
    ) 


    override var outputImage: CIImage! 
    { 
     guard let inputImage = inputImage, 
      thresholdKernel = thresholdKernel else 
     { 
      return nil 
     } 

     let blurred = inputImage.imageByApplyingFilter("CIBoxBlur", 
       withInputParameters: [kCIInputRadiusKey: 9]) 

     let extent = inputImage.extent 
     let arguments = [inputImage, blurred] 

     return thresholdKernel.applyWithExtent(extent, arguments: arguments) 
    } 
} 

znalazłem this image z zacienionym strony i z tego kodu:

let page = CIImage(image: UIImage(named: "son1.gif")!) 

let filter = AdaptiveThresholdFilter() 

filter.inputImage = page 

let final = filter.outputImage 

Mam ten wynik:

enter image description here

Cheers!

Simon

+0

Dziękuję za rozpoczęcie pracy. Szukałem czegoś więcej na wzór http://homepages.inf.ed.ac.uk/rbf/HIPR2/images/son1adp2.gif jednak – mmackh

Powiązane problemy