FirebaseML Vision не работает хорошо с изображением, полученным с помощью камеры устройства - PullRequest
0 голосов
/ 04 сентября 2018

Я имею в виду пример кода

[https://codelabs.developers.google.com/codelabs/mlkit-ios/#0

Дайте здесь, чтобы обнаружить текст в изображении. Если я запускаю этот код с моим изображением счета-фактуры (отсканированный документ), он работает нормально. Но когда я иду и делаю снимок распечатки счета, это не дает мне точных результатов. В данном примере я только что запустил камеру и передал захваченное изображение на

runTextRecognition(with: imgSelectedImage)

Помогите разобраться с проблемой

UPDATE

   func imagePickerController(_ picker: UIImagePickerController, didFinishPickingMediaWithInfo info: [String : Any]) {
    imgSelectedImage = info[UIImagePickerControllerOriginalImage] as! UIImage
    runTextRecognition(with: imgSelectedImage)
    }


[![func runTextRecognition(with image: UIImage) {
  let visionImage = VisionImage(image: image)
    textDetector.detect(in: visionImage) { features, error in
      self.processResult(from: features, error: error)
    }
  }

 func processResult(from text: \[VisionText\]?, error: Error?) {
    removeFrames()
    guard let features = text, let image = imageView.image else {
      return
    }
    for text in features {
      if let block = text as? VisionTextBlock {
        for line in block.lines {
          for element in line.elements {
            self.addFrameView(
              featureFrame: element.frame,
              imageSize: image.size,
              viewFrame: self.imageView.frame,
              text: element.text
            )
          }
        }
      }
    }
  }
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...