Я экспериментирую с новым Firebase MLKit от Google для iOS.Я играю с облачным распознаванием текста в изображениях, и мне интересно, как я могу настроить границы текстовых блоков.
Вот пример, который я использую: https://firebase.google.com/docs/ml-kit/ios/recognize-text
Я могу найти документацию по этому вопросу для Google Cloud Vision, но не специально для реализации Cloud Vision на MLKit.
Текст из изображений автоматически помещается в блоки.Некоторые возвращаемые блоки должны быть объединены, а другие должны быть разделены.Как я могу настроить правила, в которых эти блоки генерируются.Обратитесь к предоставленному образцу.