Судя по комментариям, проблема заключалась в том, где проводились тесты производительности.Я не могу не подчеркнуть это достаточно при тестировании CoreImage
фильтров:
Используйте устройство real , а не симулятор.
Мой опытчто в симуляторе может потребоваться «секунды к минутам», когда на любом устройстве iPhone 5 или более поздней версии, использующем iOS 9+ (возможно, и раньше, в обоих направлениях), будет «почти в реальном времени до миллисекунд».Если вы не видите это на реальном устройстве? - это , что-то не так в коде.
Я не нашел ни учебников, ни книг, ни всего, что подчеркивало бы эту единственную точку.Мой лучший ресурс - Саймон Гладман, который написал превосходный Core Image для Swift (будьте осторожны, это Swift 2) - объясняет многое из того, что, как я верю, происходит, но никогда не подчеркивал, почему это так.
Устройство iOS использует графический процессор.Симулятор не .
Я уверен, что это более сложный процесс и требует оптимизации.Но дело в том, что, хотя вы можете использовать CoreImage в macOS
, если вы используете симулятор, вы нацелены на iOS
.Поэтому, если проект MacOS, использующий CoreImage, может работать хорошо, если это проект iOS, вам нужно использовать реальное устройство, чтобы почувствовать производительность.