Я развил программу автоматизации и генерации статистики с помощью серии быстрых прототипов, чтобы посмотреть, дает ли стоимость лицензии API хороший возврат инвестиций. Ограниченные временные рамки и мой собственный ограниченный опыт привели к созданию полезного инструмента без автоматизированных тестов и показателей качества или правильности.
Программа имеет дело с процессом локализации для документов PDF. В частности, он генерирует отчет о части содержимого файлов (приблизительное количество слов, количество изображений и т. Д.) И имеет некоторые функции извлечения и обработки содержимого. Он в основном используется для сокращения времени и стоимости оценки стоимости проекта локализации PDF.
Приложение было одобрено для более формального процесса разработки, включая запрос на систему отслеживания ошибок и цикл предварительного тестирования, выпуска и обратной связи.
Тогда возникает вопрос, как бы вы пошли о QA и тестировании в такого рода приложениях, где цифры часто являются лучшим предположением на основе некоторой эвристики, а обработанный вывод не всегда полезен из-за ужасающей конструкции источника документы? Я планирую добавить предупреждения в отчет, когда цифры явно сумасшедшие, но что еще можно сделать, чтобы гарантировать качество?
На сегодняшний день самое сложное решение, которое у меня есть, - это гарантировать результаты некоторых вспомогательных методов путем тестирования утверждений в среде сборки и написания набора традиционных пользовательских тестовых примеров (которых я бы предпочел избежать).
Как вы проверяете субъективные показатели качества?
Я работаю в C #, но я предпочитаю ответы на общие рекомендации по всем вопросам, связанным с фреймворком.