Ниже приведен список шагов, которые должны быть выполнены как часть моего сценария.
- Проверьте файл, созданный в местоположении S3, с помощью Redshift DB
- Проверьте дубликат между оригиналом сценарий с последним сценарием
- Проверьте новый добавленный столбец в последнем сценарии
- Убедитесь, что данные старого столбца не повреждены в исходном сценарии и последнем сценарии
И у меня есть Приведенные ниже функции охватывают то же самое.
Feature:Add # of times PDP browsed to search and sort output files User Story CDH-3311
@regression
Scenario Outline: :Validation of file being generated at S3 location after job run
Given user has the json file with <country> and <brand>
Then user execute the Generic-extract-Batch job
Then user verify the file is generated successfully at S3 location
Then user verify the data in Redshift db with generated file
Then user verify the duplicate data in latest sql script
And user verify the duplicate data in original sql script
And user verify PDP_VIEWS column in latest sql script
And user verify <old coulmn> data of original script
And user compare it with the latest sql script
Examples:
| country | brand | old column |
| US | test1 | test6 |
| US | test2 | STORE |
| US | test3 | test7 |
| US | test4 | SALESUNITSCORE |
| US | test5 | TOTALSCORE |
Пожалуйста, убедитесь, что наброски соответствуют передовым методам и являются правильным представлением того, что необходимо сделать для вышеупомянутых испытаний