Создайте пользовательский фидер для больших json файлов данных - PullRequest
1 голос
/ 21 января 2020

Я новичок в Gatling и Scala, и я пытаюсь создать тест с пользовательским «фидером», который позволил бы каждому потоку нагрузочного теста использовать (и повторно использовать) один из примерно 250 json файлов данных в качестве полезная нагрузка поста.

Каждый файл полезной нагрузки поста имеет 1000 записей этой формы:

[{
    "zip": "66221-2115",
    "recordId": "18378e10-e046-4ad3-9293-0847f8a05b2f",
    "firstName": "ANGELA",
    "lastName": "MADEUP",
    "city": "Springfield",
    "street": "123 Fake St",
    "state": "KS",
    "email": "AMADEUP@GMAIL.COM"
 }, 
 ...
]

(файлы имеют размер около 250 КБ каждый)

В идеале я хотел бы прочитать они в начале теста выглядят примерно так:

int fileCount = 3;

ClassLoader classLoader = getClass().getClassLoader();
List<File> files = new ArrayList<>();

for (int i =0; i<=fileCount; i++){
  String fileName = String.format("identityMatching/address_data_%d.json", i);
  File file = new File(classLoader.getResource(fileName).getFile());
  files.add(file);
}

, а затем получают содержимое файла с чем-то вроде:

FileUtils.readFileToString(files.get(1), StandardCharsets.UTF_8)

Сейчас я возиться с работой этого кода в scala, но мне интересно несколько вещей:

1) Можно ли превратить этот код в устройство подачи, чтобы я мог использовать его как устройство подачи CSV?

2) Когда я должен загрузить json из файлов в память? В начале теста или когда каждому потоку нужны данные?

1 Ответ

1 голос
/ 22 января 2020

Я не получил никаких ответов, поэтому я опубликую то, что я узнал.

1) Я смог использовать фидер с именами файлов в нем (не содержимым файла)

2) Я думаю, что лучший подход для чтения данных в: файла, который будет загружен как есть (из https://gatling.io/docs/current/http/http_request)

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...