Как я могу разобрать этот вывод журнала JSON в список моего компонента? - PullRequest
0 голосов
/ 15 сентября 2018

Я работаю с некоторым программным обеспечением, которое выплевывает следующий лог-файл:

{"message":"logger controller initialised","@timestamp":"2018-09-15T09:33:25.709+01:00","logger_name":"com.hidden.controller.LoggerController","thread_name":"JavaFX Application Thread","level":"DEBUG"}
{"message":"parsing history log data to display","@timestamp":"2018-09-15T09:33:25.877+01:00","logger_name":"com.hidden.controller.LoggerController","thread_name":"JavaFX Application Thread","level":"DEBUG"}

Когда я пытаюсь проанализировать этот файл json с помощью Gson в LogRowModel [], он выплевывает различные ошибкипо формату json, например:

Caused by: java.lang.IllegalStateException: Expected BEGIN_ARRAY but was BEGIN_OBJECT at line 1 column 2 path $

Я пишу свой файл, используя json-код logback / logstash, используя следующую настройку:

<configuration>
    <timestamp key="time" datePattern="yyyy-MM-dd'_'HH-mm-ss.SSS"/>
    <appender name="RootSiftAppender" class="ch.qos.logback.classic.sift.SiftingAppender">
        <discriminator>
            <Key>test</Key>
            <DefaultValue>logfile</DefaultValue>
        </discriminator>
        <sift>
            <appender name="FILE" class="ch.qos.logback.core.rolling.RollingFileAppender">
                <File>src\\main\\resources\\${test}.json</File>
                <encoder class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder">
                    <providers>
                        <message/>
                        <timestamp/>
                        <loggerName/>
                        <threadName/>
                        <logLevel/>
                    </providers>
                </encoder>
                <rollingPolicy class="ch.qos.logback.core.rolling.FixedWindowRollingPolicy">
                    <FileNamePattern>${test_name}.%i.json</FileNamePattern>
                    <MinIndex>1</MinIndex>
                    <MaxIndex>100</MaxIndex>
                </rollingPolicy>
                <triggeringPolicy class="ch.qos.logback.core.rolling.SizeBasedTriggeringPolicy">
                    <MaxFileSize>50MB</MaxFileSize>
                </triggeringPolicy>
            </appender>
        </sift>
    </appender>
    <appender name="STDOUT" class="ch.qos.logback.core.ConsoleAppender">
        <encoder>
            <pattern>%n %d{HH:mm:ss} %thread %level %logger{0} %msg</pattern>
        </encoder>
    </appender>

    <root level="RootSiftAppender">
        <appender-ref ref="RootSiftAppender"/>
    </root>
    <root level="DEBUG">
        <appender-ref ref="STDOUT"/>
    </root>
</configuration>

Как я могу проанализировать мой jsonфайл в массив этого:

@Data
@Slf4j
public class LogRowModel {

    @JsonProperty("@timestamp") private final String timestamp;
    @JsonProperty("message") private final String message;
    @JsonProperty("logger_name") private final String logger;
    @JsonProperty("level") private final String level;
    @JsonProperty("thread_name") private final String thread;
}

Вот мой текущий код, который выдает ошибку (я предполагаю, что ошибка связана с форматом json, почесывая голову о том, как лучше отформатировать его) *

Type collectionType = new TypeToken<Collection<LogRowModel>>(){}.getType();
      Collection<LogRowModel> enums = new Gson().fromJson(new FileReader(new File("src/main/resources/logfile.json")), collectionType);

или как мне сделать вывод логгера в гораздо лучшем формате массива json?

Спасибо.

1 Ответ

0 голосов
/ 17 сентября 2018

пример кода того, как я добился того, что мне было нужно, используя JsonStreamParser из Gson для обработки каждого объекта корневого узла по очереди.

private void buildHistoryData() {
  if (isLogFileEmpty()) return;
  history.clear();

  Gson gson = new GsonBuilder().create();
  try {
    JsonStreamParser parser = new JsonStreamParser(new FileReader(LOG_FILE));
    while (parser.hasNext()) {
      final LogRowModel currentRow = gson.fromJson(parser.next(), LogRowModel.class);
      if (currentFilter == LogFilter.ALL) history.add(currentRow);
      else if (currentRow.getLevel().equalsIgnoreCase(currentFilter.getLevel()))
        history.add(currentRow);
    }
  } catch (Exception ex) {
    ex.printStackTrace();
  }
}
...