Lucene использует «Анализаторы» для токенизации и индексации ваших документов. Аналогично, анализаторы используются для токенизации поискового запроса пользователя.
Распространенной ошибкой является использование другого анализатора для индексации, чем для поиска, оба должны совпадать, чтобы вы получили ожидаемые результаты (поиск этот документ для "общей ошибки").
Стандартный токенизер Lucene распознает строки электронной почты и индексирует их как один токен.
Он будет индексировать dave@gmail.com как [token: dave@gmail.com]. Однако возможно, что анализатор, который вы используете для токенизации вашего запроса (или если вы создаете запрос вручную), разбивает его на 3 токена, разделяя их на не алфавитно-цифровые символы. Поэтому вы можете искать 3 смежных токена: [tok1: dave] [tok2: gmail] [tok3: com], которых не существует.
Query.toString , вероятно, "красиво напечатает" запрос, который вы отправляете в Lucene, что может помочь вам в отладке.