Вам придется отбросить KeywordTokenizer - при этом весь сохраненный текст будет сохранен в виде одного токена.
Использование WhitespaceTokenizer или StandardTokenizer должно работать, помните, что вам нужно переиндексировать после изменения цепочки анализалюбым способом (если только вы не меняете способ обработки контента для запросов).
Использование динамического поля по умолчанию *_txt
(определено как StandardTokenizer с удалением только нижнего регистра и стоп-слов) и с вашими двумя документамипроиндексировано:
q=*:*
"response":{"numFound":2,"start":0,"docs":[
{
"paragraphs_txt":["abc def. bdbdbdbdbd, aa",
"abd efe"],
"id":"d696c435-2267-442d-9abe-ea754793d5cf",
"_version_":1602547400543567872},
{
"paragraphs_txt":["xyzabc def xyz",
"fgh xx",
"abcdef",
"wwwabc defxxx"],
"id":"09bbba7c-b407-403c-9771-582ef23f6b56",
"_version_":1602547400598093824}]
}}
q=paragraphcs_txt:"abc def"
"response":{"numFound":1,"start":0,"docs":[
{
"paragraphs_txt":["abc def. bdbdbdbdbd, aa",
"abd efe"],
"id":"d696c435-2267-442d-9abe-ea754793d5cf",
"_version_":1602547400543567872}]
}}