Как анализировать символы с акцентом с помощью Google Cloud Natural Language - PullRequest
0 голосов
/ 23 мая 2019

Я пытаюсь использовать клиент Python на Python3 (коллаб) для анализа текста с акцентированными символами.Я настраиваю объект документа с типом PLAIN_TEXT.

# Run a sentiment analysis request on text
def nlp_analyze_text(text, lang=nlp_def_language):
  client = language.LanguageServiceClient()

  document = types.Document(
      content=text,
      language=lang,      
      type=enums.Document.Type.PLAIN_TEXT)
  entities = client.analyze_entities(document=document, encoding_type='UTF32')
  syntax = client.analyze_syntax(document=document)

  return (entities, syntax)

Таким образом, входные данные, которые передаются в клиент, содержат многобайтовые символы.

text = u"Mi vieja mula ya no es lo que era? Qué era entonces? Era de Bs.As. Saludos!"
nlp_analyze_text(text)

Это, я думаю, неправильно понятоGoogle Cloud NL.

sentences {
   text {
     content: "Qu\303\251 era entonces?"
     begin_offset: -1
   }
 }

Итак, как мне настроить код для анализа текста с акцентированными символами.

Спасибо

1 Ответ

0 голосов
/ 24 мая 2019

В конце концов, я смотрел на экранированные символы, потому что у печатаемого объекта была реализация str . Когда я напечатал более глубокие атрибуты, я увидел строку без экранирования.

Надеюсь, этот пост поможет другим.

...