Не уверен, что это ответит на ваш вопрос, но я бы сосредоточил свое внимание в другом месте. А именно, почему слово «Dècor» становится, если я правильно понял, при загрузке в вашу таблицу BigQuery «DÃ © cor».
Допустим, у вас есть файл CSV со следующим содержимым:
Dècor|Dècor|Dècor
Dècor|Dècor|Dècor
Если вы загрузите его в BigQuery с кодировкой «ISO-8859-1», он будет поврежден.
bq load --autodetect --source_format=CSV -field_delimiter="|" -encoding='ISO-8859-1' mydataset.test_french gs://my-bucket/broken_french.csv
А вот как выглядит таблица внутри BigQuery:
Row string_field_0 string_field_1 string_field_2
1 Dècor Dècor Dècor
2 Dècor Dècor Dècor
С другой стороны, если вы используете кодировку 'UTF-8', например, так:
bq load --autodetect --source_format=CSV -field_delimiter="|" -encoding='UTF-8' mydataset.test_french2 gs://my-bucket/broken_french.csv
результат в BigQuery выглядит следующим образом:
Row string_field_0 string_field_1 string_field_2
1 Dècor Dècor Dècor
2 Dècor Dècor Dècor
Итак, в случае там, где вы используете неправильную кодировку для загрузки ваших данных, я бы перезагружал их, используя правильную.