Точная настройка предварительно обученной языковой модели с помощью простых трансформеров - PullRequest
0 голосов
/ 28 апреля 2020

В своей статье «Тонкая настройка языковой модели для предварительно обученных трансформаторов» Тилина Раджапаксе (https://medium.com/skilai/language-model-fine-tuning-for-pre-trained-transformers-b7262774a7ee) предоставляет следующий фрагмент кода для тонкой настройки предварительно обученной модели с использованием библиотеки simpletransformers:

from simpletransformers.language_modeling import LanguageModelingModel
import logging


logging.basicConfig(level=logging.INFO)
transformers_logger = logging.getLogger("transformers")
transformers_logger.setLevel(logging.WARNING)

train_args = {
    "reprocess_input_data": True,
    "overwrite_output_dir": True,
}

model = LanguageModelingModel('bert', 'bert-base-cased', args=train_args)

model.train_model("data/train.txt", eval_file="data/text.txt")

model.eval_model("data/test.txt")

Затем он добавляет:

Мы предполагаем, что вы объединили весь текст в вашем наборе данных в два текстовых файла train.txt и test.txt, которые могут быть находится в каталоге data /.

У меня есть 2 вопроса:

Вопрос 1

Означает ли выделенное предложение выше, что все корпус будет объединен в один текстовый файл? Итак, предполагая, что Учебный корпус состоит из 1 000 000 текстовых файлов, мы должны объединить их все в один текстовый файл с кодом, подобным этому?

import fileinput
with open(outfilename, 'w') as fout, fileinput.input(filenames) as fin:
    for line in fin:
        fout.write(line)

Вопрос 2

Я предполагаю, что могу использовать предварительно обученную модель: bert-base-multilingual-cased. Правильно?

1 Ответ

1 голос
/ 28 апреля 2020

Вопрос 1

Да, входные данные для методов train_model() и eval_model() должны быть одним файлом.

Вероятно, будет поддерживаться динамическая загрузка из нескольких файлов в будущем

Вопрос 2

Да, вы можете использовать bert-base-multilingual-cased модель.

Вы найдете гораздо более подробное, обновленное руководство по обучению языковой модели здесь .

Источник - я создатель библиотеки

...