Мне интересно, как обучить нейронную модель, когда у меня есть две отдельные задачи с неравным количеством данных для каждой задачи. Например, рассмотрим приведенный ниже случай:
Задача 1. Проблема классификации в одном наборе данных, в котором есть записи с двумя метками (0, 1). Количество обучающих экземпляров: 20 000
Задание 2. Проблема классификации в одном наборе данных, в котором есть записи с тремя метками (0, 1, 2). Количество обучающих экземпляров: 1,6M
Я пытаюсь разработать сеть, в которой совместно используемая сеть сначала пытается кодировать каждый экземпляр (каждой задачи), а затем проецировать закодированные экземпляры через 2 выходных слоя для решение каждой задачи в отдельности. В частности, общая сеть - это кодировщик BERT (который мне не нужно тренировать). Поэтому все, что мне нужно сделать, - это подготовить два выходных (линейных) слоя для каждой задачи и оптимизировать их с помощью функции потери нескольких задач. Но мне трудно понять, как это сделать, если для каждой задачи существует неодинаковое количество экземпляров. Есть мысли по этому поводу?