Я читал эту статью о том, как сделать правильный KFold для очень несбалансированного набора данных. В последнем примере показано, как разбить набор данных на 2 раза, 50/50 поезд / тест. Все очень круто и интересно. Мне, однако, интересно, как я могу сделать разделение, где я также могу управлять распределением классов в каждом сгибе, например, 50/50 class0 / class1 (он же under / oversampling). Итак, учитывая приведенные ниже данные, скажем, я бы хотел 4 раза, я ищу следующий результат:
>Train: 0=8, 1=8,
>Train: 0=8, 1=8,
>Train: 0=8, 1=8,
>Train: 0=8, 1=8,
Есть ли способ достичь этого с помощью любого из методов sklearn.model_selection
? Я искал это везде без удачи. Может ли это быть потому, что этот метод не должен использоваться с KFold?
# example of stratified train/test split with an imbalanced dataset
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
# generate 2 class dataset
X, y = make_classification(n_samples=1000, n_classes=2, weights=[0.99, 0.01], flip_y=0, random_state=1)
# split into train/test sets with same class ratio
trainX, testX, trainy, testy = train_test_split(X, y, test_size=0.5, random_state=2, stratify=y)
# summarize
train_0, train_1 = len(trainy[trainy==0]), len(trainy[trainy==1])
test_0, test_1 = len(testy[testy==0]), len(testy[testy==1])
print('>Train: 0=%d, 1=%d, Test: 0=%d, 1=%d' % (train_0, train_1, test_0, test_1))
>Train: 0=495, 1=5, Test: 0=495, 1=5