Мой сеанс в google colab постоянно падает, показывая, что «Ваш сеанс завершается сбоем после использования доступной оперативной памяти» даже после использования небольшого набора данных.размер теста = 99989 * 2 размера поезда = 299989 * 2
Я ищу решение этой проблемы, но не могу его найти.
enter code here
corpus = []
for i in range(0, 299989):
SentimentText = re.sub('[^a-zA-Z]', ' ', dataset1['SentimentText'][i])
SentimentText = re.sub('<[^<]+?>', ' ', dataset1['SentimentText'][i])
tokenizer = RegexpTokenizer(r'\w+')
SentimentText = tokenizer.tokenize(SentimentText)
SentimentText = ' '.join(SentimentText)
corpus.append(SentimentText)
X_train = cv.fit_transform(corpus)
from sklearn.feature_extraction import text
X_train = text.TfidfTransformer().fit_transform(X_train)
X_train = X_train.toarray()
y_train = dataset.iloc[:, 1].values
после выполнения третьей части ошибкаотображается сбой сеанса ..