• 1000 :
tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
model = TFBertForTokenClassification.from_pretrained("bert-base-chinese")
Означает ли это, что huggingface не сделал китайскую классификацию последовательностей? Если мой судья прав, как решить эту проблему с помощью colab только с памятью 12G?