Как ограничить количество процессоров, используемых Spacy?
Я хочу выделить части речи и именованные объекты из большого набора предложений.Из-за ограничений, касающихся оперативной памяти, я сначала использую Python NLTK для разбора своих документов на предложения.Затем я перебираю предложения и использую nlp.pipe () для извлечения.Однако, когда я делаю это, Spacy поглощает весь мой компьютер;Spacy использует каждый доступный процессор.Такое не приятно, потому что мой компьютер является общим.Как я могу ограничить количество процессоров, используемых Spacy?Вот мой код на сегодняшний день:
# require
from nltk import *
import spacy
# initialize
file = './walden.txt'
nlp = spacy.load( 'en' )
# slurp up the given file
handle = open( file, 'r' )
text = handle.read()
# parse the text into sentences, and process each one
sentences = sent_tokenize( text )
for sentence in nlp.pipe( sentences, n_threads=1 ) :
# process each token
for token in sentence : print( "\t".join( [ token.text, token.lemma_, token.tag_ ] ) )
# done
quit()