Чтобы получить документацию для методов объекта Tokenizer
, вы можете просто сделать
>>> import keras
>>> help(keras.preprocessing.text.Tokenizer)
В терминале начало вывода из последнего вызова выглядит следующим образом - что очень похоже на документацию по keras 1.2, на которую вы ссылались во второй ссылке:
Для атрибутов объекта Tokenizer
я также не смог найти соответствующую документацию.
Но - в качестве альтернативы ответу Маноджа - просто посмотреть на различные атрибуты и методы объекта Tokenizer
, вы можете просто
>>> tokenizer = keras.preprocessing.text.Tokenizer()
>>> dir(tokenizer)
для которого вывод
['__class__', '__delattr__', '__dict__', '__dir__', '__doc__', '__eq__', '__format__', '__ge__', '__getattribute__', '__gt__', '__hash__', '__init__', '__init_subclass__', '__le__', '__lt__', '__module__', '__ne__', '__new__', '__reduce__', '__reduce_ex__', '__repr__', '__setattr__', '__sizeof__', '__str__', '__subclasshook__', '__weakref__', 'char_level', 'document_count', 'filters', 'fit_on_sequences', 'fit_on_texts', 'index_docs', 'lower', 'num_words', 'oov_token', 'sequences_to_matrix', 'split', 'texts_to_matrix', 'texts_to_sequences', 'texts_to_sequences_generator', 'word_counts', 'word_docs']