Доброе утро!
В настоящее время я работаю с TfidfVectorizer от sklearn и настроенным токенизатором. Идея состоит в том, чтобы создать маринованный TfidfVectorizer и загрузить этот векторизатор в лямбда-функцию AWS, которая преобразует ввод текста.
Проблема в том, что на моей локальной машине все работает нормально: я могу загрузить векторизатор из S3-корзины, десериализовать его, создать новый объект-векторизатор и использовать его для преобразования текста. На AWS это не работает. Кажется, что он не может загрузить мой настроенный токенизатор, я всегда получаю AttributeError.
Я уже пробовал использовать лямбда-функцию и инструмент для укропа, но он также не работает на AWS. Не удается найти модуль PorterStemmer, который я использую в своем настроенном токенизаторе.
Сериализованный TfidfVectorizer (я сериализировал его на моей локальной машине):
import pickle
from sklearn.feature_extraction.text import TfidfVectorizer
from nltk.stem.porter import PorterStemmer
def tokenizer_porter(text):
porter = PorterStemmer()
return [porter.stem(word) for word in text.split()]
tfidf = TfidfVectorizer(ngram_range=(1, 1), stop_words=None, tokenizer=tokenizer_porter)
tfidf.fit(X)
pickle.dump(tfidf, open(pickle_path + 'tfidf_vect.pkl', 'wb'), protocol=4)
Десериализация (в лямбда-сервисе AWS):
def tokenizer_porter(text):
porter = PorterStemmer()
return [porter.stem(word) for word in text.split()]
def load_model_from_bucket(key, bucket_name):
s3 = boto3.resource('s3')
complete_key = 'serialized_models/' + key
res = s3.meta.client.get_object(Bucket=bucket_name, Key=complete_key)
model_str = res['Body'].read()
model = pickle.loads(model_str)
return model
tfidf = load_model_from_bucket('tfidf_vect.pkl', bucket_name)
tfidf.transform(text_data)
В AWS Cloudwatch я получаю эту трассировку:
Can't get attribute 'tokenizer_porter' on <module '__main__' from '/var/runtime/awslambda/bootstrap.py'>: AttributeError
Traceback (most recent call last):
File "/var/task/handler.py", line 56, in index
tfidf = load_model_from_bucket('tfidf_vect.pkl', bucket_name)
File "/var/task/handler.py", line 35, in load_model_from_bucket
model = pickle.loads(model_str)
AttributeError: Can't get attribute 'tokenizer_porter' on <module '__main__' from '/var/runtime/awslambda/bootstrap.py'>
У вас есть идеи, что я делаю неправильно?
РЕДАКТИРОВАТЬ: я решил выполнить tfidf-векторизацию в лямбда-скрипте AWS без использования pickle-сериализации, которая немного дороже в вычислительном отношении, но работает без проблем.