Как использовать склеарн TFIdfVectorizer на пандах - PullRequest
1 голос
/ 21 октября 2019

Я работаю с файлом, разделенным табуляцией, который выглядит следующим образом:

0   abch7619    Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. 42Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat…..........
1   uewl0928    Duis aute irure d21olor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur. Excep3teur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum.
0   ahwb3612    Sed ut perspiciatis unde omnis iste natus  error sit voluptatem accusantium doloremque laudantium, totam rem aperiam, eaque ipsa quae ab illo inventore veritatis et quasi architecto beatae vitae dicta sunt explicabo. Nemo enim ipsam voluptatem                            quia voluptas sit aspernatur aut odit aut fugit, sed quia consequuntur magni dolores eos qui ratione voluptatem sequi nesciunt. Neque porro quisquam est, qui dolorem ipsum quia dolor sit amet, consectetur
1   llll2019    adipisci velit, sed quia non numquam eius modi tempora incidunt ut labore et                                     dolore magnam aliquam quaerat voluptatem. Ut enim ad minima veniam, quis nostrum exercitationem ullam corporis suscipit laboriosam, nisi ut aliquid ex ea commodi consequatur???? Quis autem                                                                               vel eum iure reprehenderit qui in ea voluptate velit esse quam nihil molestiae consequatur, vel illum qui dolorem eum fugiat quo voluptas nulla pariatur?
0   jdne2319    At vero eos et accusamus et iusto odio dignissimos ducimus qui blanditiis praesentium voluptatum deleniti atque corrupti quos dolores et quas molestias excepturi sint occaecati cupiditate non provident, similique sunt in culpa qui officia deserunt mollitia animi, id est laborum et dolorum fuga. 
1   asbq0918    Et harum quidem rerum facilis est et expedita distinctio................................ Nam libero tempore, cum soluta nobis est eligendi optio cumque nihil impedit quo minus id quod maxime placeat facere possimus, omnis voluptas assumenda est, omnis dolor repellendus. Temporibus autem quibusdam et               aut

Моя цель - создать кадр данных, который выглядит следующим образом:

classification  ID  word1   word2   word3   word4
foo foo foo foo foo foo

Где слово вдлинное текстовое поле TSV отображается как элемент (столбец), а его значением являются слова TFIDF.

Я мог бы попытаться сделать это вручную, но я собираюсь использовать sklearn's TFIDFVECTORIZER чтобы произвести это. Однако мне нужно предварительно обработать текст в поле, чтобы следовать определенным рекомендациям.

Пока что я могу читать в файле .tsv, создавать фрейм данных и предварительно обрабатывать текст. У меня возникают проблемы при объединении моих функций форматирования текста, чтобы затем передать его в TFIDFVECTORIZER

Ниже приведено то, что у меня есть:

import nltk, string, csv, operator, re, collections, sys, struct, zlib, ast, io, math, time
from nltk.tokenize import word_tokenize, RegexpTokenizer
from nltk.corpus import stopwords
from collections import defaultdict, Counter
from bs4 import BeautifulSoup as soup
from math import sqrt
from itertools import islice
import pandas as pd

# This function removes numbers from an array
def remove_nums(arr): 
    # Declare a regular expression
    pattern = '[0-9]'  
    # Remove the pattern, which is a number
    arr = [re.sub(pattern, '', i) for i in arr]    
    # Return the array with numbers removed
    return arr

# This function cleans the passed in paragraph and parses it
def get_words(para):   
    # Create a set of stop words
    stop_words = set(stopwords.words('english'))
    # Split it into lower case    
    lower = para.lower().split()
    # Remove punctuation
    no_punctuation = (nopunc.translate(str.maketrans('', '', string.punctuation)) for nopunc in lower)
    # Remove integers
    no_integers = remove_nums(no_punctuation)
    # Remove stop words
    dirty_tokens = (data for data in no_integers if data not in stop_words)
    # Ensure it is not empty
    tokens = [data for data in dirty_tokens if data.strip()]
    # Ensure there is more than 1 character to make up the word
    tokens = [data for data in tokens if len(data) > 1]

    # Return the tokens
    return tokens 

def main():

    tsv_file = "filepath"
    print(tsv_file)
    csv_table=pd.read_csv(tsv_file, sep='\t')
    csv_table.columns = ['rating', 'ID', 'text']

    s = pd.Series(csv_table['text'])
    new = s.str.cat(sep=' ')
    vocab = get_words(new)
    print(vocab)

main()

, которое производит:

['decent', 'terribly', 'inconsistent', 'food', 'ive', 'great', 'dishes', 'terrible', 'ones', 'love', 'chaat', 'times', 'great', 'fried', 'greasy', 'mess', 'bad', 'way', 'good', 'way', 'usually', 'matar', 'paneer', 'great', 'oversalted', 'peas', 'plain', 'bad', 'dont', 'know', 'coinflip', 'good', 'food', 'oversalted', 'overcooked', 'bowl', 'either', 'way', 'portions', 'generous', 'looks', 'arent', 'everything', 'little', 'divito', 'looks', 'little', 'scary', 'looking', 'like', 'ive', 'said', 'cant', 'judge', 'book', 'cover', 'necessarily', 'kind', 'place', 'take', 'date', 'unless', 'shes', 'blind', 'hungry', 'man', 'oh', 'man', 'food', 'ever', 'good', 'ordered', 'breakfast', 'lunch', 'dinner', 'fantastico', 'make', 'homemade', 'corn', 'tortillas', 'several', 'salsas', 'breakfast', 'burritos', 'world', 'cost', 'mcdonalds', 'meal', 'family', 'eats', 'frequently', 'frankly', 'tired', 

Однако я не уверен, что это правильный формат, чтобы TFIDFVECTORIZER работал правильно. Когда я пытался его использовать, я использовал приведенный ниже код, который работал правильно:

from sklearn.feature_extraction.text import TfidfVectorizer
tfidf = TfidfVectorizer()
feature_matrix = tfidf.fit_transform(csv_table['text'])
df = pd.DataFrame(data=feature_matrix.todense(), columns=tfidf.get_feature_names())
print(df)

, но просто дал мне результаты вроде:

  (0, 4147)     0.09801030349526582
  (0, 4482)     0.11236176486916101
  (0, 6304)     0.13511683683910816
  :     :
  (1998, 11298) 0.08469000607646575
  (1998, 500)   0.10185473904595721
  (1998, 3196)  0.07801251063240894

И я не знаю, что я ищутам. Как я могу использовать TFIDFVECTORIZER для достижения своей цели создания матрицы объектов для каждого слова (после применения логики очистки) со значениями TFIDF?

1 Ответ

1 голос
/ 21 октября 2019

Выходные данные fit_transform представляют собой разреженную матрицу, поэтому вам необходимо преобразовать ее в плотную форму и включить ваши шаги очистки, которые вы можете попробовать:

s = pd.Series(csv_table['text'])
corpus = s.apply(lambda s: ' '.join(get_words(s)))

vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(corpus)

df = pd.DataFrame(data=X.todense(), columns=vectorizer.get_feature_names())
print(df)

В основном вам нужно применить процедура очистки (get_words) для каждого документа в csv_table['text'] (элемент в s) перед передачей его в fit_transform.

...