Можно ли запускать обычные циклы python, которые включают numpy на GPU?скажем, у меня есть следующий код:
def data_preprocess(data_dir, seq_length):
data = open(data_dir, 'r', encoding="utf8").read()
chars = sorted(list(set(data)))
VOCAB_SIZE = len(chars)
print('Data length: {} characters'.format(len(data)))
print('Vocabulary size: {} characters'.format(VOCAB_SIZE))
ix_to_char = {ix: char for ix, char in enumerate(chars)}
char_to_ix = {char: ix for ix, char in enumerate(chars)}
X = np.zeros((len(data) // seq_length, seq_length, VOCAB_SIZE))
y = np.zeros((len(data) // seq_length, seq_length, VOCAB_SIZE))
for i in range(0, len(data) // seq_length):
X_sequence = data[i * seq_length:(i + 1) * seq_length]
X_sequence_ix = [char_to_ix[value] for value in X_sequence]
input_sequence = np.zeros((seq_length, VOCAB_SIZE))
for j in range(seq_length):
input_sequence[j][X_sequence_ix[j]] = 1.
X[i] = input_sequence
y_sequence = data[i * seq_length + 1:(i + 1) * seq_length + 1]
y_sequence_ix = [char_to_ix[value] for value in y_sequence]
target_sequence = np.zeros((seq_length, VOCAB_SIZE))
for j in range(seq_length):
target_sequence[j][y_sequence_ix[j]] = 1.
y[i] = target_sequence
return X, y, VOCAB_SIZE, ix_to_char
Длина данных составляет 18863769
Размер словарного запаса составляет 394
seq_length
составляет 30