Создать массив с нулевой скоростью - PullRequest
0 голосов
/ 08 декабря 2018

Вот моя проблема: мне нужно сгенерировать некоторые синтетические данные (например, столбцы 7/8), соотнесенные друг с другом (используя коэффициент Пирсона).Я могу сделать это легко, но затем я должен вставить процент дубликатов в каждом столбце (да, коэффициент Пирсона будет ниже), различный для каждого столбца.Проблема в том, что я не хочу вставлять лично дубликаты, потому что в моем случае это будет похоже на мошенничество.

Кто-то знает, как генерировать коррелированные данные, уже дублирующиеся?Я искал, но обычно вопросы касаются отбрасывания или избежания дублирования ..

Язык: python3 Для генерации коррелированных данных я использую этот простой код: Генерация коррелированных данных

Ответы [ 2 ]

0 голосов
/ 09 декабря 2018

я найду решение.Я отправляю код, это может быть полезно для кого-то.

#this are the data, generated randomically with a given shape
rnd = np.random.random(size=(10**7, 8))
#that array represent a column of the covariance matrix (i want correlated data, so i randomically choose a number between 0.8 and 0.95)
#I added other 7 columns, with varing range of values (all upper than 0.7)
attr1 = np.random.uniform(0.8, .95, size = (8,1))
#attr2,3,4,5,6,7 like attr1

#corr_mat is the matrix, union of columns
corr_mat = np.column_stack((attr1,attr2,attr3,attr4,attr5, attr6,attr7,attr8))

from statsmodels.stats.correlation_tools import cov_nearest
#using that function i found the nearest covariance matrix to my matrix,
#to be sure that it's positive definite
a = cov_nearest(corr_mat)

from scipy.linalg import cholesky

upper_chol = cholesky(a)

# Finally, compute the inner product of upper_chol and rnd
ans = rnd @ upper_chol
#ans now has randomically correlated data (high correlation, but is customizable)

#next i create a pandas Dataframe with ans values
df = pd.DataFrame(ans, columns=['att1', 'att2', 'att3', 'att4', 
                            'att5', 'att6', 'att7', 'att8'])

#last step is to truncate float values of ans in a variable way, so i got 
#duplicates in varying percentage
a = df.values
for i in range(8):
     trunc = np.random.randint(5,12)
     print(trunc)
     a.T[i] = a.T[i].round(decimals=trunc)


#float values of ans have 16 decimals, so i randomically choose an int
# between 5 and 12 and i use it to truncate each value

Наконец, это процентное содержание моих дубликатов для каждого столбца:

duplicate rate attribute: att1 = 5.159390000000002

duplicate rate attribute: att2 = 11.852260000000001

duplicate rate attribute: att3 = 12.036079999999998

duplicate rate attribute: att4 = 35.10611

duplicate rate attribute: att5 = 4.6471599999999995

duplicate rate attribute: att6 = 35.46553

duplicate rate attribute: att7 = 0.49115000000000464

duplicate rate attribute: att8 = 37.33252
0 голосов
/ 08 декабря 2018

Попробуйте что-то вроде этого:

indices = np.random.randint(0, array.shape[0], size = int(np.ceil(percentage * array.shape[0])))

for index in indices:
  array.append(array[index])

Здесь я предполагаю, что ваши данные хранятся в array, который является символом, где каждая строка содержит ваши 7/8 столбцов данных.Приведенный выше код должен создать массив случайных индексов, чьи записи (строки) вы выбираете и снова добавляете в массив.

...