У меня есть пример набора данных в CSV. В нем всего ~ 50К строк. Я хочу протестировать производительность SQL-запросов по этому набору данных, но 50К строк слишком мало для этой цели. Каков наилучший способ взять существующий CSV и создать новый, который в N раз больше исходного, и каждая строка дублируется в N раз?
Например, если N = 5
И входной CSV:
col1, col2, col3
1, 'some string', '1999-01-01'
2, 'another string', '2001-01-01'
желаемый вывод csv будет:
col1, col2, col3
1, 'some string', '1999-01-01'
2, 'another string', '2001-01-01'
1, 'some string', '1999-01-01'
2, 'another string', '2001-01-01'
1, 'some string', '1999-01-01'
2, 'another string', '2001-01-01'
1, 'some string', '1999-01-01'
2, 'another string', '2001-01-01'
1, 'some string', '1999-01-01'
2, 'another string', '2001-01-01'
bash, python или SQL-решения приветствуются
предпочтение отдается bash или python, потому что я тестирую на нескольких платформах баз данных