Ввод: первая строка - количество массивов (k);Каждая следующая строка - первое число - размер массива, следующие числа - элементы.
Макс. K равно 1024. Максимальный размер массива 10 * k.Все числа от 0 до 100. Ограничение памяти - 10 МБ, ограничение по времени - 1 с.Рекомендуемая сложность: k ⋅ log (k) ⋅ n, где n - длина массива.
Пример ввода:
4
6 2 26 64 88 96 96
4 8 20 65 86
7 1 4 16 42 58 61 69
1 84
Пример вывода:
1 2 4 8 16 20 26 42 58 61 64 65 69 84 86 88 96 96
Iесть 4 решения.Один использует heapq и читает входные строки по блокам, один использует heapq, один использует Counter, а другой ничего не использует.
Этот использует heapq (хорошо для времени, но плохо для памяти, я думаю, что кучи - правильный путь, однако, возможно,он может быть оптимизирован, если я буду читать строки по частям, так что мне не понадобится память для всего ввода):
from heapq import merge
if __name__ == '__main__':
print(*merge(*[[int(el) for el in input().split(' ')[1:]] for _ in range(int(input()))]), sep=' ')
Это расширенная версия предыдущей.Он читает строки по блокам, однако это очень сложное решение, я не знаю, как оптимизировать это чтение:
from heapq import merge
from functools import reduce
def read_block(n, fd, cursors, offset, has_unused_items):
MEMORY_LIMIT = 10240000
block_size = MEMORY_LIMIT / n
result = []
for i in range(n):
if has_unused_items[i]:
if i == 0:
fd.seek(cursors[i] + offset)
else:
fd.read(cursors[i])
block = ''
c = 0
char = ''
while c < block_size or char != ' ':
if cursors[i] == 0:
while char != ' ':
char = fd.read(1)
cursors[i] += 1
char = fd.read(1)
if char != '\n':
block += char
cursors[i] += 1
c += 1
else:
has_unused_items[i] = False
break
result.append([int(i) for i in block.split(' ')])
while char != '\n':
char = fd.read(1)
return result
def to_output(fd, iter):
fd.write(' '.join([str(el) for el in iter]))
if __name__ == '__main__':
with open('input.txt') as fd_input:
with open('output.txt', 'w') as fd_output:
n = int(fd_input.readline())
offset = fd_input.tell()
cursors = [0] * n
has_unused_items = [True] * n
result = []
while reduce(lambda x, p: x or p, has_unused_items):
result = merge(
result,
*read_block(n, fd_input, cursors, offset, has_unused_items)
)
to_output(fd_output, result)
Это хорошо для памяти (используется сортировка со счетчиком, но я не сделалиспользуйте информацию о том, что все массивы отсортированы):
from collections import Counter
def solution():
A = Counter()
for _ in range(int(input())):
A.update(input().split(' ')[1:])
for k in sorted([int(el) for el in A]):
for _ in range(A[str(k)]):
yield k
Это хорошо для времени (но, возможно, недостаточно хорошо):
def solution():
A = tuple(tuple(int(el) for el in input().split(' ')[1:]) for _ in range(int(input())) # input data
c = [0] * len(A) # cursors for each array
for i in range(101):
for j, a in enumerate(A):
for item in a[c[j]:]:
if item == i:
yield i
c[j] += 1
else:
break
Отлично, если бы у меня были массивычастей в первом примере, так что мне не понадобится память для всего ввода, но я не знаю, как правильно читать строки по блокам.
Не могли бы вы предложить что-нибудь для решения проблемы?