У меня есть проект логического анализатора, который записывает несколько сотен миллионов 16-битных значений (~ 100-500 миллионов), и мне нужно отображать что угодно, от нескольких сотен выборок до всего захвата, по мере увеличения масштаба пользователя.
Когда вы уменьшаете масштаб, вся система получает огромный удар по производительности, так как она загружает огромный кусок из файла.
Я просто думаю, что сегодня утром было бы более эффективно "пройти" черезфайл с разрешением экрана пользователя.Вы не можете физически отображать что-либо между пикселями в любом случае.Это не решает проблему огромного размера файла в памяти.
Могу ли я взять огромный набор данных и эффективно распределить его по частям?
Я думал о потоковой передаче от начала доначало + просмотр размера по горизонтали.Это делает очень прерывистый зум.
Программа использует python, но я открыт для вызова чего-то в c, если оно уже существует.