Я столкнулся с подобной проблемой при попытке сохранить вектор с ~ 1,1 миллиарда записей.Казалось, проблема связана с тем, что чанк сжатия слишком велик, размер чанка по умолчанию - это размеры сохраняемого набора данных.Исправление, которое работало для меня, состояло в том, чтобы сначала создать набор данных и установить чанк на что-то меньшее.Вы можете увидеть, работает ли что-то вроде следующего:
h5createDataset(file, 'rawcounts', c(30000, 80000), chunk = c(1000, 1000))
h5writeDataset(as.matrix(dge_cut), file, 'rawcounts')
Вероятно, не тот случай, когда 1000 x 1000 - лучший размер куска, но это место, с которого нужно начинать.