Я изучаю алгоритмы машинного обучения и у меня возникла проблема с большим набором данных (13 миллионов записей).Мой компьютер не может загрузить все данные одновременно.Итак, мое решение состоит в том, чтобы разделить данные на несколько мини-пакетов и поочередно передавать их в модель SVM.Есть ли способ сделать это с TensorFlow?