Я использую Laravel и использую https://csv.thephpleague.com/ для разбора CSV.
Моя функция похожа на
$path = $request->file('import_file')->getRealPath();
$csv = Reader::createFromPath($path, 'r');
$csv->setHeaderOffset(0);
$csv_header = $csv->getHeader();
$sample_data = $csv->fetchOne();
$sample_data = array_values($sample_data);
$records = $reader->getRecords();
$csv_file_id = Csv_data::create([
'csv_filename' => $request->file('import_file')->getClientOriginalName(),
'csv_header' => json_encode($csv_header),
'csv_data' => json_encode($records)
]);
Как я могу анализировать большие наборы данных, имея дело с ограничением по времени выполнения.
Ну, я довольно новичок в этих вещах, поэтому я прошу просто не комментировать, как использовать то и это. До сих пор время просто проходит, пробуя тот и другой пакет. Таким образом, решение с фрагментами кода может быть лучше.
Также я пытался с,
$stmt = (new Statement())
->offset($offset)
->limit($limit)
;
Но безуспешно. ! Причина, даже ограничивающая смещение и работающая в цикле путем увеличения смещения, показывает ту же ошибку времени выполнения. 2-я причина, мне немного сложно закончить цикл с хорошей логикой.
Нужна помощь. Я буду доступен для мгновенного ответа.