У меня есть несколько ноутбуков в поле, которые должны ежедневно получать информацию с нашего сервера. Каждый ноутбук имеет установку server2go (в основном Apache, PHP, MySQL, выполняемый как исполняемый файл), который запускает локальную веб-страницу. Веб-страница вызывает URL на нашем сервере, используя следующий код:
$handle = fopen( $downloadURL , "rb");
$contents = stream_get_contents( $handle );
fclose( $handle );
$ downloadURL получает тонну информации из базы данных MySQL на нашем сервере и возвращает результаты в виде вывода на устройство. В настоящее время я возвращаю результаты в виде собственных операторов SQL (т. Е. Если я запрашиваю у базы данных «ВЫБРАТЬ имя из имен», я мог бы вернуть на устройство текстовую строку «ВСТАВИТЬ В ИМЯ SET SET names = 'JOHN SMITH'»). Он берет информацию из онлайн-базы данных и возвращает ее на устройство в виде оператора SQL, готового для вставки в базу данных ноутбука.
Проблема, с которой я сталкиваюсь, заключается в том, что объем данных слишком велик. Веб-страница ноутбука не работает при получении информации с сервера. Я установил очень большие ограничения времени ожидания PHP, но все еще сталкиваюсь с проблемами. Кто-нибудь может придумать лучший способ сделать это? Будет ли stream_get_contents оставаться подключенным к серверу, если я сброшу данные на устройство небольшими порциями?
Спасибо за любой вклад.