Как сделать асинхронные HTTP-запросы в PHP - PullRequest
193 голосов
/ 24 сентября 2008

Есть ли в PHP способ выполнять асинхронные HTTP-вызовы? Меня не волнует ответ, я просто хочу сделать что-то вроде file_get_contents(), но не ждать завершения запроса, прежде чем выполнить остальную часть моего кода. Это было бы очень полезно для отключения "событий" в моем приложении или запуска длинных процессов.

Есть идеи?

Ответы [ 17 ]

42 голосов
/ 28 мая 2010

Ответ, который я ранее принял, не сработал. Он все еще ждал ответов. Это работает, хотя, взято из Как сделать асинхронный запрос GET в PHP?

function post_without_wait($url, $params)
{
    foreach ($params as $key => &$val) {
      if (is_array($val)) $val = implode(',', $val);
        $post_params[] = $key.'='.urlencode($val);
    }
    $post_string = implode('&', $post_params);

    $parts=parse_url($url);

    $fp = fsockopen($parts['host'],
        isset($parts['port'])?$parts['port']:80,
        $errno, $errstr, 30);

    $out = "POST ".$parts['path']." HTTP/1.1\r\n";
    $out.= "Host: ".$parts['host']."\r\n";
    $out.= "Content-Type: application/x-www-form-urlencoded\r\n";
    $out.= "Content-Length: ".strlen($post_string)."\r\n";
    $out.= "Connection: Close\r\n\r\n";
    if (isset($post_string)) $out.= $post_string;

    fwrite($fp, $out);
    fclose($fp);
}
25 голосов
/ 24 сентября 2008

это нужно php5, Я украл его из docs.php.net и отредактировал конец.

Я использую его для мониторинга, когда на клиентском сайте происходит ошибка, он отправляет мне данные, не задерживая вывод

function do_post_request($url, $data, $optional_headers = null,$getresponse = false) {
    $params = array(
        'http' => array(
            'method' => 'POST',
            'content' => $data
        )
    );
    if ($optional_headers !== null) {
         $params['http']['header'] = $optional_headers;
    }
    $ctx = stream_context_create($params);
    $fp = @fopen($url, 'rb', false, $ctx);

    if (!$fp) {
        return false;
    }

    if ($getresponse) {
        $response = stream_get_contents($fp);
        return $response;
    }
    return true;
}
25 голосов
/ 13 февраля 2010

Если вы контролируете цель, которую хотите вызвать асинхронно (например, свой собственный "longtask.php"), вы можете закрыть соединение с этой стороны, и оба сценария будут работать параллельно. Это работает так:

  1. quick.php открывает longtask.php через cURL (здесь нет магии)
  2. longtask.php закрывает соединение и продолжает (магия!)
  3. cURL возвращается к quick.php, когда соединение закрыто
  4. Обе задачи продолжаются параллельно

Я пробовал это, и оно работает просто отлично. Но quick.php ничего не узнает о том, как работает longtask.php, если вы не создадите какое-либо средство связи между процессами.

Попробуйте этот код в longtask.php, прежде чем делать что-либо еще. Он закроет соединение, но все еще продолжит работать (и подавит любой вывод):

while(ob_get_level()) ob_end_clean();
header('Connection: close');
ignore_user_abort();
ob_start();
echo('Connection Closed');
$size = ob_get_length();
header("Content-Length: $size");
ob_end_flush();
flush();

Код скопирован из заметок , внесенных пользователем в руководстве пользователя PHP, и несколько улучшен.

14 голосов
/ 24 сентября 2008

Вы можете сделать хитрость, используя exec () для вызова чего-то, что может выполнять HTTP-запросы, например wget, но вы должны перенаправить весь вывод из программы куда-нибудь, например, в файл или / dev / null, в противном случае PHP процесс будет ожидать этого вывода.

Если вы хотите полностью отделить процесс от потока apache, попробуйте что-то вроде (я не уверен в этом, но надеюсь, вы поняли идею):

exec('bash -c "wget -O (url goes here) > /dev/null 2>&1 &"');

Это не очень хороший бизнес, и вам, вероятно, понадобится что-то вроде задания cron, вызывающего скрипт heartbeat, который опрашивает фактическую очередь событий базы данных, чтобы выполнить реальные асинхронные события.

8 голосов
/ 09 июля 2018

Начиная с 2018 года, Guzzle стало стандартной библиотекой defacto для HTTP-запросов, используемой в нескольких современных средах. Он написан на чистом PHP и не требует установки каких-либо пользовательских расширений.

Он может очень хорошо выполнять асинхронные HTTP-вызовы, и даже объединяет их в пул , например, когда вам нужно сделать 100 HTTP-вызовов, но не хотите выполнять более 5 одновременно.

Пример одновременного запроса

use GuzzleHttp\Client;
use GuzzleHttp\Promise;

$client = new Client(['base_uri' => 'http://httpbin.org/']);

// Initiate each request but do not block
$promises = [
    'image' => $client->getAsync('/image'),
    'png'   => $client->getAsync('/image/png'),
    'jpeg'  => $client->getAsync('/image/jpeg'),
    'webp'  => $client->getAsync('/image/webp')
];

// Wait on all of the requests to complete. Throws a ConnectException
// if any of the requests fail
$results = Promise\unwrap($promises);

// Wait for the requests to complete, even if some of them fail
$results = Promise\settle($promises)->wait();

// You can access each result using the key provided to the unwrap
// function.
echo $results['image']['value']->getHeader('Content-Length')[0]
echo $results['png']['value']->getHeader('Content-Length')[0]

См. http://docs.guzzlephp.org/en/stable/quickstart.html#concurrent-requests

8 голосов
/ 13 марта 2010
/**
 * Asynchronously execute/include a PHP file. Does not record the output of the file anywhere. 
 *
 * @param string $filename              file to execute, relative to calling script
 * @param string $options               (optional) arguments to pass to file via the command line
 */ 
function asyncInclude($filename, $options = '') {
    exec("/path/to/php -f {$filename} {$options} >> /dev/null &");
}
6 голосов
/ 19 мая 2015

Вы можете использовать эту библиотеку: https://github.com/stil/curl-easy

Тогда это довольно просто:

<?php
$request = new cURL\Request('http://yahoo.com/');
$request->getOptions()->set(CURLOPT_RETURNTRANSFER, true);

// Specify function to be called when your request is complete
$request->addListener('complete', function (cURL\Event $event) {
    $response = $event->response;
    $httpCode = $response->getInfo(CURLINFO_HTTP_CODE);
    $html = $response->getContent();
    echo "\nDone.\n";
});

// Loop below will run as long as request is processed
$timeStart = microtime(true);
while ($request->socketPerform()) {
    printf("Running time: %dms    \r", (microtime(true) - $timeStart)*1000);
    // Here you can do anything else, while your request is in progress
}

Ниже вы можете увидеть вывод консоли из приведенного выше примера. На нем будут отображаться простые часы реального времени, показывающие, сколько времени выполняется запрос:


animation

6 голосов
/ 21 февраля 2015
  1. Подделка запроса на прерывание беременности с использованием CURL установки низкого уровня CURLOPT_TIMEOUT_MS

  2. установить ignore_user_abort(true) для продолжения обработки после закрытия соединения.

При использовании этого метода не требуется реализовывать обработку соединения через заголовки и буфер, слишком зависящий от ОС, браузера и версии PHP

Мастер-процесс

function async_curl($background_process=''){

    //-------------get curl contents----------------

    $ch = curl_init($background_process);
    curl_setopt_array($ch, array(
        CURLOPT_HEADER => 0,
        CURLOPT_RETURNTRANSFER =>true,
        CURLOPT_NOSIGNAL => 1, //to timeout immediately if the value is < 1000 ms
        CURLOPT_TIMEOUT_MS => 50, //The maximum number of mseconds to allow cURL functions to execute
        CURLOPT_VERBOSE => 1,
        CURLOPT_HEADER => 1
    ));
    $out = curl_exec($ch);

    //-------------parse curl contents----------------

    //$header_size = curl_getinfo($ch, CURLINFO_HEADER_SIZE);
    //$header = substr($out, 0, $header_size);
    //$body = substr($out, $header_size);

    curl_close($ch);

    return true;
}

async_curl('http://example.com/background_process_1.php');

Фоновый процесс

ignore_user_abort(true);

//do something...

NB

Если вы хотите, чтобы cURL превысил время ожидания менее чем за одну секунду, вы можете использовать CURLOPT_TIMEOUT_MS, хотя есть ошибка / «функция» в «Unix-подобном» systems ", что приводит к немедленному истечению времени ожидания libcurl, если значение < 1000 мс с ошибкой «Ошибка cURL (28): истекло время ожидания». объяснение этого поведения:

[...]

Решение состоит в том, чтобы отключить сигналы, используя CURLOPT_NOSIGNAL

Ресурсы

4 голосов
/ 18 июня 2014

Вы можете использовать неблокирующие сокеты и одно из расширений pecl для PHP:

Вы можете использовать библиотеку, которая предоставляет вам слой абстракции между вашим кодом и расширением pecl: https://github.com/reactphp/event-loop

Вы также можете использовать асинхронный http-клиент на основе предыдущей библиотеки: https://github.com/reactphp/http-client

Смотрите другие библиотеки ReactPHP: http://reactphp.org

Будьте осторожны с асинхронной моделью. Я рекомендую посмотреть это видео на YouTube: http://www.youtube.com/watch?v=MWNcItWuKpI

4 голосов
/ 08 февраля 2012

позвольте мне показать вам мой путь:)

необходимо установить nodejs на сервере

(мой сервер отправляет 1000 https; запрос на получение занимает всего 2 секунды)

url.php:

<?
$urls = array_fill(0, 100, 'http://google.com/blank.html');

function execinbackground($cmd) { 
    if (substr(php_uname(), 0, 7) == "Windows"){ 
        pclose(popen("start /B ". $cmd, "r"));  
    } 
    else { 
        exec($cmd . " > /dev/null &");   
    } 
} 
fwite(fopen("urls.txt","w"),implode("\n",$urls);
execinbackground("nodejs urlscript.js urls.txt");
// { do your work while get requests being executed.. }
?>

urlscript.js>

var https = require('https');
var url = require('url');
var http = require('http');
var fs = require('fs');
var dosya = process.argv[2];
var logdosya = 'log.txt';
var count=0;
http.globalAgent.maxSockets = 300;
https.globalAgent.maxSockets = 300;

setTimeout(timeout,100000); // maximum execution time (in ms)

function trim(string) {
    return string.replace(/^\s*|\s*$/g, '')
}

fs.readFile(process.argv[2], 'utf8', function (err, data) {
    if (err) {
        throw err;
    }
    parcala(data);
});

function parcala(data) {
    var data = data.split("\n");
    count=''+data.length+'-'+data[1];
    data.forEach(function (d) {
        req(trim(d));
    });
    /*
    fs.unlink(dosya, function d() {
        console.log('<%s> file deleted', dosya);
    });
    */
}


function req(link) {
    var linkinfo = url.parse(link);
    if (linkinfo.protocol == 'https:') {
        var options = {
        host: linkinfo.host,
        port: 443,
        path: linkinfo.path,
        method: 'GET'
    };
https.get(options, function(res) {res.on('data', function(d) {});}).on('error', function(e) {console.error(e);});
    } else {
    var options = {
        host: linkinfo.host,
        port: 80,
        path: linkinfo.path,
        method: 'GET'
    };        
http.get(options, function(res) {res.on('data', function(d) {});}).on('error', function(e) {console.error(e);});
    }
}


process.on('exit', onExit);

function onExit() {
    log();
}

function timeout()
{
console.log("i am too far gone");process.exit();
}

function log() 
{
    var fd = fs.openSync(logdosya, 'a+');
    fs.writeSync(fd, dosya + '-'+count+'\n');
    fs.closeSync(fd);
}
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...