Предположим, у нас есть 2 узла, A и B, напрямую соединенные с помощью Inte rnet (мы можем игнорировать базовую сеть, например, маршрутизаторы, ISP и т. Д. c).
Мы знаем RTT между узлами (80 мс)
Мы знаем потеря пакетов (0,1)
Мы знаем джиттер (1 мс)
Мы знаем полоса пропускания , A = 100/10 Мбит / с B = 50/5 Мбит / с (первое значение - загрузка, второе - загрузка)
A отправляет файл размером 1 ГБ в B с использованием протокола TCP ( с размером сегмента 64 КБ).
Сколько раз им нужно обмениваться файлом?
Сколько раз требуется, чтобы сделать то же самое используя протокол UDP
?
РЕДАКТИРОВАТЬ: я думаю, что основное различие в вычислениях между UDP и TCP заключается в том, что в TCP мы должны ждать, пока каждый пакет будет отправлен до отправка следующего. Или, другими словами, мы должны добавить в расчет задержки один RTT для каждого пакета. Более того, потеря пакетов вообще не учитывается в UDP. Я не уверен, что я говорю в этом редактировании, поэтому дайте мне знать, если я ошибаюсь.