Я решаю некоторые примеры из сетей передачи данных Галлагера, и я не совсем понял этот конкретный вопрос.Вопрос звучит следующим образом:
Предположим, что ожидаемая длина кадра на линии связи составляет 1000 битов, а стандартное отклонение составляет 500 битов. Найдите ожидаемое время и стандартное отклонение времени, необходимого для передачи миллиона кадров на линии связи 9600 бит / с.,Следующий вопрос: скорость, с которой могут передаваться кадры, обычно определяется как обратная величина ожидаемого времени передачи.Используя результат, который вы найдете в предыдущей задаче, обсудите, является ли это определение разумным.
Моя попытка выглядит следующим образом:
Время отправки одного кадра: 1000/9600 = 0,104 секунды. Следовательно, время отправки миллионов кадров = 104 000 секунд
Я не понял вторую часть, где она просит найти стандартное отклонение и последующий вопрос.Я также не понял, что это значит, когда мы говорим стандартное отклонение 500 бит, означает ли это потерю ошибки, которая здесь составляет 50%?
Это не домашнее задание.У меня есть среднесрочные результаты в течение нескольких дней, и я решаю их, чтобы улучшить мою хватку по предмету.
Любая помощь / советы будут оценены
Спасибо, Чандер