В настоящее время я работаю над заданием, которое касается Big-O и времени выполнения. Мне представили один вопрос, который мне кажется очень простым, но я не уверен, правильно ли я это делаю. Остальные проблемы были довольно сложными, и я чувствую, что здесь что-то упускаю.
Во-первых, у вас есть эти вещи:
Алгоритм A, который имеет время работы 50n ^ 3.
Компьютер А, который имеет скорость 1 миллисекунду за операцию.
Компьютер B, который имеет скорость 2 миллисекунды за операцию.
Экземпляр размером 300.
Я хочу узнать, сколько времени требуется алгоритму A для решения этого случая на компьютере A и сколько времени это занимает на компьютере B.
То, что я хочу сделать, это саб 300 для n, поэтому у вас есть 50 * (300 ^ 2) = 4500000.
Затем умножьте это на 1 для первого компьютера и на 2 для второго компьютера.
Это кажется мне странным, потому что говорится, что «время выполнения» составляет 50n ^ 3, а не «количество операций составляет 50n ^ 3», поэтому я чувствую, что умножаю время на время и получится в виде единиц в миллисекундах, что не совсем правильно.
Я хотел бы знать, прав ли я, а если нет, что на самом деле означает этот вопрос.