У меня есть вопрос, который я не смог найти в Google, потому что я действительно не знаю правильной терминологии для него, если концепция существует. У меня вопрос такой:
Представьте себе цикл while в C, который выполняет 1 встроенную инструкцию по сборке
__asm { mov eax, ebp };
Тогда мы напечатали бы его вывод с помощью printf соответственно. Но можно ли определить, когда «время» достигло ровно 1 секунды?
Я провожу некоторые исследования в области ASLR и хочу выяснить, существует ли фиксированный промежуток времени между каждой рандомизацией, проверяя, происходит ли рандомизация точно на расстоянии X секунд друг от друга.
Надеюсь, вы понимаете, и спасибо за чтение / помощь.