Я изучаю квантовые вычисления, и многие из них говорят, что классический компьютер может рассматривать 2n состояний (с n битами) в любой отдельный момент времени.
Моя проблема в том, что обычно нет объяснения тому, как это происходит. Я мог бы запутать себя, но мне кажется странным, что в этом случае классический компьютер может рассматривать 128 состояний с 64 битами.
Может кто-нибудь объяснить логи c?
РЕДАКТИРОВАТЬ: Посмотрите это видео от IBM, https://youtu.be/WVv5OAR4Nik (перейдите к 1:37)