CUDA дает программисту возможность написать что-то вроде a & b | ~ c
(a
, b
, c
, являющееся unsigned int
с).
Что делает GPU внутри? Это как-то "эмулирует" побитовые операции над целыми числами или они так же эффективны, как на традиционном процессоре?