Да, это выглядит так:
XMM0 = { 6.0, 0.0 } // 6.0 = 0x4018000000000000 (double precision)
XMM1 = { 8.0, 0.0 } // 8.0 = 0x4020000000000000 (double precision)
Причина, по которой у вас возникают проблемы с интерпретацией, заключается в том, что ваш отладчик отображает только каждый 128-битный регистр XMM в шестнадцатеричном виде, а затем ниже 4 x одиночные точности с плавающей точкой, но вы, очевидно, используете double точности с плавающей точкой.
Я не знаком с отладчиком Visual Studio, но в идеале должен быть способ изменить представлениеваших регистров XMM - вам, возможно, придется обратиться к руководству или интерактивной справке для этого.
Обратите внимание, что в целом использование двойной точности с SSE редко имеет какое-либо значение, особенно если у вас достаточно современный процессор x86 сдва FPU.