для рендерера vulkan с использованием vulkan-hpp и Vulkan Memory Allocator Я пытаюсь передать данные вершин в gpu, используя промежуточный буфер.Без использования промежуточного промежуточного буфера передача работает, и сетки могут быть без проблем прорисованы (только один буфер создан с помощью VMA_MEMORY_USAGE_CPU_TO_GPU).Но с вызовом vkCmdCopyBuffer результирующий vertexBuffer содержит только 0s (проверено с помощью NSight).Думая, что может потребоваться синхронизация с использованием барьеров, я попробовал следующий код, но проблема все еще та же.
Возможно, необходимо синхронизировать буфер команд, выполняя копирование с более поздней привязкой буфера команд и источником избуфер вершин?Хотя я не видел, чтобы это было сделано или упомянуто в каких-либо уроках, с которыми мне приходилось сталкиваться.
// vulkan initialization
// VmaAllocator initialization
std::vector<Vertex> vertices = { /*filled*/ };
auto vertexBufferSize = vertices.size() * sizeof(Vertex);
vk::Buffer stagingBuffer;
auto ci = vk::BufferCreateInfo().
setUsage(vk::BufferUsageFlagBits::eTransferSrc).
setSharingMode(vk::SharingMode::eExclusive).
setSize(vertexBufferSize );
VmaAllocationCreateInfo allocationCI = {};
allocationCI.usage = VMA_MEMORY_USAGE_CPU_ONLY;
vmaCreateBuffer(allocator, (VkBufferCreateInfo*)&ci,
&allocationCI, (VkBuffer*)&stagingBuffer, &allocation, nullptr);
void* pVBufMem = nullptr;
vmaMapMemory(allocator, allocation, &pVBufMem);
std::memcpy(pVBufMem, vertices.size(), vertexBufferSize );
vmaUnmapMemory(allocator, allocation);
vk::Buffer vertexBuffer;
ci = vk::BufferCreateInfo().
setUsage(vk::BufferUsageFlagBits::eTransferDst | vk::BufferUsageFlagBits::eVertexBuffer).
setSharingMode(vk::SharingMode::eExclusive).
setSize(vertexBufferSize);
allocationCI = {};
allocationCI.usage = VMA_MEMORY_USAGE_GPU_ONLY;
vmaCreateBuffer(allocator, (VkBufferCreateInfo*)&ci,
&allocationCI, (VkBuffer*)&vertexBuffer, &allocation, nullptr);
// copy staging buffer to vertex buffer
auto allocCI = vk::CommandBufferAllocateInfo().
setCommandBufferCount(1).
setCommandPool(pool).
setLevel(vk::CommandBufferLevel::ePrimary);
auto cmd = device.allocateCommandBuffers(allocCI)[0];
cmd.begin({ vk::CommandBufferUsageFlagBits::eOneTimeSubmit });
// barrier host write -> copyBuffer read
auto bufferMemoryBarrier = vk::BufferMemoryBarrier()
.setBuffer(stagingBuffer)
.setSize(vertexBufferSize)
.setSrcAccessMask(vk::AccessFlagBits::eMemoryWrite)
.setDstAccessMask(vk::AccessFlagBits::eTransferRead)
.setSrcQueueFamilyIndex(VK_QUEUE_FAMILY_IGNORED)
.setDstQueueFamilyIndex(VK_QUEUE_FAMILY_IGNORED);
cmd.pipelineBarrier(
vk::PipelineStageFlagBits::eAllCommands, vk::PipelineStageFlagBits::eAllCommands, {},
{ }, { bufferMemoryBarrier }, { });
cmd.copyBuffer(stagingBuffer, vertexBuffer, { 0, 0, vertexBufferSize });
// copyBuffer write -> vertex read
bufferMemoryBarrier = vk::BufferMemoryBarrier()
.setBuffer(vertexBuffer)
.setSize(vertexBufferSize)
.setSrcAccessMask(vk::AccessFlagBits::eTransferWrite)
.setDstAccessMask(vk::AccessFlagBits::eVertexAttributeRead)
.setSrcQueueFamilyIndex(VK_QUEUE_FAMILY_IGNORED)
.setDstQueueFamilyIndex(VK_QUEUE_FAMILY_IGNORED);
cmd.pipelineBarrier(
vk::PipelineStageFlagBits::eAllCommands, vk::PipelineStageFlagBits::eAllCommands, {},
{ }, { bufferMemoryBarrier }, { });
cmd.end();
auto submitInfo = vk::SubmitInfo().
setCommandBufferCount(1).
setPCommandBuffers(&cmdBuffer);
queue.submit({ submitInfo }, {});
queue.waitIdle();