Terraform - Импорт Azure виртуальных машин в файл состояния с помощью модулей - PullRequest
0 голосов
/ 18 июня 2020

Я создаю виртуальные машины, используя приведенный ниже сценарий, который начинается со слов «# Сценарий для создания виртуальной машины». Сценарий вызывается из каталога более высокого уровня, чтобы создать виртуальные машины с использованием модулей, вызов выглядит примерно так, как в приведенном ниже коде, начиная с «#Template ..». Проблема в том, что нам не хватает состояния для нескольких виртуальных машин, которые были созданы во время предыдущего запуска. Я попытался импортировать саму виртуальную машину, но, глядя на файл состояния, он не выглядит похожим на уже созданные с помощью нижнего скрипта. Любая помощь была бы замечательной.

#Template to call VM Script below
module <virtual_machine_name> {
    source = "./vm"
    virtual_machine_name = "<virtual_machine_name>"
    resource_group_name = "<resource_group_name>"
    availability_set_name = "<availability_set_name>"
    virtual_machine_size = "<virtual_machine_size>"
    subnet_name = "<subnet_name>"
    private_ip = "<private_ip>"

    optional:
    production = true (default is false)
    data_disk_name = ["<disk1>","<disk2>"]
    data_disk_size = ["50","100"] size is in GB
}

# Script to create VM
data azurerm_resource_group rgdata02 {
    name = "${var.resource_group_name}"
}
data azurerm_subnet sndata02 {
    name = "${var.subnet_name}"
  resource_group_name = "${var.core_resource_group_name}"
  virtual_network_name = "${var.virtual_network_name}"
}
data azurerm_availability_set availsetdata02 {
  name = "${var.availability_set_name}"
  resource_group_name = "${var.resource_group_name}"
}
data azurerm_backup_policy_vm bkpoldata02 {
  name                = "${var.backup_policy_name}"
  recovery_vault_name = "${var.recovery_services_vault_name}"
  resource_group_name = "${var.core_resource_group_name}"
}
data azurerm_log_analytics_workspace law02 { 
  name                = "${var.log_analytics_workspace_name}"
  resource_group_name = "${var.core_resource_group_name}"
}
#===================================================================
# Create NIC
#===================================================================
resource "azurerm_network_interface" "vmnic02" {
  name                = "nic${var.virtual_machine_name}"
  location            = "${data.azurerm_resource_group.rgdata02.location}"
  resource_group_name = "${var.resource_group_name}"

  ip_configuration {
    name                          = "ipcnfg${var.virtual_machine_name}"
    subnet_id                     = "${data.azurerm_subnet.sndata02.id}"
    private_ip_address_allocation = "Static"
    private_ip_address            = "${var.private_ip}"
  }
}
#===================================================================
# Create VM with Availability Set
#===================================================================
resource "azurerm_virtual_machine" "vm02" {
  count = var.avail_set != "" ? 1 : 0
  depends_on            = [azurerm_network_interface.vmnic02]
  name                  = "${var.virtual_machine_name}"
  location              = "${data.azurerm_resource_group.rgdata02.location}"
  resource_group_name   = "${var.resource_group_name}"
  network_interface_ids = [azurerm_network_interface.vmnic02.id]
  vm_size               = "${var.virtual_machine_size}"
  availability_set_id   = "${data.azurerm_availability_set.availsetdata02.id}"
  tags                  = var.tags

  # This means the OS Disk will be deleted when Terraform destroys the Virtual Machine
  # NOTE: This may not be optimal in all cases.
  delete_os_disk_on_termination = true

  os_profile {
    computer_name  = "${var.virtual_machine_name}"
    admin_username = "__VMUSER__"
    admin_password = "__VMPWD__"
  }

  os_profile_linux_config {
    disable_password_authentication = false
  }

  storage_image_reference {
    id = "${var.image_id}"
  }

  storage_os_disk {
    name              = "${var.virtual_machine_name}osdisk"
    caching           = "ReadWrite"
    create_option     = "FromImage"
    managed_disk_type = "Premium_LRS"
    os_type           = "Linux"     
  }

  boot_diagnostics {
    enabled = true
    storage_uri = "${var.boot_diagnostics_uri}"
  } 
}
#===================================================================
# Create VM without Availability Set
#===================================================================
resource "azurerm_virtual_machine" "vm03" {
  count = var.avail_set == "" ? 1 : 0
  depends_on            = [azurerm_network_interface.vmnic02]
  name                  = "${var.virtual_machine_name}"
  location              = "${data.azurerm_resource_group.rgdata02.location}"
  resource_group_name   = "${var.resource_group_name}"
  network_interface_ids = [azurerm_network_interface.vmnic02.id]
  vm_size               = "${var.virtual_machine_size}"
  # availability_set_id   = "${data.azurerm_availability_set.availsetdata02.id}"
  tags                  = var.tags

  # This means the OS Disk will be deleted when Terraform destroys the Virtual Machine
  # NOTE: This may not be optimal in all cases.
  delete_os_disk_on_termination = true

  os_profile {
    computer_name  = "${var.virtual_machine_name}"
    admin_username = "__VMUSER__"
    admin_password = "__VMPWD__"
  }

  os_profile_linux_config {
    disable_password_authentication = false
  }

  storage_image_reference {
    id = "${var.image_id}"
  }

  storage_os_disk {
    name              = "${var.virtual_machine_name}osdisk"
    caching           = "ReadWrite"
    create_option     = "FromImage"
    managed_disk_type = "Premium_LRS"
    os_type           = "Linux"     
  }

  boot_diagnostics {
    enabled = true
    storage_uri = "${var.boot_diagnostics_uri}"
  } 
}
#===================================================================
# Set Monitoring and Log Analytics Workspace
#===================================================================
resource "azurerm_virtual_machine_extension" "oms_mma02" {
  count = var.bootstrap ? 1 : 0
  name                       = "${var.virtual_machine_name}-OMSExtension"
  virtual_machine_id         = "${azurerm_virtual_machine.vm02.id}"
  publisher                  = "Microsoft.EnterpriseCloud.Monitoring"
  type                       = "OmsAgentForLinux"
  type_handler_version       = "1.8"
  auto_upgrade_minor_version = true

  settings = <<SETTINGS
    {
      "workspaceId" : "${data.azurerm_log_analytics_workspace.law02.workspace_id}"
    }
  SETTINGS

  protected_settings = <<PROTECTED_SETTINGS
    {
      "workspaceKey" : "${data.azurerm_log_analytics_workspace.law02.primary_shared_key}"
    }
  PROTECTED_SETTINGS
}
#===================================================================
# Associate VM to Backup Policy
#===================================================================
resource "azurerm_backup_protected_vm" "vm02" {
  count = var.bootstrap ? 1 : 0
  resource_group_name = "${var.core_resource_group_name}"
  recovery_vault_name = "${var.recovery_services_vault_name}"
  source_vm_id        = "${azurerm_virtual_machine.vm02.id}"
  backup_policy_id    = "${data.azurerm_backup_policy_vm.bkpoldata02.id}"}

1 Ответ

1 голос
/ 22 июня 2020

Насколько я понимаю, вы не совсем понимаете Terraform Import. Итак, я хотел бы показать вам, что это означает.

  1. Если вы хотите импортировать уже существующие ресурсы, вам необходимо сначала настроить ресурс в файлах Terraform, чтобы настроить существующие ресурсы . И все ресурсы будут импортированы в файлы состояния.

  2. Еще одно предостережение в настоящее время заключается в том, что в файл состояния можно импортировать только один ресурс за раз.

Когда вы хотите импортировать ресурсы в модуль, я предполагаю, что структура папок выглядит следующим образом:

testingimportfolder
    └── main.tf
    └── terraform.tfstate
    └── terraform.tfstate.backup
    └───module
          └── main.tf

И файл main.tf в папке testingimportfolder устанавливает блок модуля Сделайте это:

module "importlab" {
    source = "./module"
    ...
}

И после того, как вы завершите sh импорт всех ресурсов в файл состояния, вы увидите вывод команды terraform state list следующим образом:

module.importlab.azurerm_network_security_group.nsg
module.importlab.azurerm_resource_group.rg
module.importlab.azurerm_virtual_network.vnet

Все имя ресурса должно иметь вид module.module_name.azurerm_xxxx.resource_name. Если вы используете модуль внутри модуля, я предполагаю, что структура папок такая:

importmodules
├── main.tf
├── modules
│   └── vm
│       ├── main.tf
│       └── module
│           └── main.tf

И файл importmodules/modules/vm/main.tf вот так:

module "azurevm" {
        source = "./module"
        ...
}

Затем после того, как вы закончите sh импорт всех ресурсов в файл состояния, а затем вы можете увидеть результат выполнения команды terraform state list следующим образом:

module.vm.module.azurevm.azurerm_network_interface.example

Да, ему просто нравится то, что у вас есть. В файле состояния будут храниться ваши существующие ресурсы по мере того, как вы цитируете модули один за другим. Поэтому вам нужно тщательно и четко планировать свой код и модули. Или запутаешься.

...