Я пытаюсь обновить таблицу в ADW, но единственный путь, который я до сих пор нашел для этого, - это scala, с которым я не очень знаком, и я хотел бы иметь такую же функциональность с PySpark.
Это код scala, но я застрял, пытаясь перевести его
import java.util.Properties
import java.sql.DriverManager
val jdbcUsername = "xxxxx"
val jdbcPassword = "xxxxx"
val driverClass = "com.microsoft.sqlserver.jdbc.SQLServerDriver"
val jdbcUrl = s"xxxx"
val connectionProperties = new Properties()
connectionProperties.put("user", s"${jdbcUsername}")
connectionProperties.put("password", s"${jdbcPassword}")
connectionProperties.setProperty("Driver", driverClass)
val connection = DriverManager.getConnection(jdbcUrl, jdbcUsername, jdbcPassword)
val stmt = connection.createStatement()
val sql = "delete from table where condition"
stmt.execute(sql)
connection.close()
Я думаю, что должен быть общий способ выполнения команд в Azure SQL с использованием PySpark, но я пока не нашел его.