Pyspark DataFrame - использование функции like на основе имени столбца вместо значения String - PullRequest
0 голосов
/ 03 октября 2018

Я пытаюсь использовать функцию like для столбца с другим столбцом.Можно ли использовать Column внутри аналогичной функции?

пример кода:

df['col1'].like(concat('%',df2['col2'], '%'))

Журнал ошибок:

py4j.Py4JException: Method like([class org.apache.spark.sql.Column]) does not exist
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:318)
    at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:326)
    at py4j.Gateway.invoke(Gateway.java:274)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:214)
    at java.lang.Thread.run(Thread.java:748)

1 Ответ

0 голосов
/ 03 октября 2018

Вы можете сделать это, используя вместо этого выражение SQL.По некоторым причинам Python API не поддерживает его напрямую.Например:

from pyspark.sql.functions import expr

data = [
    ("aaaa", "aa"),
    ("bbbb", "cc")
]

df = sc.parallelize(data).toDF(["value", "pattern"])
df = df.withColumn("match", expr("value like concat('%', pattern, '%')"))
df.show()

Выводит это:

+-----+-------+-----+
|value|pattern|match|
+-----+-------+-----+
| aaaa|     aa| true|
| bbbb|     cc|false|
+-----+-------+-----+
...