Как применить функцию к столбцу данных Pyspark? - PullRequest
0 голосов
/ 24 января 2019

У меня есть датафрейм, который выглядит так:

+-----------+-------+-----------------+                                          
|A          |B      |              Num|
+-----------+-------+-----------------+
|      BAKEL|  BAKEL| 1 341 2323 01415|
|      BAKEL|  BAKEL| 2 272 7729 00307|
|      BAKEL|  BAKEL| 2 341 1224 00549|
|      BAKEL|  BAKEL| 2 341 1200 01194|
|      BAKEL|  BAKEL|1 845 0112 101159|
+-----------+-------+-----------------+

И я хочу вывод, подобный этому:

+-----------+-------+---------------+                                          
|A          |B      |            Num|
+-----------+-------+---------------+
|      BAKEL|  BAKEL|  1341232301415|
|      BAKEL|  BAKEL|  2272772900307|
|      BAKEL|  BAKEL|  2341122400549|
|      BAKEL|  BAKEL|  2341120001194|
|      BAKEL|  BAKEL| 18450112101159|
+-----------+-------+---------------+

где пробелы в значениях последнего столбца были удалены.

Как я могу сделать это с pyspark?

1 Ответ

0 голосов
/ 24 января 2019

Используйте функцию regexp_replace(), чтобы решить эту проблему -

from pyspark.sql.functions import regexp_replace
myValues = [('BAKEL','BAKEL','1 341 2323 01415'),('BAKEL','BAKEL','2 272 7729 00307'),
            ('BAKEL','BAKEL','2 341 1224 00549'),('BAKEL','BAKEL','2 341 1200 01194'),
            ('BAKEL','BAKEL','1 845 0112 101159'),]
df = sqlContext.createDataFrame(myValues,['A','B','Num'])

df = df.withColumn('Num',regexp_replace('Num',' ',''))
#Convert String to Long (integral value)
df = df.withColumn('Num', df['Num'].cast("long"))
df.show()
+-----+-----+--------------+
|    A|    B|           Num|
+-----+-----+--------------+
|BAKEL|BAKEL| 1341232301415|
|BAKEL|BAKEL| 2272772900307|
|BAKEL|BAKEL| 2341122400549|
|BAKEL|BAKEL| 2341120001194|
|BAKEL|BAKEL|18450112101159|
+-----+-----+--------------+
df.printSchema()
root
 |-- A: string (nullable = true)
 |-- B: string (nullable = true)
 |-- Num: long (nullable = true)
...