Использование Faker с PySpark Dataframe для анонимности данных - PullRequest
1 голос
/ 05 августа 2020

Я пытаюсь изменить несколько столбцов в моем фрейме данных Spark, у меня есть несколько столбцов, например:

  • Имя
  • Фамилия
  • Электронная почта

Я хочу анонимизировать это и сгенерировать значимые значения, для которых я использую Faker . Но если я использую

df.withColumn('FirstName', lit(fake.first_name()))

, он добавляет одно и то же имя для всех строк, например: введите описание изображения здесь

Как видите, у него одинаковое значение для каждого имени, в идеале я хотел бы иметь другое значение faker, а не константу. Как мне этого добиться?

Обновление 1:

Я посмотрел на предложение Стивена, и вот мой обновленный код

import pyspark.sql.functions as sf
from faker import Faker
from pyspark.sql import functions as F


MSG_FORMAT = '%(asctime)s %(levelname)s %(name)s: %(message)s'
DATETIME_FORMAT = '%Y-%m-%d %H:%M:%S'
logging.basicConfig(format=MSG_FORMAT, datefmt=DATETIME_FORMAT)
logger = logging.getLogger("[SFDC-GLUE-LOG]")
fake = Faker()
source_df = spark.read.format("jdbc").option("url",connection_url).option("query",query).option("driver", driver_name).option("user", user_name).option("password", password).option("StmtCallLimit",0).load()
         


fake_firstname = F.udf(fake.first_name)
        
masked_df=source_df.withColumn("FirstName", fake_firstname())

Теперь я получаю

Traceback (most recent call last):
  File "script_2020-08-05-17-15-26.py", line 52, in <module>
    masked_df=source_df.withColumn("FirstName", fake_firstname())
  File "/mnt/yarn/usercache/root/appcache/application_1596647211940_0002/container_1596647211940_0002_01_000001/pyspark.zip/pyspark/sql/udf.py", line 189, in wrapper
    return self(*args)
  File "/mnt/yarn/usercache/root/appcache/application_1596647211940_0002/container_1596647211940_0002_01_000001/pyspark.zip/pyspark/sql/udf.py", line 167, in __call__
    judf = self._judf
  File "/mnt/yarn/usercache/root/appcache/application_1596647211940_0002/container_1596647211940_0002_01_000001/pyspark.zip/pyspark/sql/udf.py", line 151, in _judf
    self._judf_placeholder = self._create_judf()
  File "/mnt/yarn/usercache/root/appcache/application_1596647211940_0002/container_1596647211940_0002_01_000001/pyspark.zip/pyspark/sql/udf.py", line 160, in _create_judf
    wrapped_func = _wrap_function(sc, self.func, self.returnType)
  File "/mnt/yarn/usercache/root/appcache/application_1596647211940_0002/container_1596647211940_0002_01_000001/pyspark.zip/pyspark/sql/udf.py", line 35, in _wrap_function
    pickled_command, broadcast_vars, env, includes = _prepare_for_python_RDD(sc, command)
  File "/mnt/yarn/usercache/root/appcache/application_1596647211940_0002/container_1596647211940_0002_01_000001/pyspark.zip/pyspark/rdd.py", line 2420, in _prepare_for_python_RDD
    pickled_command = ser.dumps(command)
  File "/mnt/yarn/usercache/root/appcache/application_1596647211940_0002/container_1596647211940_0002_01_000001/pyspark.zip/pyspark/serializers.py", line 600, in dumps
    raise pickle.PicklingError(msg)
_pickle.PicklingError: Could not serialize object: TypeError: can't pickle weakref objects

1 Ответ

2 голосов
/ 05 августа 2020

, для этого нужно использовать UDF:

from pyspark.sql import functions as F

fake_firstname = F.udf(fake.first_name)

df.withColumn("FirstName", fake_firstname())

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...