Я использую Spark 2.3 и загружаю данные из таблиц MySQL.
Я хотел бы знать, есть ли функция «filterPushdown», аналогичная файлам паркета.
У меня естьбольшая таблица с миллионами строк, из которых мне нужно загрузить часть данных, соответствующую определенным ключам, а также отметку времени> certian_timestamp.
"where key_col in (34,35, .. ) and ts > 1539688500000"
После этого мне нужно объединить этот набор данных с другой небольшой таблицей.
Могу ли я выполнить эти операции (фильтрация и объединение) в самой базе данных, используя «filterPushdown» и что-то вроде «joinPushdown» ??(если существует)