Не совсем убежден в Spark SQL Thrift Server, и немного неловко излагать все факты. Tableau использует полученные результаты для драйвера, как еще он может получить их с помощью Spark?
Тем не менее:
- Установка spark.driver.maxResultSize 0 в соответствующем файле spark-thrift-sparkconf.conf будет означать отсутствие ограничений (кроме физических ограничений на узле драйвера).
- Установите значение spark.driver.maxResultSize 8G или выше в соответствующем файле spark-thrift-sparkconf.conf. Обратите внимание, что не вся память на драйвере может быть использована.
- Или используйте Impala Connection for Tableau, предполагая источник Hive Impala, тогда меньше таких проблем.
Кроме того, количество одновременных пользователей может быть проблемой. Отсюда последний пункт.
Интересно, если не сказать больше.