Spark Shell - Очистить импорт - PullRequest
2 голосов
/ 31 октября 2019

У меня проблема с Spark Shell. Итак, в сеансе оболочки -

  1. Я импортировал следующее - import scala.collection.immutable.HashMap
  2. Затем я осознал свою ошибку и импортировал правильный класс - import java.util.HashMap

Но теперь я получаю следующую ошибку при запуске моего кода -

<console>:34: error: reference to HashMap is ambiguous;
it is imported twice in the same scope by
import java.util.HashMap
and import scala.collection.immutable.HashMap
       val colMap = new HashMap[String, HashMap[String, String]]()

Пожалуйста, помогите мне, если я долго запускаю сеанс Spark Shell, т.е. я не хочу закрывать и снова открывать свою оболочку. Итак, есть ли способ очистить предыдущий импорт и использовать правильный класс?

Я знаю, что мы также можем указать полное имя, например - val colMap = new java.util.HashMap[String, java.util.HashMap[String, String]]()

Но, смотрю, есть лиспособ очистить некорректно загруженный класс?

Спасибо

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...