Доступ запрещен для пользователя в MySql при подключении через sqoop - PullRequest
0 голосов
/ 05 марта 2020

В целях самообучения я пытаюсь создать сквозной поток данных в облаке Google:

1.Создание таблицы mysql с использованием облака sql 2. Использование datapro c для создания временный кластер для запуска задания sq oop с использованием шаблона. 3. Поместите извлеченные данные в BQ из хранилища.

Я застреваю при доступе к таблице mysql через sq oop.

ERROR manager.SqlManager: Error executing statement: java.sql.SQLException: Access denied for user 'test'@'localhost' (using password: YES)
java.sql.SQLException: Access denied for user 'test'@'localhost' (using password: YES).

Я пытался решить эту проблему с помощью : 1. Замена локального хоста с помощью publi c ip. 2. Выполнение

GRANT ALL ON everlytics.* TO test@'<ip>' IDENTIFIED BY '1234';  
flush privileges;

Мой фрагмент кода приведен ниже:

gcloud  dataproc workflow-templates set-managed-cluster $template_name --zone "asia-south1-a" \
 --cluster-name=$cluster_name \
 --region "asia-south1" \
 --scopes=default,sql-admin \
 --initialization-actions=gs://dataproc-initialization-actions/cloud-sql-proxy/cloud-sql-proxy.sh \
 --properties=hive:hive.metastore.warehouse.dir=$bucket/hive-warehouse \
 --metadata=enable-cloud-sql-hive-metastore=false \
 --metadata=additional-cloud-sql-instances=$instance_name=tcp:3306 \
 --master-machine-type n1-standard-1 \
 --master-boot-disk-size 20 \
  --num-workers 2 \
--worker-machine-type n1-standard-2 \
--worker-boot-disk-size 20 \
--image-version 1.2 &&
gcloud  dataproc workflow-templates add-job hadoop \
--step-id=customers_564456778 \
--region="asia-south1" \
--workflow-template=$template_name \
--class=org.apache.sqoop.Sqoop \
--jars=$bucket/sqoop-1.4.7-hadoop260.jar,$bucket/avro-tools-1.8.2.jar,$bucket/mysql-connector-java-5.1.48.jar  \
-- import -Dmapreduce.job.user.classpath.first=true \
--driver com.mysql.jdbc.Driver \
--username=test \
--password=1234 \
--query "select * from everlytics.customers where customerNumber>0 and \$CONDITIONS" \
--target-dir $bucket/$table_name \
--split-by customerNumber -m 2 

Mysql version-5.6

Пожалуйста, сообщите, если я делаю это правильно.

1 Ответ

0 голосов
/ 06 марта 2020

Это могут быть проблемы с конфигурацией ...

Проверьте, выполнив следующую команду в облаке SQL 1) gcloud sql connect [cloud- sql -instnace-name] --user = root

и убедитесь, что ниже тоже 2) Убедитесь, что вы добавили IP-адрес своего компьютера в список подключений в облаке SQL Экземпляр.

...