Сводка:
Возможно ли:
- Импортировать данные в Hadoop с помощью «MongoDB Connector for Hadoop».
- Обработать его с помощьюHadoop MapReduce.
- Экспортируйте его с помощью Sqoop за одну транзакцию.
Я создаю веб-приложение с MongoDB.Хотя MongoDB хорошо работает для большей части работы, в некоторых частях мне нужны более сильные транзакционные гарантии, для которых я использую базу данных MySQL.
Моя проблема заключается в том, что я хочу прочитать большую коллекцию MongoDB для анализа данных, норазмер коллекции означает, что аналитическая работа займет слишком много времени для обработки.К сожалению, встроенная инфраструктура MongoDB map-Reduction не будет хорошо работать для этой работы, поэтому я бы предпочел провести анализ с помощью Apache Hadoop .
Я понимаю, что можно прочитатьданные из MongoDB в Hadoop с помощью «MongoDB Connector for Hadoop» , который считывает данные из MongoDB, обрабатывает их с помощью MapReduce в Hadoop и, наконец, выводит результаты обратно в базу данных MongoDB.
Проблема в том, что я хочу, чтобы выходные данные MapReduce помещались в базу данных MySQL, а не в MongoDB, потому что результаты должны быть объединены с другими таблицами MySQL.
Для этого я знаю, что Sqoop может экспортировать результат Hadoop MapReduce в MySQL.
В конечном счете, я хочу слишком прочитать данные MongoDB, затем обработать их с помощью Hadoop и, наконец, вывести результат в MySQL.база данных.
Возможно ли это?Какие инструменты доступны для этого?