Если вы имеете дело со сценарием ELT, где вам нужно загрузить огромные объемы файлов и обработать их позже, например, фильтровать, преобразовать и загрузить в традиционные базы данных для аналитики, тогда вы можете использовать hadoop для загрузки файлов, а затем Netezza в качестве целипромежуточная площадка или хранилище данных.С помощью hadoop вы можете поместить все свои файлы в HDFS, а затем прочитать с помощью инструмента ETL для преобразования, фильтрации и т. Д. Или использовать Hive SQL для записи запроса данных в этих файлах.Однако HIve хранилища данных на основе hadoop не поддерживает обновления и не поддерживает все операторы SQL.Следовательно, лучше читать эти файлы из HDFS, применять фильтры, преобразовывать и загружать результат в традиционное устройство хранилища данных, такое как netezza, для написания ваших запросов для кубов.
Если вы ежедневно загружаете ГБ данных в netezza с площадкой посадки, постановки и витрины, то, скорее всего, у вас будет много места.В этом сценарии вы можете сделать так, чтобы ваше место приземления находилось на hadoop, а затем сделать ваши места для постановки и выхода на рынок netezza.Если ваши запросы просты, и вы не выполняете очень сложную фильтрацию и т. Д. Или обновления источника могут быть возможны, вы можете управлять всем с помощью hadoop.
В заключение, hadoop идеально подходит для огромных объемов данных, но не поддерживает всефункциональность традиционного хранилища данных.
Вы можете проверить эту ссылку, чтобы увидеть различия: http://dwbitechguru.blogspot.ca/2014/12/how-to-select-between-hadoop-vs-netezza.html