В настоящее время я делаю некоторый эксперимент, который использует статьи из Википедии.дамп файла википедии составляет около 30 ГБ.Есть ли инструменты (желательно php) или какой-нибудь скрипт, который может разбить этот большой файл на куски (по одному XML-файлу на статью)?