Есть ли подготовленная модель для этого репозитория github? Набор данных LibriSpeech имеет размер 105 ГБ и, учитывая размер DeepSpeech 2, обучение с нуля требует значительных ресурсов. Было бы разумно, чтобы такая предварительно подготовленная модель была доступна (то есть в репо), но я не мог найти какую-либо. настройки.