Я работаю над моделью классификации аудио, которая классифицирует аудио в зависимости от его жанра.
Модель принимает несколько звуковых функций, таких как спектральный центроид, и т. Д. c, и производит выходные данные, такие как классика / рок / и т. Д. 1040 *. Форма ввода -> [1,26] Это классификатор с несколькими метками. У меня есть модель Keras, которую я преобразовал в модель TFLite для использования на мобильных платформах. Я проверил исходную модель, и она работает с довольно приличной точностью, модель tflite при запуске с Python на моем P C работает так же хорошо.
Когда я внедряю это в MLb Firebase используйте его с Android API, он создает одну метку / класс в качестве вывода для всех видов ввода. Я не думаю, что это проблема с моделью, так как она отлично работает в моем ноутбуке Jupyter. Я не понимаю, как он может производить разные выводы для одного и того же ввода?
Модель Keras:
#The test model
import tensorflow as tf
from tensorflow.keras import models
from tensorflow.keras import layers
from tensorflow.keras.layers import Dense, Dropout, Activation
model = models.Sequential()
model.add(layers.Dense(256, activation='relu', input_shape=(X_train.shape[1],)))
model.add(Dropout(0.5))
model.add(layers.Dense(128, activation='relu'))
model.add(layers.Dense(64, activation='relu'))
model.add(layers.Dense(32, activation='relu'))
model.add(layers.Dense(10, activation='softmax'))
model.compile(optimizer='rmsprop',
loss='sparse_categorical_crossentropy',
metrics=['sparse_categorical_accuracy'])
history = model.fit(X_train,
y_train,
epochs=10)
#print(X_test[:1],y_test)
pred = model.predict_classes(X_test)
print(pred)
print(y_test)
Код преобразования:
import tensorflow as tf
converter = tf.lite.TFLiteConverter.from_keras_model(model)
converter.target_spec.supported_ops = [tf.lite.OpsSet.TFLITE_BUILTINS,
tf.lite.OpsSet.SELECT_TF_OPS]
tflite_model = converter.convert()
open("converted_model.tflite", "wb").write(tflite_model)
Формы ввода / вывода :
import tensorflow as tf
interpreter = tf.lite.Interpreter(model_path="converted_model.tflite")
interpreter.allocate_tensors()
# Print input shape and type
print(interpreter.get_input_details()[0]['shape']) # Example: [1 224 224 3]
print(interpreter.get_input_details()[0]['dtype']) # Example: <class 'numpy.float32'>
# Print output shape and type
print(interpreter.get_output_details()[0]['shape']) # Example: [1 1000]
print(interpreter.get_output_details()[0]['dtype']) # Example: <class 'numpy.float32'>
[ 1 26]
<class 'numpy.float32'>
[ 1 10]
<class 'numpy.float32'>
Код демонстрации Kotlin для тестирования:
listenButton.setOnClickListener {
incorrecttagButton.alpha = 1f
incorrecttagButton.isClickable = true
//Code for listening to music
FirebaseModelManager.getInstance().isModelDownloaded(remoteModel)
.addOnSuccessListener { isDownloaded ->
val options =
if (isDownloaded) {
FirebaseModelInterpreterOptions.Builder(remoteModel).build()
} else {
FirebaseModelInterpreterOptions.Builder(localModel).build()
}
Log.d("HUSKY","Downloaded? ${isDownloaded}")
val interpreter = FirebaseModelInterpreter.getInstance(options)
val inputOutputOptions = FirebaseModelInputOutputOptions.Builder()
.setInputFormat(0, FirebaseModelDataType.FLOAT32, intArrayOf(1, 26))
.setOutputFormat(0, FirebaseModelDataType.FLOAT32, intArrayOf(1,10))
.build()
if(songNum==5){
songNum=0
}
val testSong = testsongs[songNum]
Log.d("HUSKY", "Song num = ${songNum} F = ${testSong} ")
val input = Array(1){FloatArray(26)}
val itr = testSong.split(",").toTypedArray()
val preInput = itr.map { it.toFloat() }
var x = 0
preInput.forEach {
input[0][x] = preInput[x]
x+=1
}
//val input = preInput.toTypedArray()
Log.d("HUSKY", "${input[0][1]}")
val inputs = FirebaseModelInputs.Builder()
.add(input) // add() as many input arrays as your model requires
.build()
val labelArray = "blues classical country disco hiphop jazz metal pop reggae rock".split(" ").toTypedArray()
Log.d("HUSKY2", "GG")
interpreter?.run(inputs, inputOutputOptions)?.addOnSuccessListener { result ->
Log.d("HUSKY2", "GGWP")
val output = result.getOutput<Array<FloatArray>>(0)
val probabilities = output[0]
var bestMatch = 0f
var bestMatchIndex = 0
for (i in probabilities.indices){
if(probabilities[i]>bestMatch){
bestMatch = probabilities[i]
bestMatchIndex = i
}
Log.d("HUSKY2", "${labelArray[i]} ${probabilities[i]}")
genreLabel.text = labelArray[i]
}
genreLabel.text = labelArray[bestMatchIndex].capitalize()
confidenceLabel.text = probabilities[bestMatchIndex].toString()
// ...
}?.addOnFailureListener { e ->
// Task failed with an exception
// ...
Log.d("HUSKY2", "GGWP :( ${e.toString()}")
}
}
Я использую SongNum для увеличения String Array, чтобы изменить песню. Функции хранятся в виде строки с запятой в качестве разделителя.
Вывод следующий и одинаковый, независимо от входных функций (переменная SongNum для изменения песен [0-4]) и достоверности на pop всегда 1,0:
2020-02-25 00:11:21.014 17434-17434/com.rohanbojja.audient D/HUSKY: Downloaded? true
2020-02-25 00:11:21.015 17434-17434/com.rohanbojja.audient D/HUSKY: Song num = 0 F = 0.3595172803692916,0.04380025714635849,1365.710742222286,1643.935571084307,2725.445556640625,0.06513807508680555,-273.0061247040518,132.66331747988934,-31.86709317807114,44.21442952318603,4.335704872427025,32.32360339344842,-2.4662076330637714,20.458242724823684,-4.760171779927926,20.413702740993585,3.69545905318442,8.581128171784677,-15.601809275025104,5.295758930950924,-5.270195074271744,5.895109210872318,-6.1406603018722645,-2.9278519508415286,-1.9189588023091468,5.954495267889836
2020-02-25 00:11:21.016 17434-17434/com.rohanbojja.audient D/HUSKY: 0.043800257
2020-02-25 00:11:21.016 17434-17434/com.rohanbojja.audient D/HUSKY2: GG
2020-02-25 00:11:21.021 17434-17434/com.rohanbojja.audient D/HUSKY2: GGWP
2020-02-25 00:11:21.021 17434-17434/com.rohanbojja.audient D/HUSKY2: blues 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: classical 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: country 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: disco 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: hiphop 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: jazz 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: metal 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: pop 1.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: reggae 0.0
2020-02-25 00:11:21.022 17434-17434/com.rohanbojja.audient D/HUSKY2: rock 0.0
Вывод на Jupyter Notebook выглядит следующим образом:
(blues,) (classical,) (country,) (disco,) (hiphop,) (jazz,) (metal,) (pop,) (reggae,) (rock,)
0 0.257037 0.000705 0.429687 0.030933 0.009291 0.004909 1.734001e-03 0.000912 0.203305 0.061488
Из того, что я могу сделать вывод, я забочусь об использовании API ML Kit ? или, возможно, способ передачи входных данных или получения выходных данных? Я новичок в android разработке.
Вывод: «pop» всегда имеет значение 1.0! Ожидаемый результат: каждый жанр должен иметь некоторую достоверность между [0-1,0] и не всегда «поп», как мой результат из записной книжки Jupyter.
Извините за грязный код.
Любая помощь будет с благодарностью!
Обновление 1: я поменял репу с функциями активации сигмоида, и я могу заметить разницу. Это почти всегда «поп», но с уверенностью около 0,30. Теперь это супер таинственно. Происходит только с ML Kit BTW, на самом деле не пытался реализовать его изначально.
Обновление 2: я не понимаю, как получить разные выводы с одной и той же моделью. Я потерян.