keras LayerNormalization не работает со смешанной точностью? - PullRequest
0 голосов
/ 22 апреля 2020

на tenorflow2.1, если я использую смешанную точность,

policy = mixed_precision.Policy('mixed_float16'),mixed_precision.set_policy(policy)

Возвращает ошибку о float16. Когда я удаляю смешанную точность, она работает хорошо.

У кого-нибудь есть такая же проблема? Это ошибка или проблема с моей реализацией? Спасибо

...