Да, они имеют одинаковую функциональность, выпадение в качестве параметра используется перед линейным преобразованием этого слоя (умножение весов и сложение смещения). Dropout as layer можно использовать и перед слоем активации.
recurrent_dropout также имеет те же функции, но в другом направлении (обычно выпадения между входом и выходом, между метками времени)