Я думаю, что вы имеете в виду RBM, используемую в контексте автоэнкодера для вызова входов, а не как ассоциативную сеть памяти.
На этапе обучения блоки ввода и узлы вывода (блоки) привязываются кзначения, найденные в обучающем наборе, после чего повторная выборка Больцмана (например, с помощью комбинации Метрополиса Гастингса и имитированного отжига) используется в сочетании с градиентным спуском для оптимизации весов по всем соединениям между входными, скрытыми и выходными узлами.После обучения ограниченную сеть Больцмана можно использовать для 1) классификации / прогнозирования или 2) генерации памяти в режиме свободного хода.
В режиме классификации / прогнозирования некоторые или все входные блоки блокируются, покаскрытые и выходные узлы отбираются с помощью выборки Больцмана.Статистические свойства (по существу, средства) выходных узлов являются предсказаниями или классификациями.Если RBM структурирован как однослойный автоэнкодер с входным слоем, который напоминает выходной слой, и разреженным или меньшим скрытым слоем, то ограниченное количество входов, приводящее к полному восстановлению обучающего ввода, будет представлять собой «реконструкцию».
В научной статье Хинтона за 2006 год обсуждаются некоторые из этих идей:
http://www.cs.toronto.edu/~hinton/science.pdf
Эта статья представляет собой довольно специфическое применение RBM и нейронных сетей.В этой статье он использует RBM для предварительной подготовки глубокой (многоуровневой) нейронной сети.