Через много лет позвольте мне самому ответить на этот вопрос.
полнота Тьюринга
- Такой же мощный, как машина Тьюринга (ТМ).
- Требуется бесконечная память . То есть на практике никакое физическое устройство никогда не может быть завершено по Тьюрингу.
- Рассмотрим обычный персональный компьютер (ПК) :
- Конкретный физический экземпляр - , а не Тьюринг завершен , поскольку он имеет ограниченную память.
- Однако, рассматривайте концепцию ПК как нечто, где вы можете добавить память по требованию. Все программы будут работать одинаково, если вы добавите больше памяти. Для любого заданного ввода и любой заданной программы существует максимальный объем памяти, который должен работать. (Давайте не будем педантично относиться к пределу
int64
адреса памяти или тому подобное. Это технические ограничения, которые могут быть решены, например, большими целыми числами и т. Д.) Таким образом, мы можем сказать, что Концепция ПК Тьюринга завершена .
- Полнота Тьюринга в основном связана с концепцией памяти. Рассмотрим любой конечный автомат / автомат (FSA) и некоторый доступ к внешней памяти. В зависимости от типа памяти вы попадаете в разные классы иерархия Хомского :
Рекуррентные нейронные сети (RNN)
Об вычислительной мощности нейронных сетей
Часто цитируется статья О вычислительной мощности нейронных сетей, Siegelmann & Sonntag, 1992 , в которой говорится, что RNNs являются полными по Тьюрингу.
В этой статье предполагается, что у нас есть рациональные числа без ограничений в знаменателе / знаменателе, то есть бесконечная память кодируется как рациональные числа или числа с плавающей запятой бесконечной точности. Смотрите также здесь . Обычно мы не моделируем NN способом, который работает с рациональными числами (без ограничений). Когда мы ограничиваемся (R) NN с весами и активациями конечной точности, доказательство в статье падает примерно и больше не применяется. Таким образом, эта статья не так актуальна.
Существует более свежая статья, О практической вычислительной мощности РНН с конечной точностью для распознавания языков, Weiss et al, 2018 , в которой именно это и рассматривается.
Универсальный аппроксиматор
Хорошо известно, что большинство стандартных NN являются универсальными аппроксиматорами . Это говорит о том, что с учетом любой функции (непостоянной, ограниченной и непрерывной) и с учетом некоторого разрешенного порога вы можете построить NN, который приближает эту функцию в пределах допустимого порога.
Это о конечномерных векторных пространствах. Когда мы говорим о вычислимости, мы говорим о последовательностях, таким образом, мы имеем бесконечномерное векторное пространство. Таким образом, это свойство не столь актуально.
без внешней памяти
Таким образом, чтобы сформулировать это явно:
Без внешней памяти стандарт RNN, а также LSTM - это , не полный по Тьюрингу .
Также нет прямого пути, как вы могли бы определить концепцию RNN , где вы могли бы добавить память по требованию.
Память RNN - это самые последние скрытые активации. Добавление большего объема памяти означает изменение NN, то есть добавление новых нейронов, тем самым добавляя его внутреннюю работу. Это похоже на изменение самой программы.
с внешней памятью
Существует Neural Turing machine (NTM) и несколько аналогичных моделей, которые имеют какую-то внешнюю память.
Здесь просто подумать о концепции NTM , где вы бы добавляли память по требованию.
Таким образом, мы можем сказать, что концепция NTM является завершенной по Тьюрингу .
Есть некоторые детали, например, тип внимания, используемый в головах, который требует некоторой адаптации.Существует продолжение этой модели, Дифференцируемый нейронный компьютер (DNC) , который явно решает эту проблему, а также имеет некоторый явный механизм для добавления памяти.
Обучение / тренировка
Мы говорили в основном о теоретической вычислительной мощности.Совсем другой вопрос - может ли NN выучить такую функцию?Т.е. приводит ли обучение (градиентный поиск) к NN, который изучил вычислимую функцию.
Человеческий мозг
Мы могли бы интерпретировать человеческий мозг (или любой мозг) как разновидность сложной нейронной сети,Мы также можем задать вопрос, завершен ли человеческий мозг (модель) по Тьюрингу.Смотрите, например, здесь .Этот вопрос сложный.Интуиция сказала бы, что мы способны выполнять любые вычисления, таким образом, человеческий мозг завершен по Тьюрингу.Однако приведенные здесь аргументы показывают, что RNN не является полным по Тьюрингу.Важным опять же является эффект памяти.В какой-то момент объем памяти человеческого мозга недостаточен для работы на каком-либо входе.Таким образом, нам нужна внешняя память.Итак, человеческий мозг вместе с внешней памятью, по-видимому, завершен по Тьюрингу.
Однако в человеческом мозге есть один аспект памяти, который немного отличается от стандартного RNN: он может обобщаться довысокая степень, и механизм адресации для доступа к определенным активациям отличается.Кроме того, он имеет некоторые адаптивные веса (которые, однако, также могут хранить только конечную информацию).