Я читал в Википедии, что функции нейронной сети, определенные на поле произвольных действительных / рациональных чисел (наряду с алгоритмическими схемами и умозрительными «транскурсивными» моделями), обладают большей вычислительной мощностью, чем компьютеры, которые мы используем сегодня. Конечно, это была страница русской википедии (ru.wikipedia.org), и это может быть не совсем правильно доказано, но это не единственный источник таких слухов
Теперь, что я действительно не понимаю, так это то, как машина переписывания строк (NN - это машины переписывания строк точно так же, как машины Тьюринга; только язык программирования отличается) может быть более мощной, чем универсально способная U -машина?
Да, описательный инструмент действительно отличается, но факт в том, что любая функция такого класса (легко или нет) может быть превращена в легальную машину Тьюринга. Я ошибся? Я скучаю по чему-то важному?
По какой причине люди так говорят? Я действительно знаю, что феномен неразрешимости сегодня широко распространен (хотя не всегда подтверждается тем, что я читал), но я не вижу ни малейшего шанса, что НС смогут решить эту конкретную проблему.
Надстройка: Not consistently proven according to what I've read
- Я имел в виду, что вы могли бы захотеть взглянуть на работы А. Зенкина (русского математика) после середины 90-х годов, где он убедительно постулирует ошибочность концепций Г. Кантора, в том числе трансфинитных множества, несчетные множества, метод диагонализации (метод, используемый в доказательстве неразрешимости Тьюрингом) и, возможно, другие. Даже теоремы Гёделя о неполноте были доказаны правильно только в 21-м веке. Это все лишь для того, чтобы включить работу Зенкина в должность, потому что я не знаю, насколько широко распространены эти знания в сообществе CS, так что простите, если это выглядело глупо.
Спасибо!