Просто интересно, мы достигли 1 терафлоп на ПК, и мы все еще не можем моделировать мозг насекомого. Кто-нибудь видел достойную реализацию самообучающейся саморазвивающейся нейронной сети?
Мы уже можем моделировать мозги. В наши дни вопрос в том, насколько быстро и насколько точно.
В начале были предприняты усилия, чтобы попытаться найти наиболее абстрактное представление нейронов с наименьшим количеством необходимых физических свойств.
Это привело к изобретению персептрона в Корнелльском университете, который действительно является очень простой моделью. На самом деле, возможно, это было слишком просто, так как известный профессор ИИ Массачусетского технологического института Марвин Мински написал статью, в которой по ошибке пришел к выводу, что модели такого типа невозможно будет изучить XOR (базовые логические элементы) это может быть воспроизведено каждым компьютером, который у нас есть сегодня). К сожалению, его работа погрузила исследование нейронных сетей в темные века, по крайней мере, на 10 лет.
Хотя, возможно, и не так впечатляюще, как хотелось бы многим, уже существуют учебные сети, которые могут проводить визуальное и речевое обучение и распознавание.
И хотя у нас более быстрые процессоры, это не то же самое, что нейрон. Нейроны в нашем мозге - это, как минимум, параллельные единицы сумматора. Итак, представьте, что 100 миллиардов симулируемых человеческих нейронов, добавляя каждую секунду, посылают свои результаты на 100 триллионов соединений с частотой около 20 Гц. Количество вычислений, выполняемых здесь, намного превышает петафлопс вычислительной мощности, которую мы имеем, особенно когда наши процессоры в основном последовательные, а не параллельные.