С точки зрения проблемных областей я сравниваю искусственные нейронные сети, обученные обратным распространением, с эволюционным алгоритмом.
Эволюционный алгоритм развертывает рандомизированный поиск луча, это означает, что ваши эволюционные операторы разрабатывают кандидатов для тестирования и сравнения по их пригодности. Эти операторы обычно не являются детерминированными, и вы можете спроектировать их так, чтобы они могли находить кандидатов в непосредственной близости и кандидатов, которые находятся дальше в пространстве параметров, чтобы преодолеть проблему застревания в локальных оптимах.
Однако успех подхода EA в значительной степени зависит от модели, которую вы разрабатываете, что является компромиссом между высоким потенциалом экспрессии (вы можете переопределить) и общностью (модель может быть не в состоянии выразить целевую функцию).
Поскольку нейронные сети обычно являются многослойными, пространство параметров не является выпуклым и содержит локальные оптимумы, поэтому алгоритмы градиентного спуска могут застрять. Градиентный спуск - это детерминированный алгоритм, который ищет в непосредственной близости. Вот почему нейронные сети обычно инициализируются случайным образом, и поэтому вам нужно обучить гораздо больше, чем одну модель.
Кроме того, вы знаете, что каждый скрытый узел в нейронной сети определяет гиперплоскость, которую вы можете спроектировать для нейронной сети, чтобы она хорошо подходила для вашей задачи. Существуют некоторые методы предотвращения переоснащения нейронных сетей.
В целом, нейронные сети могут быть обучены быстро и получить разумные результаты с минимальными затратами времени (просто попробуйте некоторые параметры). Теоретически нейронная сеть, которая достаточно велика, способна аппроксимировать каждую целевую функцию, что с другой стороны делает ее склонной к переоснащению. Эволюционные алгоритмы требуют, чтобы вы получали много вариантов дизайна, чтобы получить хорошие результаты, вероятно, труднее всего было оптимизировать модель. Но EA могут искать в очень сложных проблемных пространствах (так, как вы их определили) и быстро получать хорошие результаты. АЕ даже могут оставаться успешными, когда проблема (целевая функция) меняется со временем.
Книга Тома Митчелла по машинному обучению:
http://www.cs.cmu.edu/~tom/mlbook.html