Нейронная сеть выдает значения только 1, когда я добавляю больше скрытых слоев - PullRequest
0 голосов
/ 18 декабря 2018

Итак, я строю симуляцию арены машинного обучения, где я могу поменять местами разные алгоритмы, чтобы показать преимущества и недостатки разных моделей.

Я пытался использовать активацию ReLU, однако это не идеально, так как SoftMax производитраспределение вероятностей, что означает, что за один раз может быть выполнено только одно действие.

Я думаю, сигмоид является лучшим выбором, однако, когда я вычисляю выходные слои, он постепенно становится все больше и больше по мере прохождения.каждый слой, поэтому, когда я добавляю 2 скрытых слоя: все выходные узлы приводят к 1.

Вот демонстрация: https://i.gyazo.com/b12d4efdd1b0af518751762cb2f000f9.mp4

Вот некоторые фрагменты кода:

class NeuralNetwork:

    layer_weights: list
    neuron_weights: list = None  # Stored here for verbose
    neuron_screen_locations: list = None

    def __init__(
        self,
        dimensions: Tuple[int] = None,
        layer_weights: list = None
    ):

        if dimensions:
            self.layer_weights = []
            for i in range(len(dimensions)-1):
                self.layer_weights.append(
                    np.random.uniform(
                    size=(dimensions[i], dimensions[i+1])
                    )
                )
            return

        self.layer_weights = list(layer_weights)

    def activate_layer(self, layer: list):
        for x in np.nditer(layer, op_flags=['readwrite']):
            x[...] = self.sigmoid(x)

    def output(self, inputs: list):
        self.neuron_weights = []
        self.neuron_weights.append(np.array((inputs)))
        output = inputs

        for weight_layer in self.layer_weights:
            output = np.matmul(output, weight_layer)
            self.activate_layer(output)
            self.neuron_weights.append(output)

        return output

    def sigmoid(self, x, derivative=False):
        ...

    def ReLU(self, x):
        ...

    def softmax(self, x):
        ...

    def draw_neurons(self): # Draws neurons to screen
        ...

    def draw_weights(self): # Draws synaptic connections between neurons to screen
        ...

РЕДАКТИРОВАТЬ:

Я также попытался использовать Tanh, который дал аналогичные результаты ... вот демонстрация (с еще большим количеством слоев) : https://i.gyazo.com/d779dce5cd974bc644d0f1ffa267c062.mp4

Вот код для моих функций ввода (может быть, проблема может быть здесь?):

def look(self, match_up: MatchUp):
    """Set up Neural Network inputs."""
    p: Pawn = self.pawn

    imminent: Laser = match_up.get_most_imminent_laser(p)
    enemy: Pawn = match_up.get_closest_opponent(p)

    max_angle = math.pi * 2

    self.inputs = [
        1/math.sqrt(p.dist_squared(actor=imminent)
                    ) if imminent != None else 1,
        p.angle_to(actor=imminent)/max_angle if imminent != None else 1,

        1/math.sqrt(p.dist_squared(actor=enemy)) if enemy != None else 1,
        p.angle_to(actor=enemy)/max_angle if enemy != None else 1,

        p.get_direc()/max_angle,
        p.health/p.stat_bias.max_health
    ]

1 Ответ

0 голосов
/ 18 декабря 2018

Ваша проблема с инициализацией веса.Поскольку вы используете одинаковую инициализацию веса, ваша сеть взрывается в значениях и, следовательно, производит только единицы и страдает от исчезающих градиентов.В некотором смысле вы должны стремиться к инициализации, которая производит нормально распределенные результаты после каждого слоя.

Для сигмоида / TanH это будет инициализация glorot, stddev = sqrt (2 / (количество входных узлов + количество выходных узлов)).

Для ReLU это будет инициализация stddev = sqrt (2 / (Nr. Входных узлов)).

Для вашей программы вам просто нужно заменить инициализацию с np.random.uniform(0,1, size=(dimensions[i], dimensions[i+1])) на np.random.normal(0, np.sqrt(2 / (dimensions[i] + dimensions[i+1])), size=(dimensions[i], dimensions[i+1])), и она должна работать как положено.

Цитирования: glorot Init.[http://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf?hc_location=ufi], Хе Ин.[https://www.cv -foundation.org / OpenAccess / content_iccv_2015 / документы / He_Delving_Deep_into_ICCV_2015_paper.pdf]

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...