Нейронная сеть XOR на Java - PullRequest
7 голосов
/ 12 марта 2012

Я пытаюсь реализовать и обучить нейронную сеть из пяти нейронов с обратным распространением для функции XOR в Java. Мой код (пожалуйста, извините, это отвратительно):

public class XORBackProp {

private static final int MAX_EPOCHS = 500;

//weights
private static double w13, w23, w14, w24, w35, w45;
private static double theta3, theta4, theta5;
//neuron outputs
private static double gamma3, gamma4, gamma5;
//neuron error gradients
private static double delta3, delta4, delta5;
//weight corrections
private static double dw13, dw14, dw23, dw24, dw35, dw45, dt3, dt4, dt5;
//learning rate
private static double alpha = 0.1;
private static double error;
private static double sumSqrError;
private static int epochs = 0;
private static boolean loop = true;

private static double sigmoid(double exponent)
{
    return (1.0/(1 + Math.pow(Math.E, (-1) * exponent)));
}

private static void activateNeuron(int x1, int x2, int gd5)
{
    gamma3 = sigmoid(x1*w13 + x2*w23 - theta3);
    gamma4 = sigmoid(x1*w14 + x2*w24 - theta4);
    gamma5 = sigmoid(gamma3*w35 + gamma4*w45 - theta5);

    error = gd5 - gamma5;

    weightTraining(x1, x2);
}

private static void weightTraining(int x1, int x2)
{
    delta5 = gamma5 * (1 - gamma5) * error;
    dw35 = alpha * gamma3 * delta5;
    dw45 = alpha * gamma4 * delta5;
    dt5 = alpha * (-1) * delta5;

    delta3 = gamma3 * (1 - gamma3) * delta5 * w35;
    delta4 = gamma4 * (1 - gamma4) * delta5 * w45;

    dw13 = alpha * x1 * delta3;
    dw23 = alpha * x2 * delta3;
    dt3 = alpha * (-1) * delta3;
    dw14 = alpha * x1 * delta4;
    dw24 = alpha * x2 * delta4;
    dt4 = alpha * (-1) * delta4;

    w13 = w13 + dw13;
    w14 = w14 + dw14;
    w23 = w23 + dw23;
    w24 = w24 + dw24;
    w35 = w35 + dw35;
    w45 = w45 + dw45;
    theta3 = theta3 + dt3;
    theta4 = theta4 + dt4;
    theta5 = theta5 + dt5;
}

public static void main(String[] args)
{

    w13 = 0.5;
    w14 = 0.9;
    w23 = 0.4;
    w24 = 1.0;
    w35 = -1.2;
    w45 = 1.1;
    theta3 = 0.8;
    theta4 = -0.1;
    theta5 = 0.3;

    System.out.println("XOR Neural Network");

    while(loop)
    {
        activateNeuron(1,1,0);
        sumSqrError = error * error;
        activateNeuron(0,1,1);
        sumSqrError += error * error;
        activateNeuron(1,0,1);
        sumSqrError += error * error;
        activateNeuron(0,0,0);
        sumSqrError += error * error;

        epochs++;

        if(epochs >= MAX_EPOCHS)
        {
            System.out.println("Learning will take more than " + MAX_EPOCHS + " epochs, so program has terminated.");
            System.exit(0);
        }

        System.out.println(epochs + " " + sumSqrError);

        if (sumSqrError < 0.001)
        {
            loop = false;
        }
    }
}
}

Если это поможет, вот схема сети .

Начальные значения для всех весов и скорости обучения взяты прямо из примера в моем учебнике. Цель состоит в том, чтобы обучить сеть, пока сумма квадратов ошибок не станет меньше 0,001. В учебнике также приведены значения всех весов после первой итерации (1,1,0), и я проверил свой код, и его результаты идеально совпадают с результатами учебника. Но, согласно книге, на то, чтобы сходиться, нужно всего 224 эпохи. Но когда я запускаю его, он всегда достигает MAX_EPOCHS, если он не установлен на несколько тысяч. Что я делаю не так?

Ответы [ 3 ]

2 голосов
/ 11 марта 2016
    //Add this in the constants declaration section.
    private static double alpha = 3.8, g34 = 0.13, g5 = 0.21;

    // Add this in activate neuron
    gamma3 = sigmoid(x1 * w13 + x2 * w23 - theta3);
    gamma4 = sigmoid(x1 * w14 + x2 * w24 - theta4);        
    if (gamma3 > 1 - g34 ) {gamma3 = 1;}
    if (gamma3 < g34) {gamma3 = 0;}
    if (gamma4 > 1- g34) {gamma4 = 1;}
    if (gamma4 < g34) {gamma4 = 0;}   
    gamma5 = sigmoid(gamma3 * w35 + gamma4 * w45 - theta5);
    if (gamma5 > 1 - g5) {gamma5 = 1;}
    if (gamma5 < g5) {gamma5 = 0;}

ANN должен учиться в 66 итерациях, но находится на грани расхождения.

1 голос
/ 18 апреля 2017

Весь смысл этой сети - показать, как справиться с ситуацией, когда группировка не основана на «сверху = да, снизу = нет», а скорее с центральной линией (проходящей через точки (0,1) и (1,0) в этом случае) и если значение близко к линии, то ответ «да», а если оно далеко, то ответ «нет». Вы не можете кластеризовать такую ​​систему только одним слоем. Однако двух слоев достаточно.

1 голос
/ 19 марта 2012

Попробуйте выполнить округление gamma3, gamma4, gamma5, находясь в фазе активации для instace:

if (gamma3 > 0.7) gamma3 = 1;
if (gamma3 < 0.3) gamma3 = 0;

и немного увеличить переменную обучения (альфа) * ​​1004 *

alpha = 0.2;

обучение заканчивается в 466 эпохах.

Конечно, если вы сделаете большее округление и большую настройку альфа, вы сможете достичь даже лучшего результата, чем 224.

...