Helix Convolution in Pytorch (Машинное обучение) - PullRequest
0 голосов
/ 07 февраля 2020

В настоящее время я изучаю развитие сверточной нейронной сети, включающей до 5 или 6 размерных массивов.

Я знал, что многие инструменты, используемые для сверточных нейронных сетей, на самом деле не имеют дело с сверточными ND, поэтому я решил попытаться написать реализацию Helix Convolution, в которой свертку можно рассматривать как большую одномерную свертку (см. Ссылку 1. http://sepwww.stanford.edu/public/docs/sep95/jon1/paper_html/node2.html, Ссылку 2 https://sites.ualberta.ca/~mostafan/Files/Papers/md_convolution_TLE2009.pdf для получения более подробной информации о концепции).

Я сделал это в предположении (возможно, неверном), что большая одномерная свертка, вероятно, будет проще на графическом процессоре, чем многомерная, а также что Метод тривиально масштабируется до N измерений.

В частности, цитата из ссылки 2. утверждает:

Мы не нашли важных преимуществ в вычислительной эффективности между стандартной сверточностью ND по сравнению с использованием алгоритма. описано в тексте. Однако мы обнаружили, что написание кодов для регуляризации данных сейсмических данных c с помощью описанного трюка приводит к алгоритмам, которые могут легко решать проблемы регуляризации с любым количеством пространственных измерений (Naghizadeh and Sacchi, 2009).

Я написал реализацию функции ниже, которая сравнивается с signal.fftconvolve. Он работает медленнее на процессоре по сравнению с этой функцией, но мне все же хотелось бы увидеть, как он работает на GPU в PyTorch как прямой сверточный слой.

Может ли кто-нибудь помочь мне перенести этот код на PyTorch, чтобы я мог проверить, как он себя ведет?

"""
HELIX CONVOLUTION FUNCTION

Shrink:
CROPS THE SIZE OF THE CONVOLVED SIGNAL DOWN TO THE ORIGINAL SIZE OF THE ORIGINAL. 

Pad:
PADS THE DIFFERENCE BETWEEN THE ORIGINAL SHAPE AND THE DESIRED, CONVOLVED SHAPE FOR KERNEL AND SIGNAL.

GetLength:
EXTRACTS THE LENGTH OF THE UNWOUND STRIP OF THE SIGNAL AND KERNEL THAT IS TO BE CONVOLVED.

FFTConvolve:
USES THE NUMPY FFT PACKAGE TO PERFORM FAST FOURIER CONVOLUTION ON THE SIGNALS 

Convolve:
USES HELIX CONVOLUTION ON AN INPUT ARRAY AND KERNEL. 

"""

import numpy as np
from numpy import *
from scipy import signal
import operator
import time


class HelixCPU:
    @classmethod
    def Shrink(cls,array, bounding):
       start = tuple(map(lambda a, da: (a-da)//2, array.shape, bounding))
       end = tuple(map(operator.add, start, bounding))
       slices = tuple(map(slice, start, end))
       return array[slices]

    @classmethod
    def Pad(cls,array, target_shape):
       diff = target_shape-array.shape
       padder=[(0,val) for val in diff]
       padded = np.pad(array, padder, 'constant')
       return padded

    @classmethod
    def GetLength(cls,array_shape, padded_shape):
        temp=1
        steps=np.zeros_like(array_shape)

        for i, entry in enumerate(padded_shape[::-1]):
            if(i==len(padded_shape)-1):
               steps[i]=1
            else:
               temp=entry*temp
               steps[i]=temp

         steps=np.roll(steps, 1)
         steps=steps[::-1]
         ones=np.ones_like(array_shape)
         ones[-1]=0
         out=np.multiply(steps,array_shape - ones)
         length = np.sum(out)
         return length

    @classmethod
    def FFTConvolve(cls, in1, in2, len1, len2):
        s1 = len1
        s2 = len2
        shape = s1 + s2 - 1
        fsize = 2 ** np.ceil(cp.log2(shape)).astype(int) 
        fslice = slice(0, shape)
        conv = np.fft.ifft(np.fft.fft(in1, int(fsize)) * np.fft.fft(in2, int(fsize)))[fslice].copy()
        return conv

    @classmethod
    def Convolve(cls,array, kernel):
        m = array.shape
        n = kernel.shape
        mn = np.add(m, n)
        mn = mn-np.ones_like(mn)
        k_pad=cls.Pad(kernel, mn)
        a_pad=cls.Pad(array, mn)
        length_k = cls.GetLength(kernel.shape, k_pad.shape);
        length_a = cls.GetLength(array.shape, a_pad.shape);
        k_flat = k_pad.flatten()[0:length_k]
        a_flat = a_pad.flatten()[0:length_a]
        conv = cls.FFTConvolve(a_flat, k_flat)
        conv = np.resize(conv,mn)
        conv = cls.Shrink(conv, m)
        return conv



def main():

    array=np.random.rand(25,25,41,51)
    kernel=np.random.rand(10, 10, 10, 10)

    start2 =time.process_time()
    test2 = HelixCPU.Convolve(array, kernel)
    end2=time.process_time()

    start1= time.process_time()
    test1 = signal.fftconvolve(array, kernel, "same")
    end1= time.process_time()

    print ("")
    print ("========================")
    print ("SOME LARGE CONVOLVED RANDOM ARRAYS. ")
    print ("========================")
    print("")
    print ("Random Calorimeter Image of Size {0} Created".format(array.shape))
    print ("Random Kernel of Size {0} Created".format(kernel.shape))
    print("")
    print ("Value\tOriginal\tHelix")
    print ("Time Taken [s]\t{0}\t{1}\t{2}".format( (end1-start1), (end2-start2), (end2-start2)/(end1-start1) ))
    print ("Maximum Value\t{:03.2f}\t{:13.2f}".format( np.max(test1), np.max(test2) ))
    print ("Matrix Norm \t{:03.2f}\t{:13.2f}".format( np.linalg.norm(test1), np.linalg.norm(test2) ))
    print ("All Close?\t{0}".format(np.allclose(test1, test2)))

1 Ответ

0 голосов
/ 11 февраля 2020

Извините, я не могу добавить комментарий из-за низкого числа повторов, поэтому я задаю свой вопрос в качестве ответа и, надеюсь, могу ответить на ваш вопрос. умножение матриц? Если это так, то я пробовал это в прошлом, но на самом деле неэффективно использование памяти для практического использования.

...