Please use this identifier to cite or link to this item:
http://repositorio.yachaytech.edu.ec/handle/123456789/104
Title: | A target oriented averaging search trajectory and its application in artificial neural networks |
Authors: | Chang Tortolero, Oscar Guillermo Rojas Jiménez, Ángel Adrián |
Keywords: | Successive Abs-Linearization Quadratic Regularization AbsNormal Form Generalized descent Dynamic Search Trajectory Abs-Linearización Sucesiva Regularización Cuadrática Forma Abs-Normal Descenso Generalizado Trayectoria de búsqueda dinámica |
Issue Date: | Sep-2019 |
Publisher: | Universidad de Investigación de Tecnología Experimental Yachay |
Abstract: | El entrenamiento de redes neuronales artificiales usualmente involucran funciones objetivos no suaves a ser minimizadas. Este problema de optimizaci´on actualmente se resuelve evitando puntos de ensilladura y por tanto alcazando un minimizador local o global. Optimizadores conocidos como Descenso por Gradiente (GD) o su versi´on estocastica llamada M´etodo de Gradiente Estoc´astico (SG) dependen de la direcci´on de descenso mas proximo. Analisis de convergencia de estos m´etodos dejan mucho que desear cuando se asume que convexiddad y/o suavidad local (v´ease, [1][2]). Aunque en la practica estos m´etodos iterativos funcionan bien a trav´es de la estrategia de propagaci´on de error hacia atras, nosotros desarrollamos un m´etodo determin´ıstico de optimizaci´on global llamado SALGO-TOAST. El acr´onimo de SALGO describen las iniciales en ´ıngles de la t´ecnica Succesive Abs-Linearization o Abs-Linearizaciones Sucesivas de la funcion objetivo y la tarea de Global Optimization u Optimizaci´on Global sobre la aproximacion mencionada. Lo u´ltimo es realizado a trav´es de nuestro m´etodo de trajectoria de bu´squeda promediada orientada a objetivos o TOAST. Su nombre trata de explicar el comportamiento de las direcciones de bu´squeda obtenidas en el m´etodo. De hecho, cada direccion de bu´squeda est´a definida por un promedio de la direcci´on de descenso mas proximo y orientado por un valor objetivo a ser alcanzado [4]. La diferencia principal de nuestra estrategia y el algoritmo de propogaci´on de error hacia atr´as es nuestra consideracion de la no suavidad de la funcion de prediccion. Implementamos TOAST al entrenamiento de redes neuronales artificiales con funciones de activaci´on de visagra o ReLUs para solucionar el problema de aprendizaje de la regresi´on de la funcion Griewank y el reconocimiento de imagenes de d´ıgitos. Los resultados son comparados con SG, GD y otro m´etodo determin´ısticco llamado Optimizaci´on Mixta Entero Lineal (MILOP). Este u´timo m´etodo tiene una formulaci´on preliminaria y es la u´nica con el que puede ser probado que un m´ınimo global ha sido obtenido [6]. |
Description: | The training of artificial neural networks usually involves nonsmooth objective func- tions to be minimized. This optimization problem is currently solved just avoing saddle points and thus reaching a local and fortunately a global minimizer. Well-known opti- mizers like Gradient Descent (GD) or its stochastic version called Stochastic Gradient (SG) depend on the steepest descent direction. Convergence analysis of these methods leave a lot to be desired when is assumed local smoothness and/or (strong) convexity (see, [1][2]). Though, in practice, these iterative methods work well through the back- propagation algorithm [3], we develop a deterministic global optimization method called SALGO-TOAST. Here SALGO denotes the Succesive Abs-Linearization technique of the objective function and the Global Optimization task over that approximation. The latter task is given by our Target Oriented Averaging Search Trajectory (TOAST). Its name try to describe the behavior of the search direction developed in the method. Indeed each direction is defined by an average of the stepest descent direction and oriented by a target value to be reached [4]. The main difference of our algorithm and backpropagation is that the latter does not consider the nonsmoothness of the prediction function. We implement our method to the training of the Rectifier ANNs [5] to solve the learning problem of the Griewank function regression and the digit- image recognition. The results are compared with SG, GD and another deterministic method called Mixed Integer Linear Optimization (MILOP). The last method has a preliminary formulation and is the only one able to reach a global minima [6]. |
URI: | http://repositorio.yachaytech.edu.ec/handle/123456789/104 |
Appears in Collections: | Matemática |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.