Please use this identifier to cite or link to this item: http://repositorio.yachaytech.edu.ec/handle/123456789/104
Title: A target oriented averaging search trajectory and its application in artificial neural networks
Authors: Chang Tortolero, Oscar Guillermo
Rojas Jiménez, Ángel Adrián
Keywords: Successive Abs-Linearization
Quadratic Regularization
AbsNormal Form
Generalized descent
Dynamic Search Trajectory
Abs-Linearización Sucesiva
Regularización Cuadrática
Forma Abs-Normal
Descenso Generalizado
Trayectoria de búsqueda dinámica
Issue Date: Sep-2019
Publisher: Universidad de Investigación de Tecnología Experimental Yachay
Abstract: El entrenamiento de redes neuronales artificiales usualmente involucran funciones objetivos no suaves a ser minimizadas. Este problema de optimizaci´on actualmente se resuelve evitando puntos de ensilladura y por tanto alcazando un minimizador local o global. Optimizadores conocidos como Descenso por Gradiente (GD) o su versi´on estocastica llamada M´etodo de Gradiente Estoc´astico (SG) dependen de la direcci´on de descenso mas proximo. Analisis de convergencia de estos m´etodos dejan mucho que desear cuando se asume que convexiddad y/o suavidad local (v´ease, [1][2]). Aunque en la practica estos m´etodos iterativos funcionan bien a trav´es de la estrategia de propagaci´on de error hacia atras, nosotros desarrollamos un m´etodo determin´ıstico de optimizaci´on global llamado SALGO-TOAST. El acr´onimo de SALGO describen las iniciales en ´ıngles de la t´ecnica Succesive Abs-Linearization o Abs-Linearizaciones Sucesivas de la funcion objetivo y la tarea de Global Optimization u Optimizaci´on Global sobre la aproximacion mencionada. Lo u´ltimo es realizado a trav´es de nuestro m´etodo de trajectoria de bu´squeda promediada orientada a objetivos o TOAST. Su nombre trata de explicar el comportamiento de las direcciones de bu´squeda obtenidas en el m´etodo. De hecho, cada direccion de bu´squeda est´a definida por un promedio de la direcci´on de descenso mas proximo y orientado por un valor objetivo a ser alcanzado [4]. La diferencia principal de nuestra estrategia y el algoritmo de propogaci´on de error hacia atr´as es nuestra consideracion de la no suavidad de la funcion de prediccion. Implementamos TOAST al entrenamiento de redes neuronales artificiales con funciones de activaci´on de visagra o ReLUs para solucionar el problema de aprendizaje de la regresi´on de la funcion Griewank y el reconocimiento de imagenes de d´ıgitos. Los resultados son comparados con SG, GD y otro m´etodo determin´ısticco llamado Optimizaci´on Mixta Entero Lineal (MILOP). Este u´timo m´etodo tiene una formulaci´on preliminaria y es la u´nica con el que puede ser probado que un m´ınimo global ha sido obtenido [6].
Description: The training of artificial neural networks usually involves nonsmooth objective func- tions to be minimized. This optimization problem is currently solved just avoing saddle points and thus reaching a local and fortunately a global minimizer. Well-known opti- mizers like Gradient Descent (GD) or its stochastic version called Stochastic Gradient (SG) depend on the steepest descent direction. Convergence analysis of these methods leave a lot to be desired when is assumed local smoothness and/or (strong) convexity (see, [1][2]). Though, in practice, these iterative methods work well through the back- propagation algorithm [3], we develop a deterministic global optimization method called SALGO-TOAST. Here SALGO denotes the Succesive Abs-Linearization technique of the objective function and the Global Optimization task over that approximation. The latter task is given by our Target Oriented Averaging Search Trajectory (TOAST). Its name try to describe the behavior of the search direction developed in the method. Indeed each direction is defined by an average of the stepest descent direction and oriented by a target value to be reached [4]. The main difference of our algorithm and backpropagation is that the latter does not consider the nonsmoothness of the prediction function. We implement our method to the training of the Rectifier ANNs [5] to solve the learning problem of the Griewank function regression and the digit- image recognition. The results are compared with SG, GD and another deterministic method called Mixed Integer Linear Optimization (MILOP). The last method has a preliminary formulation and is the only one able to reach a global minima [6].
URI: http://repositorio.yachaytech.edu.ec/handle/123456789/104
Appears in Collections:Matemática

Files in This Item:
File Description SizeFormat 
ECMC00126.91 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.