Double Back-Propagation and Differential Machine Learning - Archive ouverte HAL Accéder directement au contenu
Poster De Conférence Année : 2021

Double Back-Propagation and Differential Machine Learning

Rétropropagation Double et Apprentissage Machine Différentiel

Résumé

We have introduced a novel (ζ, ε)-Double Back-propagation Scheme (DBS) applicable to any parametric model with convergence properties in terms of Mean Square Error. The DBS indicates that with an optimal number ζ of DBS updates, and appropriate ε learning rate vector for all the model parameters, the Mean Square Error of both training and testing data get to be decreasing, and converge to zero for the training data. The DBS recommends a local Stochastic Gradient Descent (SGD) per observation after the model parameters have been obtained after a first-step estimation with any chosen optimization framework. It has been applied to the Shallow Potts Neural Network Model developed in a previous research by (Alahassa & Murua (2020)), and the results are outstanding. Not the least, we prove mathematically that under an assumption that if there exists a differentiable function that associate covariables (predictors) and target variables (our outputs) as well as their respective local DBS associated parameters, for each observation, we can make the train error and the test error converge to zero simultaneously by applying a dist-NN-h-Taylor Series-PMI model. This last model dictates that we can always differentiate sufficiently the model parameters using a combination of Taylor Approximation Theorem with h ≥ 2 order with a Perfect Multivariate Interpolation (PMI) framework, and finally, an optimal distance (dist) for a suitable Train-Test covariables association. Our main conclusion is that overfitting, mainly with the convergent DBS optimizer is the beginning of a new type of learning method, as we can still generalize our parametric model with local neighborhood learning with multivariate interpolation and fine tuned empirical differentiation.
Nous avons introduit un nouveau modèle à paramètres (ζ, ε) pour la rétropropagation double («Double Backpropagation Scheme» (DBS)) applicable à tout modèle paramétrique avec des propriétés de convergence en termes d’erreur quadratique moyenne. La DBS indique qu’avec un nombre optimal ζ de mises à jour et un vecteur de taux d’apprentissage ε approprié pour tous les paramètres du modèle, l’erreur quadratique moyenne des données d’entraînement et de test diminuent et convergent vers zéro pour les données d’entraînement. La DBS recommande une descente de gradient stochastique locale (SGD) par observation après que les paramètres du modèle aient été obtenus suite à une première estimation avec n’importe quel cadre d’optimisation choisi. Il a été appliqué au modèle neuronal Shallow Potts développé dans une précédente recherche par (Alahassa & Murua (2020)), et les résultats sont encourageants. Non des moindres, nous prouvons mathématiquement sous l’hypothèse que s’il existe une fonction différentiable associant des covariables (prédicteurs) et des variables cibles (réponses) ainsi que leurs paramètres locaux respectifs associés à la DBS, pour chaque observation, nous pouvons faire l’entrainement de tel sorte que l’erreur de test convergent vers zéro simultanément en appliquant un modèle dist-NN-h-Taylor Series-PMI. Ce dernier modèle dicte que nous pouvons toujours différencier suffisamment les paramètres du modèle en utilisant une combinaison du théorème d’approximation de Taylor à un ordre h ≥ 2 dans un cadre d’interpolation multivariée parfaite (PMI), et enfin, une distance optimale (dist) pour un association de covariables Train-Test. Notre principale conclusion est que le surajustement, principalement avec l’optimiseur DBS convergent, est le début d’un nouveau type de méthode d’apprentissage, car nous pouvons encore généraliser notre modèle paramétrique avec l’apprentissage local au voisinage de chaque observation avec une interpolation multivariée et une différenciation empirique adaptée.
Fichier principal
Vignette du fichier
SSC-2021-CONFERENCE_Poster_Double_Backpropagation_Differential_Machine_learning-Alahassa-Murua.pdf (336.76 Ko) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-03265399 , version 1 (20-06-2021)

Identifiants

  • HAL Id : hal-03265399 , version 1

Citer

Nonvikan Karl-Augustt Alahassa, Alejandro Murua. Double Back-Propagation and Differential Machine Learning. The Ninth Annual Canadian Statistics Student Conference (CSSC), Jun 2021, Ottawa, Canada. ⟨hal-03265399⟩
60 Consultations
72 Téléchargements

Partager

Gmail Facebook X LinkedIn More