Votre panier est vide.
“En disant verbalement que les mathématiques sont difficiles, nous le disons avec un langage dont la syntaxe est aussi complexe, ni plus ni moins que celle qui régit les mathématiques”
Les réseaux de neurones (DNN) sont l’un des modèles d’apprentissage automatique les plus utilisés de nos jours. DNN peut être visualisé comme un ensemble de nœuds et de lignes formant un réseau, voir la figure 1. Sa similarité avec l’organisation des neurones dans le cerveau est évidente, mais ce sujet sera discuté plus tard.
Figure 1. Diagramme simplifié de Deep Neural Network (DNN)
Dans un réseau de neurones, deux nœuds et une ligne correspondent à une unité de base du modèle et représentent graphiquement une fonction mathématique de type:
f (x) = kx
Pour la figure 2, la variable d’entrée (x) correspond au nœud vert, la variable de sortie f(x) au noeud bleu et la ligne qui les rejoint correspond à la constante k:
Figure 2. Unité fondamentale d’un DNN
Chaque fonction mathématique peut être visualisée comme une boîte qui reçoit un ou plusieurs éléments d’entrée et fournit un seul élément de sortie:
Figure 3. Représentation graphique d’une fonction mathématique
La fonction “f “est une relation mathématique entre une ou plusieurs variables d’entrée et une variable de sortie.
Ainsi, la fonction:
f (x) = 3.x
prends des valeurs d’entrée x, les multiplie par 3 et délivre des valeurs de sortie f(x):
Figure 4. Éléments d’entrée (x) et sortie f (x) définis par la fonction f
La valeur “3” sur chaque flèche correspond à la valeur de la constante (paramètre de la fonction) qui le caractérise dans chaque cas.
Dans le réseau de neurones de la figure 1, chaque élément de sortie correspond à la somme de plusieurs fonctions, chacune avec son propre paramètre qui le définit:
Figure 5. Fonction avec trois variables d’entrée et une variable de sortie
Pour illustrer, travaillons sur certains nœuds et lignes du réseau neuronal mentionnés ci-dessus, voir la figure 6.
Figure 6. Détail partiel d’un réseau neuronal
Pour ces éléments du réseau, on peut définir une fonction:
f (Xi) = Sum (Ki.Xi)
Ceci est la sortie f(Xi) (nœud orange) correspond à la somme des variables d’entrée multipliées chacune par la constante correspondante (paramètre de fonction).
L’exemple précédent nous montre que si nous prédéfinissons des valeurs pour les 32 paramètres (valeurs du total des lignes de liaison du réseau neuronal) et que nous avons les valeurs des trois variables d’entrée (couche d’entrée), nous pouvons enchaîner de gauche à droite, les résultats des fonctions, en convertissant la sortie d’une fonction en entrée de la suivante, jusqu’à obtenir les valeurs de la dernière sortie (Output Layer).
Cette opération est connue sous le nom de“Forward propagation”,pour les modèles formés (paramètres avec valeurs assignées), cela permet d’évaluer ou de classer les entités en entrée, cette évaluation étant la sortie calculée du modèle.
L’article suivant sera consacré à un exemple illustratif de la théorie présentée ici.