Intelligence Artificielle
EN ES

Wall-E : Le Petit Mineur d'Or

Wall-E découvre 150 échantillons d'or et doit estimer leur valeur grâce à la régression linéaire, la descente de gradient et le coefficient de détermination.

· 29 min

Contrairement à ses homologues robotiques du passé, Wall-E se démarquait par sa curiosité insatiable et son désir d’apprendre. Chaque jour, il se perdait dans l’exploration des coins oubliés de la planète, à la quête de trésors enfouis et négligés. Au cours de l’une de ses expéditions, dans une ancienne mine délaissée, Wall-E fit une découverte remarquable : des échantillons d’or étincelants, dissimulés sous des strates de terre et de roche. Intrigué par ces éclats dorés, il se demanda s’il pouvait s’amuser à estimer leur valeur.

En tant que savant robotique, il savait que l’évaluation du prix de ces pépites dépendait de leur pureté. C’est à ce moment précis qu’il entreprit d’explorer un problème d’une simplicité extrême : la régression linéaire.

Il est fortement conseillé d’avoir lu l’épisode I avant de continuer !

Dans les Profondeurs du Savoir : la Régression

L’histoire de notre intrépide robot solitaire continue et il se retrouve face à une catégorie fascinante de problèmes : la régression. Ces énigmes le poussent à développer de nouvelles compétences pour estimer des valeurs numériques en fonction de données d’entrée, et elles occupent une place importante dans son vaste répertoire d’explorations.

Wall-E, le petit robot collecteur de déchets, est confronté à des problèmes de régression chaque fois qu’il souhaite prédire une valeur numérique basée sur certaines caractéristiques ou variables continues. Imaginez-le en train d’analyser les données qu’il a recueillies tout en s’efforçant de déterminer le prix d’une pépite d’or en fonction de sa pureté. Dans cette quête, il doit établir une relation mathématique entre les données dont il dispose, telles que la pureté de l’or, et les valeurs qu’il souhaite prédire, à savoir les prix de ces précieuses pépites.

L’une des difficultés auxquelles Wall-E est confronté est de choisir le modèle de régression approprié. Il se demande s’il doit opter pour une régression linéaire simple, ce qui signifie qu’il suppose une relation linéaire entre la pureté de l’or et son prix, ou s’il doit explorer des modèles plus complexes, comme une régression polynomiale. Le choix du modèle est crucial car il affectera la précision de ses prédictions.

Une autre problématique que Wall-E doit résoudre est la manière dont il va évaluer la performance de son modèle. Il ne peut pas se permettre de se tromper dans ses estimations, car une erreur dans l’estimation du prix de l’or pourrait entraîner des conséquences potentiellement désastreuses. Il explore donc diverses mesures d’erreur, telles que l’erreur absolue moyenne et la racine carrée de l’erreur quadratique moyenne (pour l’instant c’est du charabia), pour évaluer la précision de ses prédictions.

L’un des défis les plus intrigants auxquels Wall-E est confronté dans les problèmes de régression est l’optimisation des paramètres du modèle. Il doit parcourir un processus itératif d’ajustement de ces paramètres pour minimiser l’erreur entre ses prédictions et les valeurs réelles. Wall-E se lance alors dans la descente de gradient, une technique qui l’aide à trouver les paramètres optimaux en minimisant une fonction coût qui rassemble les erreurs du modèle.

Chaque problème de régression que Wall-E aborde est unique, car les données et les objectifs varient. Cependant, sa persévérance et son ingéniosité, combinées à ses compétences en machine learning, lui permettent de relever ces défis et d’estimer avec précision les valeurs numériques, qu’il s’agisse du prix de l’or ou de toute autre tâche de régression.

La Récolte

Peu après l’évasion de l’humanité, le jeune robot sentit comme un vent de solitude envahir ses circuits imprimés. Pour s’occuper, après une bonne journée de dur labeur, il parcourt des terrains lointains, fouille dans les décombres des grandes réserves d’or, analyse chacun des alliages précieux, scrute la moindre petite pépite d’or afin d’en déterminer sa pureté et recense tous les échantillons d’or terrestres en les affichant dans un tableau avec leur prix respectifs (voici les 5 premiers échantillons sur les 150).

Pureté de l’orPrix de l’or (en boulons)
Échantillon 10.37451028.1347
Échantillon 20.95071456.2091
Échantillon 30.73201260.2042
Échantillon 40.59871145.5583
Échantillon 50.1560958.0828

Ce tableau constitue une base de données d’apprentissage. Chaque échantillon kk est caractérisé par deux éléments : sa pureté x(k)x^{(k)} qui varie entre 00 (ce n’est pas de l’or) et 11 (c’est de l’or pur) et son prix y(k)y^{(k)} (celui-ci peut aller de 00 à l’infini).

La collecte de ces échantillons représente un moment crucial dans la vie de ce savant robotisé. Voici deux aspects essentiels qu’il doit prendre en considération pour réaliser des estimations précises.

Large éventail de données : Wall-E réalise rapidement que pour obtenir des estimations fiables, il doit disposer d’un grand nombre d’échantillons dans sa base de données.

En effet, si l’on considère seulement deux échantillons, comme illustré ici, il est impossible de déterminer si le comportement des prix est linéaire ou non. De nombreuses courbes d’estimation pourraient passer par ces deux points sans refléter la réalité. Comme les deux courbes ci-dessous par exemple.

Représentation du prix de l’or en fonction de sa pureté sur deux échantillons
Courbe de régression linéaire
Crédits : Disney/PIXAR
Courbe de régression polynomiale

Diversité des données : un autre détail crucial à prendre en compte lors de la récolte est la variété des données.

Supposons que Wall-E ne prenne en compte que des échantillons purs ou des échantillons ayant une pureté extrêmement proche (voir la figure ci-contre). Dans cette situation, tous les échantillons auront presque le même prix, ce qui l’empêcherait d’estimer le prix d’autres alliages d’or.

Représentation du prix de l’or en fonction de sa pureté sur des échantillons trop similaires

Conclusion de la collecte : il est donc impératif de rassembler une multitude d’échantillons choisis au hasard pour éviter ces limitations et pour s’assurer d’obtenir des estimations précises pour un large éventail d’alliages d’or.

Création du Modèle Linéaire

À partir de ces données, Wall-E élabore ce que nous avons nommé un modèle linéaire f(x)=ax+bf(x) = ax + baa et bb sont les paramètres du modèle. Un modèle efficace minimise les écarts entre les prédictions de Wall-E f(x)f(x) et les valeurs réelles yy des échantillons. Telle une sorte de chercheur d’or moderne, Wall-E ajuste ces paramètres pour aligner au mieux ses estimations avec la réalité, créant ainsi une équation qui lie subtilement pureté et valeur de l’or. Voici sa tentative initiale, qui n’est pas incroyable du tout.

Courbe de régression linéaire sur le prix de l’or en fonction de sa pureté
Crédits : Disney/PIXAR

Mesurer les Trésors d’Or : la Fonction Coût

L’étape suivante dans l’apprentissage de Wall-E consiste à évaluer la performance de ce modèle, c’est-à-dire à mesurer les erreurs entre ses prédictions et les valeurs du jeu de données.

Pour le petit robot, la procédure est simple : chaque estimation, notée kk, dans le dataset est confrontée à la réalité. En fonction de l’approche choisie, le programme de Wall-E retourne l’erreur correspondante à chaque prédiction que nous noterons err(k)\text{err}(k).

Chacune des estimations de Wall-E est ainsi associée à sa propre marge d’erreur. Au fil des itérations, ces erreurs s’accumulent en nombre jusqu’à atteindre le nombre total d’exemples nn dans le dataset.

On rassemble donc l’ensemble de ces erreurs dans une fonction que l’on appelle fonction coût, notée Γ(a,b)\Gamma(a, b). C’est une fonction dépendant des paramètres à ajuster et qui calcule simplement la moyenne de toutes les erreurs. Elle s’écrit donc de la manière suivante :

Γ(a,b)=err(1)+err(2)++err(n)n=1nk=1nerr(k)\Gamma(a, b) = \frac{\text{err}(1)+\text{err}(2)+\cdots+\text{err}(n)}{n} = \frac{1}{n}\sum_{k=1}^n \text{err}(k)

Une propriété importante à prendre en compte sur cette fonction est sa convexité, c’est-à-dire que sa courbe « fait face vers le haut partout ». Plus précisément, cela signifie que si on trace une droite entre deux points de la courbe alors cette dernière se place toujours au-dessus ou au niveau de la courbe. De telles courbes possèdent toujours un minimum global ! C’est ce qui va nous servir plus tard.

Crédits : Disney/PIXAR
Exemple de fonction convexe

Cependant, qu’est-ce que l’erreur ? Comment peut-on la définir ? Avant d’aborder ces questions, il est crucial de discuter d’un concept mathématique : la distance, qui permet de quantifier la séparation entre deux points donnés.

Les Distances Expliquées par Hal

Wall-E, en plein moment de réflexion, cherchait à comprendre pourquoi il devait prêter attention à la notion de distance. La perplexité l’envahissait alors qu’il observait Hal, son fidèle compagnon cafard, se faufiler silencieusement entre les recoins du laboratoire.

Que pouvait bien signifier cette exploration minutieuse et méthodique de l’espace par Hal ?

Crédits : Disney/PIXAR

Il était bien loin d’imaginer que derrière ces mouvements silencieux et discrets, Hal partageait, à sa manière, les subtilités des distances. Chaque déplacement entre les objets de la pièce illustrait une règle mathématique essentielle. Elles se comptaient au nombre de quatre.

La Positivité. Dans cette chorégraphie, Hal démontrait la première : la positivité des distances. Expliquant à sa manière que la distance entre sa cachette préférée et le garde-manger de déchets était toujours positive, un fait simplement illustré par sa trajectoire (une longueur n’est pas négative).

Wall-E, en bon scientifique, l’exprima en termes mathématiques : la distance entre deux points AA et BB quelconques doit être positive ou nulle. Cela s’écrit,

A,BE,d(A,B)0.\forall A, B \in E, \quad d(A,B) \geq 0.

Le signe \forall veut dire « pour tout » et \in veut dire « dans ». Cela se lit : pour tous éléments quelconques AA et BB (ici on parle de points) dans EE, la distance entre AA et BB est positive ou nulle.

La Symétrie. Le concept de symétrie était ensuite mis en avant par Hal, démontrant comment ses déplacements d’un point AA à un point BB étaient toujours identiques, qu’il aille de BB à AA ou de AA à BB. Ses allées et venues subtiles marquaient ainsi l’idée de symétrie dans cette danse entre les points.

Le petit robot introduit cette idée dans ses circuits : la distance entre AA et BB doit être la même qu’entre BB et AA. Mathématiquement,

A,BE,d(A,B)=d(B,A).\forall A, B \in E, \quad d(A,B) = d(B,A).

La Séparation. Toutefois, la démonstration la plus surprenante pour Wall-E était celle de la séparation. Hal s’en alla chercher deux graines qu’il disposa à deux endroits différents de la pièce. C’est alors qu’il entama une danse frénétique en laissant une graine fixe et ramenant l’autre vers elle en effectuant une série d’aller-retours rapides pour finir par coller les deux graines ensemble.

De cette manière, il voulut illustrer à Wall-E que si la distance entre ces deux points était nulle alors les deux points coïncident. Une représentation impressionnante et claire de la règle de séparation.

Il comprit la leçon qu’il traduisit dans son langage : si la distance entre AA et BB est nulle alors AA et BB coïncident.

A,BE,d(A,B)=0A=B.\forall A, B \in E, \quad d(A,B) = 0 \Rightarrow A = B.

Le signe \Rightarrow veut dire « implique ».

L’Inégalité Triangulaire. Cependant, la leçon de Hal ne s’arrêtait pas là car il restait encore une règle essentielle à analyser. Il continua son exploration en illustrant l’inégalité triangulaire.

En évoluant entre sa cachette, Wall-E et le garde-manger, Hal montrait que la distance entre sa cachette et Wall-E est toujours inférieure à la distance entre sa cachette et le garde-manger plus la distance entre le garde-manger et Wall-E. Cette astuce habile, enseignant que le chemin le plus court entre deux points était la ligne droite, captivait Wall-E.

Il s’empressa donc de retranscrire tout ça : si je prends trois points AA, BB et CC qui ne coïncident pas alors la distance entre AA et BB est toujours plus petite ou égale à la distance entre AA et CC plus la distance entre CC et BB.

A,B,CE,d(A,B)d(A,C)+d(C,B).\forall A, B, C \in E, \quad d(A,B) \leq d(A,C) + d(C,B).
Représentation de l’inégalité triangulaire. La longueur du segment bleu est plus petite que la somme des longueurs des deux segments verts.
Crédits : Disney/PIXAR

Grâce à Hal, Wall-E assimila que formellement, une distance est une fonction qui compare deux points dans un espace donné en y attribuant un nombre réel non négatif, exprimant la « longueur » entre ces deux points et qui suit des règles bien précises. Cet espace peut être le plan familier à deux dimensions comme l’a montré le cafard, ou notre espace tridimensionnel, voire des espaces bien plus exotiques.

Ses talents d’abstraction lui permettent aussi de comprendre qu’il existe différentes sortes de distances, parmi lesquelles la plus connue est la distance euclidienne (on l’appelle aussi la 2-distance).

Calcul de la distance euclidienne entre le point A et le point B
Calcul de l’infini-distance entre le point A et le point B

Il existe encore l’\infty-distance (ou infini-distance) qui évalue la distance maximale entre ces points le long de n’importe quelle dimension. Mais on trouve également la distance de Manhattan (ou 1-distance pour les puristes) qui est nommée ainsi car elle reflète la distance qu’un taxi devrait parcourir dans un réseau de rues formant des grilles orthogonales (typique de la disposition des rues dans Manhattan, d’où son nom).

Calcul de la distance de Manhattan entre le point A et le point B

Nous explorerons en détail ces particularités dans un prochain article.

Une Erreur Fatale

Maintenant, pourquoi aborder le concept de distance dans le contexte de l’évaluation des prédictions de Wall-E ? En fait, cela nous amène à réfléchir à ce que sont réellement les erreurs entre les prédictions et les valeurs réelles du dataset.

Imaginez que Wall-E évalue le premier échantillon, un alliage d’or d’un kilo de pureté 0.720.72 avec un prix réel de 12311231 boulons, mais prédit 13311331 boulons. Vous constatez une différence de 130-130 boulons. Ici on obtient une valeur négative mais en prenant un autre exemple il se pourrait qu’elle soit positive. Cette dualité entre valeurs positives et négatives n’est pas pratique.

Pour résoudre ce problème, deux options s’offrent à nous :

On remarque que la deuxième option amplifie grandement les erreurs, mais nous verrons comment rééquilibrer ces différences plus tard.

Ainsi, en appliquant l’une ou l’autre de ces options, on choisit la manière dont on souhaite mesurer les erreurs, c’est-à-dire une distance. L’\infty-distance pour la première ou la distance euclidienne pour la deuxième.

Maintenant, la procédure est simple : chaque estimation, notée kk, dans le dataset est confrontée à la réalité. En fonction de l’approche choisie, le programme de Wall-E retourne l’erreur correspondante. D’ailleurs, selon la distance choisie, la fonction coût se nomme différemment :

MAE(a,b)=AE(1)+AE(2)++AE(n)n=1nk=1nAE(k)=1nk=1nf(x(k))y(k)=1nk=1nax(k)+by(k).\begin{aligned} \text{MAE}(a, b) &= \frac{\text{AE}(1)+\text{AE}(2)+\cdots+\text{AE}(n)}{n} = \frac{1}{n}\sum_{k=1}^n \text{AE}(k) \\ &= \frac{1}{n}\sum_{k=1}^n \left|f\left(x^{(k)}\right) - y^{(k)}\right| = \frac{1}{n}\sum_{k=1}^n \left|ax^{(k)} + b - y^{(k)}\right|. \end{aligned} MSE(a,b)=SE(1)+SE(2)++SE(n)n=1nk=1nSE(k)=1nk=1n(f(x(k))y(k))2=1nk=1n(ax(k)+by(k))2.\begin{aligned} \text{MSE}(a, b) &= \frac{\text{SE}(1)+\text{SE}(2)+\cdots+\text{SE}(n)}{n} = \frac{1}{n}\sum_{k=1}^n \text{SE}(k) \\ &= \frac{1}{n}\sum_{k=1}^n \left(f\left(x^{(k)}\right) - y^{(k)}\right)^2 = \frac{1}{n}\sum_{k=1}^n \left(ax^{(k)} + b - y^{(k)}\right)^2. \end{aligned}

Pour remettre à l’échelle initiale nos erreurs calculées par cette fonction, on prendra juste sa racine carrée. La fonction ainsi obtenue se nomme la racine carrée de l’erreur quadratique moyenne notée RMSE (Root Mean Squared Error).

Voici un exemple pour illustrer le calcul où Wall-E estime la valeur de seulement cinq échantillons (avec cinq différences).

Différences-1007-24213
Erreurs AE100724213
Erreurs SE10 0004941764169

Calcul de la MAE

MAE(a,b)=100+7+2+42+135=32.8.\text{MAE}(a, b) = \frac{100 + 7 + 2 + 42 + 13}{5} = 32.8.

Calcul de la RMSE

RMSE(a,b)=10000+49+4+1764+1695=48.96.\text{RMSE}(a, b) = \sqrt{\frac{10\,000 + 49 + 4 + 1764 + 169}{5}} = 48.96.

Pourquoi choisir l’une ou l’autre ? Pour répondre à cette question, introduisons Eve.

Crédits : Disney/PIXAR

En plus de sa capacité à distinguer les objets organiques, elle possède un système d’auto-défense sophistiqué. Elle a été entraînée à estimer la distance (en centimètres) entre l’impact de ses tirs et le centre de la cible. Eve entraîne deux modèles afin de trouver celui qui minimisera les erreurs.

Erreur 1Erreur 2Erreur 3Erreur 4MAE
Modèle 1200005
Modèle 265645.25
Erreur 1Erreur 2Erreur 3Erreur 4RMSE
Modèle 12000010
Modèle 265645.31

Ici on observe que la MAE du modèle 1 est plus petite que celle du modèle 2 donc Eve choisira le modèle 1 pour estimer ses tirs. Sauf que dans le premier modèle on observe qu’Eve ne fait quasiment aucune erreur sauf sur son premier tir où elle se trompe de 20 cm. Une quantité non négligeable et dangereuse car elle pourrait blesser quelqu’un si son arsenal n’est pas suffisamment précis.

Dans le second tableau, c’est complètement différent : on observe que la RMSE du modèle 1 est beaucoup plus mauvaise que celle du modèle 2 puisqu’elle affiche une erreur beaucoup plus grande. Eve aura donc tendance à choisir le modèle 2 dans ce cas. En fait, la RMSE pénalise beaucoup plus les grandes erreurs que la MAE.

Si Eve privilégie la Mean Absolute Error (MAE), cela signifie qu’elle souhaite minimiser les écarts absolus entre l’impact de son tir et la cible. Cela suggère que pour Eve, chaque écart a la même importance. Un écart de 20 unités est considéré comme vingt fois plus important qu’un écart de 1 unité.

En revanche, si Eve choisit de privilégier la Root Mean Squared Error (RMSE), cela signifie qu’elle veut mettre l’accent sur les gros écarts. Dans ce cas, les erreurs plus importantes ont un poids plus significatif. En effet, un écart de 20 unités est 400 fois plus important qu’un écart d’une unité. Donc, si Eve veut éliminer les tirs avec de très gros écarts, le modèle basé sur RMSE serait plus adapté.

Ces choix de fonctions de coût dépendent des objectifs d’Eve : si elle veut réduire les gros écarts, elle privilégiera le MSE. En revanche, si elle veut une évaluation équilibrée de tous les écarts, elle optera pour le MAE. Aussi, il existe d’autres manières de mesurer les erreurs mais nous n’en parlerons pas ici.

Un Petit Pas Pour le Robot, un Grand Pas Pour l’Algorithme

Ce qui plaît le plus à Wall-E c’est d’apprendre par lui-même quels sont les paramètres qui minimisent la fonction coût, c’est-à-dire les paramètres qui nous offrent le meilleur modèle possible. Pour trouver ces paramètres optimaux, Wall-E utilise un algorithme d’optimisation bien connu appelé descente de gradient. Imaginez cette étape comme si Wall-E ajustait minutieusement les boutons de son modèle mathématique pour atteindre le niveau d’expertise nécessaire dans la tâche de prédiction du prix de l’or en fonction de sa pureté.

On Descend !

L’idée de la descente de gradient est simple : visualisez Wall-E perdu sur les flancs d’une montagne de déchets dans un brouillard épais en train de recycler ce qui lui reste à faire. Malheureusement pour lui, ses piles commencent à s’atténuer dangereusement et il doit donc rejoindre son petit vaisseau qui se trouve au point le plus bas, mais il ne peut voir que les pentes immédiates autour de lui. Ainsi, à chaque pas de longueur δ\delta (la lettre delta en grec), il choisit la direction qui le fait descendre le plus rapidement possible. Au fur et à mesure qu’il avance, il ajuste sa direction en fonction des pentes qu’il perçoit, se rapprochant progressivement du point le plus bas.

Simulation de la descente de gradient avec un pas de 0.2 unité.
Crédits : Disney/PIXAR

Évidemment, le choix de la valeur δ\delta est crucial dans la descente de gradient. Car imaginez que Wall-E se déplace avec des pas trop petits : il arrivera en bas dans beaucoup trop de temps. Ou qu’il utilise son jetpack pour s’envoler sur des distances très grandes : il risque de passer au-dessus de son refuge.

Simulation de la descente de gradient avec un pas de 0.02 unité.
Simulation de la descente de gradient avec un pas de 0.9 unité.

Revenons à notre problème initial. La montagne de déchets symbolise notre fonction coût, les paramètres de position de Wall-E sur la montagne représentent les paramètres de notre modèle de régression linéaire et les pas traduisent ce que l’on appelle le taux d’apprentissage de Wall-E (Learning Rate en anglais). Ainsi, en décomposant les actions de Wall-E algorithmiquement, on a :

Γ(a,b)aetΓ(a,b)b\frac{\partial \Gamma(a, b)}{\partial a} \quad \text{et} \quad \frac{\partial \Gamma(a, b)}{\partial b}

Les mathématiciens l’auront bien compris, ce n’est autre qu’un calcul de dérivée d’une fonction à plusieurs variables.

a=aδ×Γ(a,b)ab=bδ×Γ(a,b)b\begin{aligned} a^* &= a - \delta \times \frac{\partial \Gamma(a, b)}{\partial a} \\ b^* &= b - \delta \times \frac{\partial \Gamma(a, b)}{\partial b} \end{aligned}

Ainsi, les nouveaux paramètres sont juste définis comme l’ancienne position à laquelle on retranche le taux d’apprentissage δ\delta multiplié par la valeur de la pente. Par analogie, c’est la position de Wall-E après avoir fait un pas dans la direction où la pente est la plus forte.

Il faut bien comprendre que la descente de gradient est un processus itératif, c’est-à-dire qui se répète de nombreuses fois jusqu’à ce que Wall-E atteigne un point où la fonction coût est minimale et ses prédictions sont aussi précises que possible.

En ce qui concerne le taux d’apprentissage noté δ\delta, quelques détails méritent d’être éclaircis. Comme dans la métaphore précédente, le choix de la valeur de δ\delta est essentiel. Un δ\delta trop petit pourrait ralentir la convergence, car les ajustements aux paramètres seraient minuscules à chaque étape, tandis qu’un δ\delta trop grand pourrait provoquer des oscillations ou même empêcher la convergence, car les ajustements pourraient dépasser le minimum recherché. Choisir judicieusement la valeur de δ\delta est donc essentiel pour que l’algorithme de Wall-E converge efficacement vers la solution optimale.

Quand Est-ce Qu’On Arrive ?

Ça fait un petit moment maintenant que notre robot courageux avance désespérément à tâtons, aveuglé par mère nature. Il se demande bien quand est-ce qu’il va arriver en bas de la montagne. Tout comme dans cette situation, en machine learning, atteindre le minimum de la fonction coût — l’équivalent du refuge pour Wall-E — peut sembler délicat. Sa position est incertaine, et pour y arriver, Wall-E doit ajuster sa progression en tenant compte de la longueur de ses pas et du nombre de ces pas.

Pour s’orienter, Wall-E doit donc enregistrer scrupuleusement chacune de ses positions le long du flanc de la montagne, ce que l’on nomme l’histoire de la descente. En gardant une trace précise de chaque pas, il peut ensuite dessiner sa trajectoire, créant ainsi une « courbe de descente ». Cela lui permet de visualiser son chemin parcouru, de mesurer ses progrès et de déterminer s’il est proche du point le plus bas. Voici un exemple ci-dessous, en supposant que Wall-E soit placé au hasard sur la montagne.

Valeur de la descente en fonction du nombre de pas. La longueur du pas est fixée à 0.1 unité.
Crédits : Disney/PIXAR

Dans le domaine du machine learning, l’histoire de la descente se nomme en fait l’histoire du coût car elle donne les valeurs de la fonction coût en fonction de variables clés telles que le taux d’apprentissage et le nombre d’itérations de l’algorithme de la descente de gradient.

D’ailleurs sa représentation graphique que l’on a nommée courbe de descente se nomme en réalité courbe d’apprentissage et est essentielle pour évaluer la performance d’un modèle car elle illustre de façon dynamique l’évolution de la précision du modèle.

Dans ce cas particulier, après une dizaine d’étapes, Wall-E semble cesser de descendre davantage, indiquant qu’il a atteint son refuge. Les 40 pas supplémentaires sont donc inutiles. Cette information est cruciale en informatique, car elle nous permet d’éviter d’exécuter inutilement l’algorithme, potentiellement économisant du temps et des ressources, surtout lorsque certaines simulations peuvent prendre des délais considérables, allant de jours à des semaines.

Dans ses Circuits Imprimés : l’Estimation du Prix de l’Or

Mais que se passe-t-il exactement dans le cerveau électronique de notre adorable robot ? Avant d’effectuer la moindre addition, Wall-E traduit non seulement l’ensemble des données sous forme de tableau mais aussi les paramètres du modèle et les gradients : une sorte de langage crypté pour les machines que l’on appelle forme matricielle qui simplifie grandement les calculs. Plus précisément, cela donne naissance à un vecteur Y\mathbf{Y} composé de nn éléments correspondant au prix des nn échantillons d’or,

Y=[y(1)y(2)y(n)]\mathbf{Y} = \begin{bmatrix} y^{(1)} \\ y^{(2)} \\ \vdots \\ y^{(n)} \end{bmatrix}

accompagné d’une matrice X\mathbf{X} de nn lignes et m+1m+1 colonnes qui englobe avec précision chaque feature mm (ici il s’agit seulement de la pureté donc il n’y en a qu’une seule, m=1m = 1) et une colonne ne contenant que des 11 qu’on appellera « biais » :

X=[x(1)1x(2)1x(n)1].\mathbf{X} = \begin{bmatrix} x^{(1)} & 1 \\ x^{(2)} & 1 \\ \vdots & \vdots \\ x^{(n)} & 1 \end{bmatrix}.

Cette dernière nous permet simplement d’effectuer les calculs matriciels nécessaires à l’apprentissage. À noter que de manière générale on a :

X=[x1(1)xm(1)1x1(n)xm(n)1].\mathbf{X} = \begin{bmatrix} x^{(1)}_1 & \cdots & x^{(1)}_m & 1 \\ \vdots & \ddots & \vdots & \vdots \\ x^{(n)}_1 & \cdots & x^{(n)}_m & 1 \end{bmatrix}.

En parallèle, un vecteur paramètre P\mathbf{P} (une colonne) fait son entrée, regroupant soigneusement tous les paramètres de notre modèle, soit aa et bb :

P=[ab].\mathbf{P} = \begin{bmatrix} a \\ b \end{bmatrix}.

N’oubliez pas que l’on cherche P\mathbf{P} tel qu’il minimise la fonction coût. Grâce à cela, Wall-E peut exprimer toutes les étapes d’apprentissage facilement et estimer le prix d’une pépite d’or au prix inconnu :

Γ(P)=1n(F(X)Y)(F(X)Y)\Gamma(\mathbf{P}) = \frac{1}{n}\left(\mathbf{F(X) - Y}\right) \cdot \left(\mathbf{F(X) - Y}\right)

\cdot est le produit scalaire.

PΓ(P)=1nX(F(X)Y)\frac{\partial}{\partial \mathbf{P}} \Gamma(\mathbf{P}) = \frac{1}{n}\mathbf{X} \cdot \left(\mathbf{F(X) - Y}\right)

et à appliquer itérativement la descente de gradient pour mettre à jour le paramètre P\mathbf{P} :

P=PδPΓ(P)\mathbf{P^*} = \mathbf{P} - \delta \frac{\partial}{\partial \mathbf{P}} \Gamma(\mathbf{P})

P\mathbf{P^*} est le nouveau paramètre.

Wall-E, en appliquant minutieusement toutes les étapes, est maintenant prêt à estimer le prix de l’or selon la pureté que vous lui fournissez ! Voici la courbe finale qu’il obtient.

Courbe de régression linéaire sur le prix de l’or en fonction de sa pureté

Les paramètres aa et bb de la droite en bleu sont respectivement égaux à 493.56493.56 et 886.18886.18. Pour la descente de gradient, il a d’ailleurs utilisé un taux d’apprentissage égal à 0.20.2 et effectué une vingtaine d’itérations de l’algorithme.

On peut donc facilement observer qu’en choisissant un alliage d’or de pureté 0.60.6, son prix serait estimé à environ 12001200 boulons.

Transfert de Connaissances et Performance du Modèle : des Leçons Applicables à Toutes les Régressions

Toutes les étapes et les calculs effectués pour estimer le prix de l’or en fonction de sa pureté via une régression linéaire sont fondamentalement similaires à celles réalisées pour la régression non linéaire ou d’autres types de modèles de machine learning !

Wall-E, le petit robot passionné par l’estimation du prix de l’or, accomplit une séquence bien définie pour entraîner son modèle, minimiser l’erreur, et ajuster les paramètres pour prédire le prix de l’or en fonction de sa pureté. Le processus implique la transformation des données en matrices, la création du modèle, la définition de la fonction de coût pour évaluer les erreurs, la minimisation de cette fonction en ajustant itérativement les paramètres, et enfin, l’obtention du paramètre optimal pour estimer avec précision le prix de l’or.

Ce processus est flexible et peut être appliqué à différentes situations et types de modèles d’apprentissage, s’adaptant ainsi à des problèmes plus complexes nécessitant des modèles plus sophistiqués. Le succès de Wall-E dans l’estimation du prix de l’or montre la puissance et l’efficacité de ces méthodes, ouvrant la voie à des applications plus vastes et diversifiées du machine learning dans des contextes variés.

Mais il reste encore une dernière chose à voir : le Coefficient de Détermination, aussi connu sous le nom de R2R^2. Il joue un rôle crucial dans l’évaluation de la performance du modèle de Wall-E car il mesure à quel point le modèle s’ajuste aux données par rapport aux variations de celles-ci. En termes mathématiques, il s’écrit de la façon suivante :

R2=1k=1n(y(k)f(x(k)))2k=1n(y(k)yˉ)2R^2 = 1 - \frac{\sum_{k=1}^{n} \left(y^{(k)} - f(x^{(k)})\right)^2}{\sum_{k=1}^{n} \left(y^{(k)} - \bar{y}\right)^2}

yˉ\bar{y} n’est autre que la moyenne des valeurs de nos échantillons (dans notre cas c’est simplement le prix moyen). Sous ses airs barbares, se cache simplement une fraction simple à comprendre. En la réécrivant de manière plus digeste on a :

R2=1ErreursVariance.R^2 = 1 - \frac{\text{Erreurs}}{\text{Variance}}.

Souvenez-vous (voir l’article Battre le Maître du Jeu) que la variance est une mesure de la dispersion des valeurs d’échantillons.

Ainsi, pour Wall-E, obtenir un R2R^2 proche de 11 serait idéal, impliquant que la fraction de droite est proche de 00. Cela signifie que les erreurs sont largement négligeables face à la manière dont se dispersent les données et que le modèle proposé par Wall-E s’ajuste bien aux valeurs des échantillons.

A contrario, si R2R^2 est proche de 00, cela indiquerait que le modèle n’explique pas bien la variabilité des données, et les prédictions peuvent être moins fiables car les erreurs sont du même ordre de grandeur que la variance.

Avec toutes ces explications, Wall-E s’est lancé dans le calcul du coefficient de détermination R2R^2 pour évaluer la qualité de son modèle précédent. Le résultat est plutôt réjouissant, avec un score honorable de 0.930.93. En d’autres termes, le modèle s’ajuste remarquablement bien aux données, couvrant environ 93% de la variabilité observée. Une performance qui confirme l’efficacité de son approche dans l’estimation du prix de l’or en fonction de sa pureté !

Crédits : Disney/PIXAR

Cependant, Wall-E, en tant que perfectionniste inlassable, ne se contente pas des succès déjà obtenus. Il cherche constamment des moyens d’améliorer son modèle.

Ainsi, il décide de transcender le modèle linéaire initial en optant pour une approche polynomiale (de degré 2). Il modifie la fonction de référence en f(x)=ax2+bx+cf(x) = ax^2 + bx + c et répète méticuleusement toutes les étapes de l’algorithme, ne laissant rien au hasard. Voici les résultats qu’il a obtenus.

Courbe de régression polynomiale de degré 2 sur le prix de l’or en fonction de sa pureté

La courbe s’ajuste vraiment bien aux données et pour cause : avec des paramètres valant respectivement 273.84273.84, 404.43404.43 et 837.08837.08, il obtient un coefficient de détermination remarquable de 97 % ! Observez ici qu’un échantillon d’or de pureté 0.60.6 vaudrait environ 11601160 boulons.

En contemplant cette réussite, on ne peut s’empêcher d’anticiper avec enthousiasme les futures explorations de Wall-E dans le monde complexe de la modélisation et de l’apprentissage automatique.

Exploration Réussie des Méandres de la Régression : Prochaine Étape, le Fascinant Monde de la Classification

Dans cette exploration captivante des problèmes de régression, nous avons plongé dans l’univers fascinant de la modélisation mathématique, avec Wall-E comme guide intrépide. Des descentes de gradient aux courbes d’apprentissage, en passant par la définition des erreurs, nous avons démystifié les aspects clés de la régression, révélant la magie sous-jacente du machine learning.

Alors que nous laissons Wall-E reposer ses circuits après ses exploits de régression, préparez-vous à embarquer pour une nouvelle aventure dans notre prochain article. Nous plongerons dans les mystères des problèmes de classification, explorant comment les modèles peuvent apprendre à catégoriser et à prendre des décisions dans un monde de données complexes. Restez connectés pour une immersion encore plus profonde dans l’univers dynamique de l’apprentissage automatique avec Wall-E comme votre fidèle compagnon de voyage !

Bibliographie