Régression linéaire

Quelques pas vers l’apprentissage automatique.
26 janvier 2019

J’ai rassemblé ci-dessous des notes que j’ai prises en suivant les tutoriels vidéo de Daniel Shiffman sur les réseaux neuronaux, qui eux-mêmes s’inspirent largement de Make Your Own Neural Network, un livre écrit par Tariq Rashid. Les concepts et les formules ne sont pas de moi, je ne fais que les écrire afin de m’aider à les comprendre et à les mémoriser.

Pente et ordonnée à l’origine

Une droite est traditionnellement représentée par cette équation, dans laquelle m représente la pente et b l’ordonnée à l’origine :

y=mx+b

Dans le cas de la régression linéaire (ou méthode des moindres carrés ordinaire), nous allons calculer la valeur m avec la formule ci-dessous. Cette formule est tirée de cette vidéo réalisée par Daniel Shiffman dans le cadre de son cours Intelligence et apprentissage. Nous pouvons considérer que le numérateur de cette fraction représente la corrélation entre la croissance de la valeur x et celle de la valeur y (qui détermine la pente de notre droite).

m=ni=0(xi¯x)(yi¯y)ni=0(xi¯x)2

Ici, ¯x représente la moyenne de toutes les valeurs x, donc la somme de tous les x divisée par la quantité n de ces valeurs.

¯x=ni=0xin

Quant à b, l’ordonnée à l’origine, nous la calculerons ainsi :

b=¯ym¯x

Contexte

Cette note de blog fait partie de mon projet de recherche Vers un cinéma algorithmique, démarré en avril 2018. Je vous invite à consulter la toute première note du projet pour en apprendre davantage.