Article original : Become an AI Researcher

Nous venons de publier un cours sur la chaîne YouTube de freeCodeCamp.org qui vous apprendra comment devenir chercheur en IA.

Ce cours vous guidera étape par étape, en commençant par les mathématiques fondamentales essentielles à la compréhension de l'IA moderne, avant de plonger dans les bases de PyTorch. Vous découvrirez ensuite les composants de base de l'IA, des réseaux de neurones simples aux architectures multicouches complexes. Le cours se termine par un module approfondi sur les Transformers, la technologie cruciale qui sous-tend les grands modèles de langage (LLMs) et l'IA générative d'aujourd'hui.

Voici les sections de ce cours :

Introduction et aperçu du cours

  • Bienvenue et aperçu du cours

  • Prérequis et configuration pour le cours

Module 1 : Mathématiques fondamentales pour la recherche en IA

  • Leçon de maths : Fonctions (linéaires, quadratiques, cubiques, racine carrée)

  • Leçon de maths : Dérivées (taux de variation)

  • Leçon de maths : Vecteurs (norme, produit scalaire, normalisation)

  • Leçon de maths : Gradients (plus forte pente, dérivées partielles)

  • Leçon de maths : Matrices (multiplication, transposée, identité)

  • Leçon de maths : Probabilités (espérance, probabilité conditionnelle)

Module 2 : Fondamentaux de PyTorch

  • DÉBUT : Fondamentaux de PyTorch et création de tenseurs

  • Leçon PyTorch : Redimensionnement et visualisation (view) des tenseurs

  • Leçon PyTorch : Squeezing et unsqueezing de dimensions

  • Leçon PyTorch : Indexation et slicing de tenseurs

  • Leçon PyTorch : Tenseurs spéciaux (zéros, uns, linspace)

Module 3 : Réseaux de neurones

  • DÉBUT : Coder des réseaux de neurones à partir de zéro

  • Leçon sur les réseaux de neurones : Neurone unique (poids, biais, somme pondérée)

  • Leçon sur les réseaux de neurones : Fonctions d'activation (Sigmoïde, ReLU, tanh)

  • Leçon sur les réseaux de neurones : Réseaux multicouches et rétropropagation

Module 4 : Transformers (pour les grands modèles de langage)

  • DÉBUT : Comprendre les Transformers pour les LLMs

  • Leçon sur les Transformers : Mécanisme d'attention (Requête, Clé, Valeur)

  • Leçon sur les Transformers : Auto-attention et auto-attention causale

  • Leçon sur les Transformers : Rotary Positional Embeddings (RoPE)

  • Leçon sur les Transformers : Attention multi-têtes

  • Leçon sur les Transformers : Bloc Transformer (Feed-Forward, Add & Norm)

  • Tokenisation (pour l'architecture GPT)

Conclusion

  • Conclusion et prochaines étapes

Regardez le cours complet sur la chaîne YouTube de freeCodeCamp.org (3 heures de visionnage).