Article original : Become an AI Researcher
Nous venons de publier un cours sur la chaîne YouTube de freeCodeCamp.org qui vous apprendra comment devenir chercheur en IA.
Ce cours vous guidera étape par étape, en commençant par les mathématiques fondamentales essentielles à la compréhension de l'IA moderne, avant de plonger dans les bases de PyTorch. Vous découvrirez ensuite les composants de base de l'IA, des réseaux de neurones simples aux architectures multicouches complexes. Le cours se termine par un module approfondi sur les Transformers, la technologie cruciale qui sous-tend les grands modèles de langage (LLMs) et l'IA générative d'aujourd'hui.
Voici les sections de ce cours :
Introduction et aperçu du cours
Bienvenue et aperçu du cours
Prérequis et configuration pour le cours
Module 1 : Mathématiques fondamentales pour la recherche en IA
Leçon de maths : Fonctions (linéaires, quadratiques, cubiques, racine carrée)
Leçon de maths : Dérivées (taux de variation)
Leçon de maths : Vecteurs (norme, produit scalaire, normalisation)
Leçon de maths : Gradients (plus forte pente, dérivées partielles)
Leçon de maths : Matrices (multiplication, transposée, identité)
Leçon de maths : Probabilités (espérance, probabilité conditionnelle)
Module 2 : Fondamentaux de PyTorch
DÉBUT : Fondamentaux de PyTorch et création de tenseurs
Leçon PyTorch : Redimensionnement et visualisation (view) des tenseurs
Leçon PyTorch : Squeezing et unsqueezing de dimensions
Leçon PyTorch : Indexation et slicing de tenseurs
Leçon PyTorch : Tenseurs spéciaux (zéros, uns, linspace)
Module 3 : Réseaux de neurones
DÉBUT : Coder des réseaux de neurones à partir de zéro
Leçon sur les réseaux de neurones : Neurone unique (poids, biais, somme pondérée)
Leçon sur les réseaux de neurones : Fonctions d'activation (Sigmoïde, ReLU, tanh)
Leçon sur les réseaux de neurones : Réseaux multicouches et rétropropagation
Module 4 : Transformers (pour les grands modèles de langage)
DÉBUT : Comprendre les Transformers pour les LLMs
Leçon sur les Transformers : Mécanisme d'attention (Requête, Clé, Valeur)
Leçon sur les Transformers : Auto-attention et auto-attention causale
Leçon sur les Transformers : Rotary Positional Embeddings (RoPE)
Leçon sur les Transformers : Attention multi-têtes
Leçon sur les Transformers : Bloc Transformer (Feed-Forward, Add & Norm)
Tokenisation (pour l'architecture GPT)
Conclusion
- Conclusion et prochaines étapes
Regardez le cours complet sur la chaîne YouTube de freeCodeCamp.org (3 heures de visionnage).