From 484d47ad6add3650cec4f20a9c07df198fe97972 Mon Sep 17 00:00:00 2001 From: John Samuel Date: Tue, 10 Sep 2024 13:37:43 +0200 Subject: [PATCH] Rearrange slides --- .../cours/2024/IA-DeepLearning/cours1.html | 223 +-- .../cours/2024/IA-DeepLearning/cours2.html | 1570 ++--------------- .../cours/2024/IA-DeepLearning/cours3.html | 581 +++--- 3 files changed, 570 insertions(+), 1804 deletions(-) diff --git a/fr/enseignement/cours/2024/IA-DeepLearning/cours1.html b/fr/enseignement/cours/2024/IA-DeepLearning/cours1.html index 7a6b91c9..2514eebb 100644 --- a/fr/enseignement/cours/2024/IA-DeepLearning/cours1.html +++ b/fr/enseignement/cours/2024/IA-DeepLearning/cours1.html @@ -703,166 +703,9 @@

Apprentissage machine

-
-
-

1.1. Histoire scientifique: Intelligence Artificielle

-
-
-

Intelligence Artificielle [Pan 2016, Jaakkola 2019]

-
    -
  • La méthode d'apprentissage profond
  • -
  • Les fusions et acquisitions d'entreprises -
      -
    • DNNresearch par Google en 2013 [1] : vision par ordinateur.
    • -
    • LinkedIn par Microsoft en 2016 [2] : réseaux sociaux professionnels.
    • -
    -
  • -
  • Les chatbots -
      -
    • Xiaobing par Microsoft: « comprendre » et répondre aux questions des utilisateurs en - langage naturel. -
    • -
    -
  • -
  • Les programmes de jeux -
      -
    • AlphaGo par Google : victoire historique contre le champion du jeu de go Lee Sedol en - 2016.
    • -
    -
  • -
  • L'utilisation dans les hôpitaux -
      -
    • Watson par IBM : une plateforme d'IA qui a été utilisée dans le domaine de la santé pour - aider les professionnels de la santé à analyser et à interpréter des données - médicales complexes.
    • -
    -
  • -
  • La compréhension du langage naturel -
      -
    • Baidu : moteur de recherche.
    • -
    -
  • -
-
- -
-
-
-

1.1. Histoire scientifique: Intelligence Artificielle

-
-
-

Intelligence Artificielle [Pan 2016, Jaakkola 2019]

-
    -
  • 1956: la definition d'IA -
      -
    • La capacité des machines à comprendre, à penser et à apprendre d'une manière similaire à - celle des êtres humains
    • -
    • Proposée par J. McCarthy, M. L. Minsky, H. Simon, A. Newell, C. E. Shannon, N. Rochester,... -
    • -
    -
  • -
  • 1970-2000 -
      -
    • 1983: le rapport par James Lighthill : un rapport critiquant la recherche en IA au - Royaume-Uni, ce qui a conduit à un ralentissement temporaire des financements publics - pour l'IA, connu sous le nom de « l'effet Lighthill ».
    • -
    • 1982-1992: l'échec du développement d'un ordinateur intelligent par le Japon
    • -
    • 1984: la construction manuelle d'une encyclopédie de la connaissance (Cyc) par - Douglas Lenat à l'Université Stanford. Cyc est un projet d'IA visant à créer une base de - connaissances informatisée capable de raisonner et de répondre à des questions complexes. -
    • -
    -
  • -
-
- -
-
-
-

1.1. Histoire scientifique: Intelligence Artificielle

-
-
-

Intelligence Artificielle 2.0 [Pan 2016, Jaakkola 2019]

-
    -
  • 1990s-présent -
      -
    • Popularité de l'Internet
    • -
    • l'utilisation des capteurs
    • -
    • Big Data
    • -
    • l'e-commerce
    • -
    -
  • -
  • Des demandes sociales pour IA -
      -
    • des villes intelligentes
    • -
    • médecine
    • -
    • transport
    • -
    • les automobiles sans conducteur
    • -
    • les smartphones
    • -
    -
  • -
-
- -
-
-
-

1.1. Histoire scientifique: Intelligence Artificielle

-
-
-

Intelligence Artificielle 2.0 [Pan 2016]

-
    -
  • Les technologies à l'origine de l'IA -
      -
    • L'IA basée sur des données massives (Big Data)
    • -
    • L'intelligence de la foule sur Internet
    • -
    • Le savoir médiatique croisé
    • -
    • L'intelligence hybride homme-machine
    • -
    • Systèmes autonomes et intelligents
    • -
    -
  • -
  • L'avenir -
      -
    • L'IA explicative et générique
    • -
    • la cognition, l'apprentissage et l'inférence trans-médiatiques.
    • -
    • l'intelligence communautaire à partir de l'intelligence des foules basée sur - l'intelligence - individuelle
    • -
    • des systèmes autonomes et intelligents pour le développement de machines et de produits - intelligents.
    • -
    -
  • -
-
- -
-

1.2. Les fondements de l'IA

+

1. Les fondements de l'IA

Objectifs

@@ -881,7 +724,7 @@

Objectifs

-

1.2. Les fondements de l'IA

+

1. Les fondements de l'IA

1.2. Les fondements de l'IA

@@ -903,7 +746,7 @@

1.2. Les fondements de l'IA

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique et raisonnement

@@ -940,7 +783,7 @@

Logique et raisonnement

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique propositionnelle

@@ -969,7 +812,7 @@

Logique propositionnelle

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique propositionnelle

@@ -993,7 +836,7 @@

Logique propositionnelle

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique propositionnelle

@@ -1015,7 +858,7 @@

Logique propositionnelle

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique propositionnelle

@@ -1044,7 +887,7 @@

Logique propositionnelle

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique du premier ordre

@@ -1072,7 +915,7 @@

Logique du premier ordre

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique du premier ordre

@@ -1097,7 +940,7 @@

Logique du premier ordre

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique du premier ordre

@@ -1122,7 +965,7 @@

Logique du premier ordre

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique du premier ordre

@@ -1154,7 +997,7 @@

Logique du premier ordre

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique du premier ordre

@@ -1193,7 +1036,7 @@

Logique du premier ordre

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique du premier ordre

@@ -1220,7 +1063,7 @@

Logique du premier ordre

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique du premier ordre

@@ -1239,7 +1082,7 @@

Logique du premier ordre

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique modale

@@ -1265,7 +1108,7 @@

Logique modale

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique modale

@@ -1292,7 +1135,7 @@

Logique modale

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique modale

@@ -1318,7 +1161,7 @@

Logique modale

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Logique modale

@@ -1345,7 +1188,7 @@

Logique modale

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Raisonnement automatisé

@@ -1373,7 +1216,7 @@

Raisonnement automatisé

-

1.2.1. Logique et raisonnement

+

1.1. Logique et raisonnement

Raisonnement automatisé

@@ -1407,7 +1250,7 @@

Raisonnement automatisé

-

1.2.2. Représentation des connaissances

+

1.2. Représentation des connaissances

Introduction

@@ -1440,7 +1283,7 @@

Introduction

-

1.2.2. Représentation des connaissances

+

1.2. Représentation des connaissances

Types de connaissances

@@ -1468,7 +1311,7 @@

Types de connaissances

-

1.2.2. Représentation des connaissances

+

1.2. Représentation des connaissances

Types de connaissances

@@ -1494,7 +1337,7 @@

Types de connaissances

-

1.2.2. Représentation des connaissances

+

1.2. Représentation des connaissances

Représentation des connaissances déclaratives

@@ -1515,7 +1358,7 @@

Représentation des connaissances déclaratives

-

1.2.2. Représentation des connaissances

+

1.2. Représentation des connaissances

Représentation des connaissances déclaratives

@@ -1541,7 +1384,7 @@

Représentation des connaissances déclaratives

-

1.2.3. Agents intelligents

+

1.3. Agents intelligents

Introduction

@@ -1572,7 +1415,7 @@

Introduction

-

1.2.3. Agents intelligents

+

1.3. Agents intelligents

Types d'agents intelligents

@@ -1606,7 +1449,7 @@

Types d'agents intelligents

-

1.2.3. Agents intelligents

+

1.3. Agents intelligents

Types d'agents intelligents

@@ -1637,7 +1480,7 @@

Types d'agents intelligents

-

1.2.3. Agents intelligents

+

1.3. Agents intelligents

Types d'agents intelligents

@@ -1667,7 +1510,7 @@

Types d'agents intelligents

-

1.2.3. Agents intelligents

+

1.3. Agents intelligents

Types d'agents intelligents

@@ -1696,7 +1539,7 @@

Types d'agents intelligents

-

1.2.4. Apprentissage machine

+

1.4. Apprentissage machine

3 approches

@@ -1734,7 +1577,7 @@

3 approches

-

1.2.4. Apprentissage machine

+

1.4. Apprentissage machine

3 approches

@@ -1761,7 +1604,7 @@

3 approches

-

1.2.5. Apprentissage profond

+

1.5. Apprentissage profond

Apprentissage profond

diff --git a/fr/enseignement/cours/2024/IA-DeepLearning/cours2.html b/fr/enseignement/cours/2024/IA-DeepLearning/cours2.html index d85738ec..542e3401 100644 --- a/fr/enseignement/cours/2024/IA-DeepLearning/cours2.html +++ b/fr/enseignement/cours/2024/IA-DeepLearning/cours2.html @@ -705,1084 +705,7 @@

Apprentissage machine

-

2.1. Introduction à l'apprentissage machine

-
-
-

L'apprentissage machine, également connu sous le nom de machine learning (ML), est un domaine de - l'intelligence artificielle (IA) qui se concentre sur le développement de techniques permettant aux - ordinateurs d'apprendre à partir de données. L'objectif principal de l'apprentissage machine est de - permettre aux systèmes informatiques de prendre des décisions ou de réaliser des tâches sans être - explicitement programmés, en s'appuyant sur des modèles et des motifs appris à partir des - données.

-

Principes fondamentaux de l'apprentissage machine

-
    -
  • Données d'entraînement : L'apprentissage machine commence par des données. Ces données, - appelées données d'entraînement, sont utilisées pour enseigner au modèle les modèles et les - relations dans lesquels il doit identifier.
  • -
  • Modèles : Les modèles en apprentissage machine sont des représentations mathématiques qui - capturent les relations entre les différentes caractéristiques des données. Ces modèles sont - entraînés à partir des données d'entraînement et sont capables de généraliser pour faire des - prédictions sur de nouvelles données non vues. -
  • -
-
- -
-
-
-

2.1. Introduction à l'apprentissage machine

-
-
-

Principes fondamentaux de l'apprentissage machine

-
    -
  • Entraînement et apprentissage : L'entraînement d'un modèle implique de l'exposer aux données - d'entraînement, lui permettant d'ajuster ses paramètres pour minimiser les erreurs de prédiction. - L'apprentissage se produit lorsque le modèle améliore sa capacité à faire des prédictions précises. -
  • -
  • Validation et test : Après l'entraînement, le modèle est évalué sur des données de validation - et de test pour s'assurer qu'il généralise bien aux données non vues. Cela aide à éviter le - surajustement, où le modèle apprend trop spécifiquement les données d'entraînement et ne peut pas - généraliser correctement. -
  • -
-
- -
-
-
-

2.1.1. Positionnement de l'apprentissage machine

-
-
-

L'apprentissage machine occupe une place centrale dans le paysage technologique actuel et a un impact - significatif dans divers domaines.

-
    -
  • Intelligence Artificielle (IA) : L'apprentissage machine est une composante essentielle de - l'intelligence artificielle. Il permet aux systèmes informatiques de tirer des conclusions, - d'apprendre à partir d'expériences passées et d'améliorer leur performance sans être explicitement - programmés.
  • -
  • Informatique et Technologie : L'apprentissage machine est largement utilisé dans les - applications technologiques, y compris la vision par ordinateur, la reconnaissance vocale, la - traduction automatique, les chatbots, et diverses autres applications qui exploitent la capacité des - modèles à apprendre des données.
  • -
  • Santé : Dans le domaine de la santé, l'apprentissage machine est utilisé pour la prédiction - de maladies, l'analyse d'images médicales, la personnalisation des traitements, la découverte de - médicaments, et la gestion des dossiers médicaux électroniques.
  • -
  • Finance : Les institutions financières utilisent l'apprentissage machine pour la détection de - fraudes, la prévision de tendances du marché, l'analyse de crédit, et l'optimisation des - portefeuilles d'investissement.
  • -
  • Industrie : Dans le secteur industriel, l'apprentissage machine est appliqué à la maintenance - prédictive, à l'optimisation de la chaîne d'approvisionnement, à la qualité de production, et à la - robotique.
  • -
-
- -
-
-
-

2.1.2. Approches de l'apprentissage machine

-
-
-

Approches

-
    -
  • Apprentissage supervisé : Le modèle est entraîné sur un ensemble de données étiquetées où les - exemples d'entrée sont associés à des sorties désirées. Le modèle apprend à faire des prédictions - sur de nouvelles données en se basant sur ces associations.
  • -
  • Apprentissage non supervisé : Le modèle est exposé à des données non étiquetées et cherche à - découvrir des modèles, des structures ou des relations intrinsèques dans les données.
  • -
  • Apprentissage semi-supervisé : Une combinaison des deux précédents, utilisant à la fois des - données étiquetées et non étiquetées pour l'entraînement.
  • -
  • Apprentissage par renforcement : Le modèle apprend à prendre des décisions en interagissant - avec son environnement. Il reçoit des récompenses ou des pénalités en fonction de ses actions, ce - qui guide son apprentissage.
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation

-
    -
  • Vecteur euclidien: -
      -
    • Un vecteur euclidien est un objet géométrique caractérisé par sa magnitude (longueur) et sa - direction.
    • -
    • Les vecteurs euclidiens sont couramment utilisés pour représenter des données sous forme de - points dans un espace multidimensionnel, où chaque dimension correspond à une - caractéristique ou une variable.
    • -
    -
  • -
  • Espace vectoriel: -
      -
    • Un espace vectoriel est une collection de vecteurs qui peuvent être additionnés entre eux et - multipliés par des nombres (scalaires).
    • -
    -
  • -
  • Vecteur de caractéristiques (features): -
      -
    • Un vecteur de caractéristiques est un vecteur n-dimensionnel qui représente les - caractéristiques ou les attributs d'une entité.
    • -
    -
  • -
  • Espace de caractéristiques: -
      -
    • L'espace de caractéristiques est l'espace vectoriel associé aux vecteurs de - caractéristiques.
    • -
    • Chaque dimension de cet espace représente une caractéristique particulière, et les vecteurs - sont utilisés pour positionner les données dans cet espace en fonction de leurs - caractéristiques.
    • -
    -
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Exemples de caractéristiques

-
    -
  • Images: Dans le contexte des images, les vecteurs de caractéristiques peuvent être construits - à partir des valeurs des pixels. Chaque pixel peut être considéré comme une dimension, et un vecteur - de caractéristiques contiendra les valeurs de tous les pixels, permettant ainsi de représenter une - image sous forme de vecteur.
  • -
  • Textes: Pour les textes, les vecteurs de caractéristiques sont souvent construits à partir de - la fréquence d'apparition des mots, des phrases, ou des tokens dans un document. Cela permet de - représenter le contenu textuel en utilisant des valeurs numériques, ce qui est essentiel pour - l'analyse de texte et la recherche d'informations.
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation

-
    -
  • Construction de caractéristiques1: -
      -
    • La construction de caractéristiques consiste à créer de nouvelles variables ou attributs à - partir de celles déjà présentes dans les données.
    • -
    • Cette étape peut être cruciale pour améliorer les performances des modèles d'apprentissage - machine en introduisant des informations pertinentes et en éliminant du bruit.
    • -
    -
  • -
  • Opérateurs de construction pour les caractéristiques -
      -
    • Les opérateurs de construction sont des fonctions ou des opérations mathématiques qui - permettent de créer de nouvelles caractéristiques à partir de celles existantes.
    • -
    • Parmi les opérateurs couramment utilisés, on trouve les opérateurs d'égalité (comparaisons), - les opérateurs arithmétiques (addition, soustraction, multiplication, division), les - opérateurs de tableau (min, max, moyenne, médiane, etc.), les fonctions de transformation, - etc.
    • -
    -
  • -
-
    -
  1. https://en.wikipedia.org/wiki/Feature_vector
  2. -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Exemple

-
    -
  • Soit Année de naissance et Année de décès deux caractéristiques existantes.
  • -
  • Une nouvelle caractéristique appelée âge est créée. âge = Année de décès - - Année de naissance -
  • -
-

La construction de caractéristiques est une étape essentielle dans le pipeline de prétraitement des - données en apprentissage machine, car elle peut aider à rendre les données plus informatives pour les - algorithmes d'apprentissage.

-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage supervisé

-
    -
  • Le nombre d'exemples d'entraînement (N) : Cela représente la quantité d'exemples de - données que vous avez pour entraîner un modèle supervisé. Chaque exemple d'entraînement se - compose d'un vecteur de caractéristiques (x) et de son label (y).
  • -
  • L'espace de saisie des caractéristiques (X) : C'est l'ensemble de toutes les combinaisons - possibles de vecteurs de caractéristiques qui peuvent être utilisées comme entrée pour le - modèle. Cet espace est défini par les caractéristiques que vous avez extraites des données.
  • -
  • L'espace des caractéristiques de sortie (Y) : Il représente l'ensemble de toutes les - valeurs possibles que peuvent prendre les étiquettes ou les labels.
  • -
  • Exemples d'entraînement (D) : C'est votre ensemble de données d'entraînement, composé de - paires (x, y) où x est le vecteur de caractéristiques et y est le label correspondant.
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage supervisé

-
    -
  • Objectif de l'algorithme d'apprentissage supervisé : Il s'agit de trouver une fonction - (g) qui associe un vecteur de caractéristiques (x) à un label (y). L'ensemble des fonctions - possibles est appelé espace des hypothèses (G). L'objectif est de choisir la fonction (g) qui - minimise l'erreur de prédiction sur les exemples d'entraînement et généralise bien sur de - nouvelles données.
  • -
  • Fonction d'évaluation (F) : Elle indique l'espace des fonctions d'évaluation utilisées - pour évaluer la performance des fonctions hypothétiques. L'objectif est de trouver la fonction - (g) qui renvoie la fonction d'évaluation (f) la plus élevée, c'est-à-dire celle qui donne les - prédictions les plus précises.
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage supervisé

-

Cette formalisation est au cœur de l'apprentissage supervisé, où l'objectif est d'apprendre à partir - d'exemples étiquetés et de trouver une fonction qui puisse prédire de manière précise les étiquettes - pour de nouvelles données non vues.

-
    -
  • Soit \(N\) le nombre d'exemples d'entraînement
  • -
  • Soit \(X\) l'espace de saisie des caractéristiques
  • -
  • Soit \(Y\) l'espace des caractéristiques de sortie (des étiquettes)
  • -
  • Soit \({(x_1, y_1),...,(x_N, y_N)}\) les \(N\) exemples d'entraînement, où -
      -
    • \(x_i\) est le vecteur de caractéristiques de ième exemple - d'entraînement. -
    • -
    • \(y_i\) est son label.
    • -
    -
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage supervisé

-
    -
  • L'objectif de l'algorithme d'apprentissage supervisé est de trouver \(g: X → Y\), où -
      -
    • g est l'une des fonctions de l'ensemble des fonctions possibles G (espace - des - hypothèses)
    • -
    -
  • -
  • Fonction d'évaluation F indiquent l'espace des fonctions d'évaluation, où -
      -
    • \(f: X × Y → R\) telle que g renvoie la fonction d'évaluation la plus - élevée.
    • -
    -
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage non supervisé

-
    -
  • L'espace de saisie des caractéristiques (X) : C'est l'ensemble de toutes les combinaisons - possibles de vecteurs de caractéristiques qui peuvent être utilisées comme entrée pour le modèle en - apprentissage non supervisé. Cet espace est défini par les caractéristiques que vous avez extraites - des données.
  • -
  • L'espace des caractéristiques de sortie (Y) : Il représente l'ensemble des caractéristiques - de sortie potentielles. Contrairement à l'apprentissage supervisé, en apprentissage non supervisé, Y - ne consiste pas en des étiquettes ou des labels prédéfinis, mais plutôt en des transformations, des - représentations, ou des caractéristiques extraites des données d'entrée.
  • -
  • Objectif de l'algorithme d'apprentissage non supervisé : L'objectif est de trouver une - correspondance entre l'espace de saisie des caractéristiques (X) et l'espace des caractéristiques de - sortie (Y). Cela peut impliquer diverses tâches, telles que la réduction de la dimensionnalité, la - classification automatique de données non étiquetées, la détection d'anomalies, la segmentation, ou - la représentation latente des données.
  • -
  • Mise en correspondance X → Y : Cette mise en correspondance peut être réalisée de différentes - manières, selon la tâche d'apprentissage non supervisé spécifique. Par exemple, dans la réduction de - la dimensionnalité, X peut être une représentation à haute dimension des données, tandis que Y - représente la version réduite de ces données, souvent avec moins de dimensions.
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage non supervisé

-
    -
  • Soit \(X\) l'espace de saisie des caractéristiques
  • -
  • Soit \(Y\) l'espace des caractéristiques de sortie (des étiquettes)
  • -
  • L'objectif de l'algorithme d'apprentissage non supervisé est -
      -
    • trouver la mise en correspondance \(X → Y\)
    • -
    -
  • -
-

L'apprentissage non supervisé est utilisé pour explorer et découvrir des modèles, des structures ou des - caractéristiques inhérentes aux données, sans l'utilisation d'étiquettes ou de labels préalables. Il est - couramment utilisé dans des domaines tels que la clustering, l'analyse de composantes principales (PCA), - l'analyse en composantes indépendantes (ICA), et bien d'autres.

-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage semi-supervisé

-
    -
  • L'espace de saisie des caractéristiques (X) : Il s'agit de l'ensemble de toutes les - combinaisons possibles de vecteurs de caractéristiques qui peuvent être utilisés comme entrée pour - le modèle en apprentissage semi-supervisé.
  • -
  • L'espace des caractéristiques de sortie (Y) : Il représente l'ensemble des caractéristiques - de sortie potentielles, mais contrairement à l'apprentissage supervisé, il n'est pas nécessairement - constitué d'étiquettes ou de labels prédéfinis.
  • -
  • Ensemble d'exemples d'exercices étiquetés (l) : Cela correspond à un sous-ensemble d'exemples - qui ont été annotés ou étiquetés avec des valeurs de sortie connues.
  • -
  • Ensembles des vecteurs de caractéristiques non étiquetées (u) : Il s'agit des exemples non - étiquetés, où les valeurs de sortie ne sont pas connues.
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage semi-supervisé

-
    -
  • Objectif de l'algorithme d'apprentissage semi-supervisé : L'objectif principal est de trouver - des étiquettes correctes pour les exemples non étiquetés (apprentissage transductif), ainsi que de - trouver la bonne mise en correspondance entre les caractéristiques d'entrée et les caractéristiques - de sortie (apprentissage inductif). -
      -
    • Apprentissage transductif : Il s'agit de trouver des étiquettes correctes pour les - exemples non étiquetés. Cela revient à prédire les valeurs de sortie pour les exemples non - étiquetés sans nécessairement chercher à généraliser à de nouvelles données.
    • -
    • Apprentissage inductif : Cela concerne la recherche de la bonne mise en - correspondance entre les vecteurs de caractéristiques d'entrée et les caractéristiques de - sortie. Cela peut inclure la généralisation à de nouvelles données en utilisant le modèle - appris.
    • -
    -
  • -
-
- -
-
-
-

2.1.3. Formalisation des problèmes d'apprentissage

-
-
-

Formalisation: Apprentissage semi-supervisé

-
    -
  • Soit \(X\) l'espace de saisie des caractéristiques
  • -
  • Soit \(Y\) l'espace des caractéristiques de sortie (des étiquettes)
  • -
  • Soit \({(x_1, y_1),...,(x_l, y_l)}\) l'ensemble d'exemples d'exercices étiquetés
  • -
  • Soit \({x_{l+1},...,x_{l+u}}\) sont les \(u\) ensembles des vecteurs de caractéristiques non - étiquetées de \(X\).
  • -
  • L'objectif de l'algorithme d'apprentissage semi-supervisé est de faire -
      -
    • l'apprentissage transductif, c'est-à-dire trouver des étiquettes correctes pour - \({x_{l+1},...,x_{l+u}}\).
    • -
    • l'apprentissage inductif, c'est-à-dire trouver la bonne mise en correspondance \(X - → Y\)
    • -
    -
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification: Définition formelle

-
    -
  • Soit \(X\) l'espace de saisie des caractéristiques
  • -
  • Soit \(Y\) l'espace des caractéristiques de sortie (des étiquettes)
  • -
  • L'objectif de l'algorithme de classification (ou classificateur) est de trouver \({(x_1, - y_1),...,(x_l, y_k)}\), c'est-à-dire l'attribution d'une étiquette connue à chaque vecteur de - caractéristique d'entrée, où -
      -
    • \(x_i ∈ X \)
    • -
    • \(y_i ∈ Y \)
    • -
    • \(|X| = l \)
    • -
    • \(|Y| = k \)
    • -
    • \(l >= k\)
    • -
    -
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classificateurs

-
    -
  • Algorithme de classification
  • -
  • Deux types de classificateurs: -
      -
    • Classificateurs binaires attribue un objet à l'une des deux classes
    • -
    • Classificateurs multiclasses attribue un objet à une ou plusieurs classes
    • -
    -
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification binaire

-
- -
Classification binaire
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Linear Classificateurs

-
    -
  • Fonction linéaire attribuant un score à chaque catégorie possible en combinant le vecteur de - caractéristiques d'une instance avec un vecteur de poids, en utilisant un produit de points.
  • -
  • Formalisation : -
      -
    • Soit X être l'espace de saisie des caractéristiques et xi - ∈ X
    • -
    • Soit βk un vecteur de poids pour la catégorie k
    • -
    • score(xi, k) = xi.βk, - score pour l'attribution de la catégorie k à l'instance xi. - La catégorie qui donne le score le plus élevé est - attribuée à la catégorie de l'instance.
    • -
    -
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation

-

Dans le contexte de la classification en apprentissage machine, l'évaluation des performances d'un modèle - implique la compréhension de différents types de prédictions qu'il peut faire par rapport à la réalité. - Les vrais positifs (VP) et les vrais négatifs (VN) sont deux de ces éléments.

-
    -
  • Vrais Positifs (VP/TP) : Les vrais positifs représentent les cas où le modèle prédit - correctement la classe positive. En d'autres termes, il a correctement identifié les exemples qui - appartiennent réellement à la classe que le modèle essaie de prédire.
  • -
  • Vrais Négatifs (VN/FN) : Les vrais négatifs représentent les cas où le modèle prédit - correctement la classe négative. Cela signifie qu'il a correctement identifié les exemples qui - n'appartiennent pas à la classe que le modèle essaie de prédire.
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation

-
- -
Les vrais positifs et les vrais négatifs
-
-
- -
Précision et rappel
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation

-

Soit

-
    -
  • tp: nombre de vrais postifs
  • -
  • fp: nombre de faux positifs
  • -
  • fn: nombre de faux négatifs
  • -
-
- -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation

-

La précision mesure la proportion de prédictions positives faites par le modèle qui étaient - effectivement correctes, tandis que le rappel mesure la proportion d'exemples positifs - réels qui ont été correctement identifiés par le modèle. Alors

-
    -
  • Précision \[p = \frac{tp}{(tp + fp)}\]
  • -
  • Rappel (Recall) \[r = \frac{tp}{(tp + fn)}\] -
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation

-

Le F1-score est la moyenne harmonique de la précision et du rappel. Il fournit une mesure globale de la - performance d'un modèle de classification, tenant compte à la fois de la précision et du rappel. Il est - particulièrement utile lorsque les classes sont déséquilibrées.

-
    -
  • F1-score \[f1 = 2 * \frac{(p * r)}{(p + r)}\]
  • -
  • F1-score: meilleure valeur à 1 (précision et rappel parfaits) et pire à 0.
  • -
-

Le F1-score tient compte à la fois des erreurs de type I (faux positifs) et des erreurs de type - II (faux négatifs), fournissant ainsi une mesure équilibrée de la performance du modèle.

-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation

-
    -
  • \(F_\beta\)-score utilise un facteur réel positif β, où β est choisi de telle sorte que le rappel - est considéré comme β fois plus important que la précision, est :
  • -
  • \(F_\beta\)-score \[F_\beta = (1 + \beta^2) \cdot \frac{\mathrm{p} \cdot \mathrm{r}}{(\beta^2 \cdot - \mathrm{p}) + \mathrm{r}}\]
  • -
  • Exemple: \(F_2\) score: Cette métrique est souvent utilisée dans des situations où le rappel - est jugé plus critique que la précision, par exemple, dans des tâches où la détection des exemples - positifs est particulièrement importante, même si cela entraîne un nombre plus élevé de faux - positifs.
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Le \(F_2\)-score est souvent utilisé dans des domaines où le rappel est considéré comme plus critique que - la précision.

-
    -
  • Détection de Maladies : Dans le domaine médical, en particulier pour la détection de maladies - graves, le F2-score peut être utilisé pour évaluer la performance des modèles. Il est crucial - d'identifier correctement autant de cas positifs que possible, même si cela conduit à quelques faux - positifs.
  • -
  • Sécurité et Détection d'Intrusion : Lors de la détection d'intrusions dans les systèmes - informatiques, il est souvent plus important de minimiser les faux négatifs (intrusions manquées) au - profit de quelques faux positifs, d'où l'utilisation du F2-score.
  • -
  • Recherche Biomédicale : Dans des domaines de recherche biomédicale où la découverte de - certaines caractéristiques ou protéines spécifiques est critique, le F2-score peut être privilégié - pour s'assurer que ces éléments sont correctement identifiés.
  • -
  • Prévision de Catastrophes Naturelles : Lors de la prévision de catastrophes naturelles comme - les tremblements de terre ou les tsunamis, il est essentiel de minimiser les faux négatifs pour - garantir que le maximum d'avertissements est donné, même au prix de quelques alertes erronées.
  • -
  • Recherche en Astronomie : Dans la recherche astronomique, la découverte de nouveaux objets - célestes ou de phénomènes rares peut être cruciale. Le F2-score peut être utilisé pour évaluer les - performances des algorithmes de détection.
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation: matrice de confusion

-

La matrice de confusion est un outil essentiel dans l'évaluation des performances d'un système de - classification. Elle fournit une vue détaillée des prédictions faites par le modèle par rapport aux - classes réelles.

-
    -
  • Chaque ligne de la matrice représente les instances d'une classe prédite.
  • -
  • Chaque colonne représente les instances d'une classe réelle.
  • -
  • Toutes les prédictions correctes sont situées dans la diagonale du tableau.
  • -
  • Les erreurs de prédiction sont représentées par des valeurs situées en dehors de la diagonale - principale.
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation: matrice de confusion

-
- -
Matrice de confusion pour un classificateur SVM pour les chiffres manuscrits (MNIST) -
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Évaluation: matrice de confusion

-
- -
Matrice de confusion pour un perceptron pour les chiffres manuscrits (MNIST)
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-
- -
Classification multiclasse
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse [Aly 2005]

-
    -
  • Transformation en classification binaire -
      -
    • L'approche un contre le reste (Un contre tous)
    • -
    • L'approche un-contre-un
    • -
    -
  • -
  • Extension de la classification binaire -
      -
    • Réseaux de neurones
    • -
    • k-voisins les plus proches
    • -
    -
  • -
  • la classification hiérarchique.
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-
- -
Classification multiclasse
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-

One-vs.-rest (One-vs.-all) strategy

-
- -
La strategie un-contre le rest pour la classification multiclasse
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-

One-vs.-rest or One-vs.-all (OvR, OvA) strategy

-
    -
  • Entraîner un seul classificateur par classe, avec les échantillons de cette classe comme - échantillons positifs et tous les autres comme négatifs.
  • -
  • Chaque classificateur produit un score de confiance réel pour sa décision
  • -
-
- -
La strategie un-contre le rest pour la classification multiclasse
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-

One-vs.-rest or One-vs.-all (OvR, OvA) strategy

-
    -
  • Entrées : -
      -
    • \(L\), un apprenant (algorithme d'entraînement pour les classificateurs binaires)
    • -
    • échantillons \(X\)
    • -
    • étiquettes \(y\), où \(y_i ∈ \{1,..,K \} \) est l'étiquette de l'échantillon \(X_i\) -
    -
  • -
  • Sortie : -
      -
    • une liste de classificateurs \(f_k\), où \(k ∈ \{1,..,K \} \) -
    -
  • -
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-

One-vs.-rest or One-vs.-all (OvR, OvA) strategy

-

Prendre des décisions signifie appliquer tous les classificateurs à un échantillon invisible x et prédire - l'étiquette k pour laquelle le classificateur correspondant rapporte le score de confiance le plus élevé - : \[\hat{y} = \underset{k \in - \{1 \ldots K\}}{\arg\!\max}\; f_k(x)\]

-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-

One-vs.-one strategy

-
- -
La strategie un-contre-un pour la classification multiclasse
-
-
- -
-
-
-

2.2. Méthodes de classification

-
-
-

Classification multiclasse

-

One-vs.-one strategy

-
  • nécessite l'entraînement des \(\frac{K (K - 1)}{2}\) classificateurs binaires
  • -
  • chaque classificateur reçoit les échantillons d'une paire de classes du jeu de formation original, et - doit apprendre à distinguer ces deux classes.
  • -
  • Au moment de la prédiction, un système de vote est appliqué : tous les \(\frac{K (K - 1)}{2}\) - classificateurs sont appliqués à un échantillon non vu et la classe qui a obtenu le plus grand nombre de - prédictions est prédite par le classificateur - combiné. -
  • -
    - -
    La strategie un-contre-un pour la classification multiclasse
    -
    -
    - -
    -
    -
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Neurones biologiques

    @@ -1796,15 +719,15 @@

    Neurones biologiques

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Introduction

    @@ -1815,15 +738,15 @@

    Introduction

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Réseau de neurones

    @@ -1845,15 +768,15 @@

    Réseau de neurones

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Réseau de neurones

    @@ -1871,15 +794,15 @@

    Réseau de neurones

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Les couches

    @@ -1900,15 +823,15 @@

    Les couches

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Les couches

    @@ -1928,15 +851,15 @@

    Les couches

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    L'entraînement

    @@ -1959,15 +882,15 @@

    L'entraînement

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    L'entraînement

    @@ -1985,15 +908,15 @@

    L'entraînement

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Composants des réseaux de neurones artificiels

    @@ -2015,15 +938,15 @@

    Composants des réseaux de neurones artificiels

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Composants des réseaux de neurones artificiels

    @@ -2046,15 +969,15 @@

    Neurones

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Composants des réseaux de neurones artificiels

    @@ -2074,15 +997,15 @@

    Connexions et poids

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Composants des réseaux de neurones artificiels

    @@ -2095,15 +1018,15 @@

    Fonction de propagation

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Composants des réseaux de neurones artificiels

    @@ -2119,15 +1042,15 @@

    Fonction de propagation

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Composants des réseaux de neurones artificiels

    @@ -2147,15 +1070,15 @@

    Fonction de propagation

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron

    @@ -2178,15 +1101,15 @@

    Perceptron

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron

    @@ -2201,15 +1124,15 @@

    Perceptron

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron

    @@ -2220,15 +1143,15 @@

    Perceptron

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron: Définition formelle

    @@ -2250,15 +1173,15 @@

    Perceptron: Définition formelle

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron: Définition formelle

    @@ -2274,15 +1197,15 @@

    Perceptron: Définition formelle

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron : Étapes

    @@ -2299,15 +1222,15 @@

    Perceptron : Étapes

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron : Étapes

    @@ -2320,15 +1243,15 @@

    Perceptron : Étapes

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Fonction d'Échelon (Step Function)

    @@ -2341,15 +1264,15 @@

    Définition

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Fonction d'activation: fonction d'identité

    @@ -2366,15 +1289,15 @@

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Fonction d'activation: pas binaire

    @@ -2391,15 +1314,15 @@

    Dérivée

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Fonction d'activation: fonction sigmoïde

    @@ -2414,15 +1337,15 @@

    Dérivée

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Fonction d'activation: TanH

    @@ -2437,15 +1360,15 @@

    Dérivée

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Fonction d'activation: Rectified linear unit: ReLU

    @@ -2462,15 +1385,15 @@

    Dérivée

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Fonction d'activation: Gaussien

    @@ -2486,15 +1409,15 @@

    Dérivée

    -
    +
    -

    2.3. Réseaux de neurones artificiels

    +

    2.1. Réseaux de neurones artificiels

    Perceptron multiclasse

    @@ -2514,178 +1437,13 @@

    Perceptron multiclasse

    -
    -
    -
    -

    2.4. Réseaux de neurones profonds

    -
    -
    -

    Un réseau de neurones profond, également connu sous le nom de réseau de neurones profondément - hiérarchisé ou réseau neuronal profond (DNN pour Deep Neural Network en anglais), est un type de réseau - de neurones artificiels qui comprend plusieurs couches de traitement, généralement plus de deux. Ces - réseaux sont appelés "profonds" en raison de leur architecture empilée de couches, permettant la - création de représentations hiérarchiques complexes des données.

    -

    Architecture en couches : Les réseaux de neurones profonds sont composés de multiples couches, - généralement divisées en trois types principaux :

    -
      -
    • Couche d'Entrée : Reçoit les données brutes ou caractéristiques en entrée.
    • -
    • Couches Cachées : Effectuent des transformations non linéaires et apprennent des - représentations hiérarchiques des données.
    • -
    • Couche de Sortie : Produit la sortie du réseau, adaptée à la tâche spécifique - (classification, régression, etc.).
    • -
    -
    - -
    -
    -
    -

    2.4. Réseaux de neurones profonds

    -
    -
    -
      -
    • Apprentissage Hiérarchique : Les couches cachées d'un réseau de neurones profond apprennent - des caractéristiques de plus en plus abstraites et complexes à mesure que l'on progresse en - profondeur. Chaque couche représente une abstraction des caractéristiques extraites par les couches - précédentes.
    • -
    • Fonctions d'Activation : Des fonctions d'activation non linéaires, telles que ReLU (Rectified - Linear Unit) ou ses variantes, sont couramment utilisées dans les couches cachées pour permettre au - réseau d'apprendre des relations non linéaires.
    • -
    • Apprentissage Profond : L'apprentissage profond implique l'ajustement simultané des poids de - toutes les couches du réseau pour minimiser l'erreur de prédiction. Cela est généralement réalisé en - utilisant des techniques de rétropropagation et de descente de gradient.
    • -
    • Utilisations : Les réseaux de neurones profonds sont utilisés dans une variété de tâches, - notamment la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la - traduction automatique, la recommandation de contenu, et bien d'autres. Leur capacité à apprendre - des représentations complexes a conduit à des avancées significatives dans de nombreux domaines de - l'intelligence artificielle.
    • -
    -

    L'entraînement de réseaux de neurones profonds peut nécessiter des volumes importants de données et de - puissance de calcul.

    -
    - -
    -
    -
    -

    2.4. Réseaux de neurones profonds

    -
    -
    -

    Il existe plusieurs types de réseaux de neurones profonds.

    -
      -
    • Réseaux de Neurones Convolutionnels (CNN) : -
        -
      • Utilisation Principale : Vision par ordinateur, reconnaissance d'images.
      • -
      • Caractéristiques : Les CNN sont efficaces pour extraire des motifs spatiaux à partir - d'images en utilisant des opérations de convolution. Ils sont largement utilisés dans des - applications telles que la classification d'images, la détection d'objets et la segmentation - d'images.
      • -
      -
    • -
    • Réseaux de Neurones Récurrents (RNN) : -
        -
      • Utilisation Principale : Traitement de séquences, traitement du langage naturel.
      • -
      • Caractéristiques : Les RNN sont conçus pour traiter des données séquentielles en - utilisant des connexions récurrentes qui leur permettent de conserver une mémoire à long - terme. Ils sont utilisés pour des tâches telles que la traduction automatique, la génération - de texte et l'analyse de séquences temporelles.
      • -
      -
    • - -
    -
    - -
    -
    -
    -

    2.4. Réseaux de neurones profonds

    -
    -
    -
      -
    • Réseaux de Neurones Générateurs Adverses (GAN) : -
        -
      • Utilisation Principale : Génération d'images réalistes.
      • -
      • Caractéristiques : Les GAN sont composés de deux réseaux, un générateur et un - discriminateur, qui s'entraînent de manière adversaire. Les GAN sont utilisés pour générer - des données réalistes, y compris des images, des vidéos et du son.
      • -
      -
    • -
    • Réseaux de Neurones Résiduels (ResNet) : -
        -
      • Utilisation Principale : Classification d'images profondes.
      • -
      • Caractéristiques : Les architectures ResNet utilisent des connexions résiduelles - pour faciliter l'apprentissage profond en surmontant le problème du "vanishing gradient". - Ils sont fréquemment utilisés dans des compétitions de classification d'images.
      • -
      -
    • -
    -
    - -
    -
    -
    -

    2.4. Réseaux de neurones profonds

    -
    -
    -
      - -
    • Autoencodeurs et Variational Autoencoders (VAE) : -
        -
      • Utilisation Principale : Compression et génération de données. -
      • Caractéristiques : Les autoencodeurs sont utilisés pour apprendre des - représentations compactes de données en comprimant et en reconstruisant les informations. - Les VAE introduisent des composants probabilistes, permettant de générer de nouvelles - données similaires aux données d'entraînement. -
      -
    • - -
    • Réseaux de Neurones de Mémoire à Long Terme (LSTM) : -
        -
      • Utilisation Principale : Traitement du langage naturel, séquences temporelles.
      • -
      • Caractéristiques : Les LSTMs sont une variation des RNN qui intègrent des mécanismes - de portes pour mieux gérer le problème du gradient qui s'estompe sur de longues séquences. - Ils sont couramment utilisés dans la génération de texte et d'autres tâches basées sur des - séquences.
      • -
      -
    • -
    -
    -
    -
    +

    Références

    @@ -2704,13 +1462,13 @@

    Articles de recherche

    -
    +

    Références:

    @@ -2731,13 +1489,13 @@

    Web

    -
    +

    Références:

    @@ -2776,14 +1534,14 @@

    Wikipédia

    -
    +

    Références:

    @@ -2816,13 +1574,13 @@

    Wikipédia

    -
    +

    Références:

    @@ -2838,8 +1596,8 @@

    Images

    @@ -2853,7 +1611,7 @@

    Images

    if (!Number.isNaN(slideIdString)) { slideId = parseInt(slideIdString); if (isIncrement) { - if (slideId < 80) { + if (slideId < 35) { slideId = slideId + 1; } } else { diff --git a/fr/enseignement/cours/2024/IA-DeepLearning/cours3.html b/fr/enseignement/cours/2024/IA-DeepLearning/cours3.html index 177326a8..cac97fd9 100644 --- a/fr/enseignement/cours/2024/IA-DeepLearning/cours3.html +++ b/fr/enseignement/cours/2024/IA-DeepLearning/cours3.html @@ -1713,6 +1713,171 @@

    Optimiseurs

    +
    +

    3.1. Apprentissage profond: réseaux de neurones profonds

    +
    +
    +

    Un réseau de neurones profond, également connu sous le nom de réseau de neurones profondément + hiérarchisé ou réseau neuronal profond (DNN pour Deep Neural Network en anglais), est un type de réseau + de neurones artificiels qui comprend plusieurs couches de traitement, généralement plus de deux. Ces + réseaux sont appelés "profonds" en raison de leur architecture empilée de couches, permettant la + création de représentations hiérarchiques complexes des données.

    +

    Architecture en couches : Les réseaux de neurones profonds sont composés de multiples couches, + généralement divisées en trois types principaux :

    +
      +
    • Couche d'Entrée : Reçoit les données brutes ou caractéristiques en entrée.
    • +
    • Couches Cachées : Effectuent des transformations non linéaires et apprennent des + représentations hiérarchiques des données.
    • +
    • Couche de Sortie : Produit la sortie du réseau, adaptée à la tâche spécifique + (classification, régression, etc.).
    • +
    +
    + +
    +
    +
    +

    3.1. Apprentissage profond: réseaux de neurones profonds

    +
    +
    +
      +
    • Apprentissage Hiérarchique : Les couches cachées d'un réseau de neurones profond apprennent + des caractéristiques de plus en plus abstraites et complexes à mesure que l'on progresse en + profondeur. Chaque couche représente une abstraction des caractéristiques extraites par les couches + précédentes.
    • +
    • Fonctions d'Activation : Des fonctions d'activation non linéaires, telles que ReLU (Rectified + Linear Unit) ou ses variantes, sont couramment utilisées dans les couches cachées pour permettre au + réseau d'apprendre des relations non linéaires.
    • +
    • Apprentissage Profond : L'apprentissage profond implique l'ajustement simultané des poids de + toutes les couches du réseau pour minimiser l'erreur de prédiction. Cela est généralement réalisé en + utilisant des techniques de rétropropagation et de descente de gradient.
    • +
    • Utilisations : Les réseaux de neurones profonds sont utilisés dans une variété de tâches, + notamment la vision par ordinateur, la reconnaissance vocale, le traitement du langage naturel, la + traduction automatique, la recommandation de contenu, et bien d'autres. Leur capacité à apprendre + des représentations complexes a conduit à des avancées significatives dans de nombreux domaines de + l'intelligence artificielle.
    • +
    +

    L'entraînement de réseaux de neurones profonds peut nécessiter des volumes importants de données et de + puissance de calcul.

    +
    + +
    +
    +
    +

    3.1. Apprentissage profond: réseaux de neurones profonds

    +
    +
    +

    Il existe plusieurs types de réseaux de neurones profonds.

    +
      +
    • Réseaux de Neurones Convolutionnels (CNN) : +
        +
      • Utilisation Principale : Vision par ordinateur, reconnaissance d'images.
      • +
      • Caractéristiques : Les CNN sont efficaces pour extraire des motifs spatiaux à partir + d'images en utilisant des opérations de convolution. Ils sont largement utilisés dans des + applications telles que la classification d'images, la détection d'objets et la segmentation + d'images.
      • +
      +
    • +
    • Réseaux de Neurones Récurrents (RNN) : +
        +
      • Utilisation Principale : Traitement de séquences, traitement du langage naturel.
      • +
      • Caractéristiques : Les RNN sont conçus pour traiter des données séquentielles en + utilisant des connexions récurrentes qui leur permettent de conserver une mémoire à long + terme. Ils sont utilisés pour des tâches telles que la traduction automatique, la génération + de texte et l'analyse de séquences temporelles.
      • +
      +
    • + +
    +
    + +
    +
    +
    +

    3.1. Apprentissage profond: réseaux de neurones profonds

    +
    +
    +
      +
    • Réseaux de Neurones Générateurs Adverses (GAN) : +
        +
      • Utilisation Principale : Génération d'images réalistes.
      • +
      • Caractéristiques : Les GAN sont composés de deux réseaux, un générateur et un + discriminateur, qui s'entraînent de manière adversaire. Les GAN sont utilisés pour générer + des données réalistes, y compris des images, des vidéos et du son.
      • +
      +
    • +
    • Réseaux de Neurones Résiduels (ResNet) : +
        +
      • Utilisation Principale : Classification d'images profondes.
      • +
      • Caractéristiques : Les architectures ResNet utilisent des connexions résiduelles + pour faciliter l'apprentissage profond en surmontant le problème du "vanishing gradient". + Ils sont fréquemment utilisés dans des compétitions de classification d'images.
      • +
      +
    • +
    +
    + +
    +
    +
    +

    3.1. Apprentissage profond: réseaux de neurones profonds

    +
    +
    +
      + +
    • Autoencodeurs et Variational Autoencoders (VAE) : +
        +
      • Utilisation Principale : Compression et génération de données. +
      • Caractéristiques : Les autoencodeurs sont utilisés pour apprendre des + représentations compactes de données en comprimant et en reconstruisant les informations. + Les VAE introduisent des composants probabilistes, permettant de générer de nouvelles + données similaires aux données d'entraînement. +
      +
    • + +
    • Réseaux de Neurones de Mémoire à Long Terme (LSTM) : +
        +
      • Utilisation Principale : Traitement du langage naturel, séquences temporelles.
      • +
      • Caractéristiques : Les LSTMs sont une variation des RNN qui intègrent des mécanismes + de portes pour mieux gérer le problème du gradient qui s'estompe sur de longues séquences. + Ils sont couramment utilisés dans la génération de texte et d'autres tâches basées sur des + séquences.
      • +
      +
    • +
    +
    + +
    +

    3.2. Feedforward neural network

    @@ -1730,13 +1895,13 @@

    Feedforward neural network

    -
    +

    3.2. Feedforward neural network

    @@ -1756,13 +1921,13 @@

    Feedforward neural network

    -
    +

    3.2. Feedforward neural network

    @@ -1783,13 +1948,13 @@

    Feedforward neural network

    -
    +

    3.2. Feedforward neural network

    @@ -1809,13 +1974,13 @@

    Rétropropagation du gradient (Backpropagation)

    -
    +

    3.2. Feedforward neural network

    @@ -1839,13 +2004,13 @@

    Rétropropagation du gradient (Backpropagation)

    -
    +

    3.2. Feedforward neural network

    @@ -1864,13 +2029,13 @@

    Rétropropagation du gradient (Backpropagation)

    -
    +

    3.2. Feedforward neural network

    @@ -1886,13 +2051,13 @@

    Rétropropagation du gradient (Backpropagation)

    -
    +

    3.2. Feedforward neural network

    @@ -1910,13 +2075,13 @@

    Rétropropagation du gradient (Backpropagation)

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -1938,13 +2103,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -1961,13 +2126,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -1981,13 +2146,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2008,13 +2173,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2036,13 +2201,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2063,13 +2228,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2089,13 +2254,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2119,13 +2284,13 @@

    Réseau de neurones récurrents

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2144,13 +2309,13 @@

    Long short-term memory (LSTM) network

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2172,13 +2337,13 @@

    Long short-term memory (LSTM) network

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2199,13 +2364,13 @@

    Long short-term memory (LSTM) network

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2225,13 +2390,13 @@

    Long short-term memory (LSTM) network

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2249,13 +2414,13 @@

    Long short-term memory (LSTM) network

    -
    +

    3.3. Réseau de neurones récurrents

    @@ -2277,13 +2442,13 @@

    Long short-term memory (LSTM) network

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2299,13 +2464,13 @@

    Réseaux de neurones convolutionnels

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2318,13 +2483,13 @@

    Réseaux de neurones convolutionnels

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2341,13 +2506,13 @@

    Réseaux de neurones convolutionnels

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2364,13 +2529,13 @@

    Réseaux de neurones convolutionnels

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2390,13 +2555,13 @@

    Réseaux de neurones convolutionnels

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2420,13 +2585,13 @@

    Réseaux de neurones convolutionnels: architecture

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2450,13 +2615,13 @@

    Réseaux de neurones convolutionnels: architecture

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2476,13 +2641,13 @@

    Noyau (traitement d'image)

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2498,13 +2663,13 @@

    Noyau (traitement d'image)

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2524,13 +2689,13 @@

    Noyau (traitement d'image)

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2545,13 +2710,13 @@

    Noyau d'identité

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2567,13 +2732,13 @@

    Noyau de détection de contours

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2589,13 +2754,13 @@

    Box blur

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2611,13 +2776,13 @@

    Flou de Gauss 3 × 3

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2636,13 +2801,13 @@

    Convolution matricielle

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2659,13 +2824,13 @@

    Max pooling

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2678,13 +2843,13 @@

    Stride et Padding

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2711,13 +2876,13 @@

    Exemple: Tensorflow (réseaux de neurones convolutio

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2741,13 +2906,13 @@

    Exemple: Tensorflow (réseaux de neurones convolutio

    -
    +

    3.4. Réseaux de neurones convolutionnels

    @@ -2760,13 +2925,13 @@

    Exemple: Tensorflow (réseaux de neurones convolutio

    -
    +

    3.5. Réseaux de neurones récurrents convolutifs (RCNN)

    @@ -2784,13 +2949,13 @@

    RCNN [Girshick 2014]

    -
    +

    3.5. Réseaux de neurones récurrents convolutifs (RCNN)

    @@ -2807,13 +2972,13 @@

    RCNN [Girshick 2014]

    -
    +

    3.6. Réseaux de neurones récurrents convolutifs bidirectionnels

    @@ -2835,13 +3000,13 @@

    Bi-RCNN [Cai 2016,Wang 2020]

    -
    +

    3.6. Réseaux de neurones récurrents convolutifs bidirectionnels

    @@ -2856,13 +3021,13 @@

    Bi-RCNN [Cai 2016]

    -
    +

    3.6. Réseaux de neurones récurrents convolutifs bidirectionnels

    @@ -2885,13 +3050,13 @@

    Bi-RCNN [Cai 2016]

    -
    +

    Références

    @@ -2915,13 +3080,13 @@

    Articles de recherche

    -
    +

    Références

    @@ -2941,13 +3106,13 @@

    Articles de recherche

    -
    +

    Références:

    @@ -2981,13 +3146,13 @@

    Web

    -
    +

    Références:

    @@ -3002,13 +3167,13 @@

    Web

    -
    +

    Références:

    @@ -3024,8 +3189,8 @@

    Images

    @@ -3039,7 +3204,7 @@

    Images

    if (!Number.isNaN(slideIdString)) { slideId = parseInt(slideIdString); if (isIncrement) { - if (slideId < 89) { + if (slideId < 94) { slideId = slideId + 1; } } else { @@ -3085,4 +3250,4 @@

    Images

    - \ No newline at end of file +