đź§ 

Formation FIDLE en Deep Learning

Aug 8, 2024

Notes de la présentation FIDLE - Deep Learning et Intelligence Artificielle

Introduction

  • Bienvenue Ă  la nouvelle saison de FIDLE, en direct sur YouTube.
  • FIDLE : formation libre, gratuite, ouverte Ă  tous sur le Deep Learning et l'Intelligence Artificielle.

Présentation de la formation FIDLE

  • PortĂ©e par l'Institut d'Intelligence Artificielle de Grenoble (MIAI), CNRS et UniversitĂ© Grenoble Alpes.
  • Supports de cours disponibles sur le site du CNRS.
  • Formation accessible sans prĂ©requis, mais possibilitĂ© de travaux pratiques.

Outils de gestion des questions

  • Utilisation de l'outil Q2A pour poser des questions : fidle.cs.fr/q2a
  • Importance de poser des questions construites pour obtenir des rĂ©ponses Ă©crites.

Organisation des sessions

  • Trois plateaux de diffusion : Grenoble, Paris, et une rĂ©gie.
  • Encouragement Ă  poser des questions et rĂ©agir dans le chat YouTube.

Liste d'informations FIDLE

  • Abonnement Ă  la liste d'informations pour recevoir des nouvelles.
  • CrĂ©ation d'une communautĂ© Agoria pour Ă©changer sur l'IA au-delĂ  des formations.

Structure de la formation

  1. Bases et concepts du Deep Learning (jusqu'à Noël)
    • Introduction au Deep Learning et Ă  l'IA.
    • Concepts fondamentaux : rĂ©seaux de neurones.
  2. Deep Learning comme outil (Ă  partir de janvier)
    • Public curieux ou scientifique.
    • Cartographie des types d'architectures.
  3. Acteurs de l'IA (en mai)
    • Approfondissement sur l'IA contemporaine.
    • PrĂ©requis : maĂ®trise de Python pour les travaux pratiques.

Concepts clés

  • Intelligence Artificielle : Machine Learning, Deep Learning.
  • Apprentissage supervisĂ©, non supervisĂ©, par renforcement, et transfert.
  • RĂ©seaux de neurones : neurone artificiel comme fonction mathĂ©matique.

Histoire du Deep Learning

  • Époque expĂ©rimentale : dĂ©veloppement des mathĂ©matiques pour modĂ©liser.
  • Informatique : mise en code des Ă©quations.
  • Science pilotĂ©e par les donnĂ©es : observer et modĂ©liser sans thĂ©orie scientifique.

Types d'apprentissages

  • SupervisĂ© : apprendre Ă  partir de donnĂ©es labellisĂ©es.
  • Non supervisĂ© : analyser des donnĂ©es non labellisĂ©es.
  • Auto-supervisĂ© : labellisation via des donnĂ©es d'entrĂ©e.
  • Apprentissage par renforcement : agent interagissant avec un environnement.
  • Transfert learning : utiliser un modèle appris pour une tâche diffĂ©rente.

Problèmes et défis

  • Surapprentissage : trop d'ajustement aux donnĂ©es d'apprentissage.
  • ComplexitĂ© des donnĂ©es : importance de la qualitĂ© des donnĂ©es.
  • BoĂ®te noire : difficultĂ© Ă  expliquer les dĂ©cisions des modèles complexes.

Ressources et outils

  • Environnement Python : Keras, TensorFlow, PyTorch.
  • Besoins en calcul : GPU pour faire fonctionner ces modèles.
  • Accès Ă  des supercalculateurs : IDRISS pour projets de recherche.

Conclusion

  • Importance de la prĂ©paration des donnĂ©es.
  • Prochaine session : focus sur les donnĂ©es et leur rĂ´le dans l'apprentissage.
  • Remerciements Ă  l'Ă©quipe technique et aux participants.

Note : Les points clés et concepts sont résumés et peuvent être détaillés lors des prochaines séances.