Notes de la présentation FIDLE - Deep Learning et Intelligence Artificielle
Introduction
- Bienvenue Ă la nouvelle saison de FIDLE, en direct sur YouTube.
- FIDLE : formation libre, gratuite, ouverte Ă tous sur le Deep Learning et l'Intelligence Artificielle.
Présentation de la formation FIDLE
- Portée par l'Institut d'Intelligence Artificielle de Grenoble (MIAI), CNRS et Université Grenoble Alpes.
- Supports de cours disponibles sur le site du CNRS.
- Formation accessible sans prérequis, mais possibilité de travaux pratiques.
Outils de gestion des questions
- Utilisation de l'outil Q2A pour poser des questions : fidle.cs.fr/q2a
- Importance de poser des questions construites pour obtenir des réponses écrites.
Organisation des sessions
- Trois plateaux de diffusion : Grenoble, Paris, et une régie.
- Encouragement à poser des questions et réagir dans le chat YouTube.
Liste d'informations FIDLE
- Abonnement Ă la liste d'informations pour recevoir des nouvelles.
- Création d'une communauté Agoria pour échanger sur l'IA au-delà des formations.
Structure de la formation
- Bases et concepts du Deep Learning (jusqu'à Noël)
- Introduction au Deep Learning et Ă l'IA.
- Concepts fondamentaux : réseaux de neurones.
- Deep Learning comme outil (Ă partir de janvier)
- Public curieux ou scientifique.
- Cartographie des types d'architectures.
- Acteurs de l'IA (en mai)
- Approfondissement sur l'IA contemporaine.
- Prérequis : maîtrise de Python pour les travaux pratiques.
Concepts clés
- Intelligence Artificielle : Machine Learning, Deep Learning.
- Apprentissage supervisé, non supervisé, par renforcement, et transfert.
- Réseaux de neurones : neurone artificiel comme fonction mathématique.
Histoire du Deep Learning
- Époque expérimentale : développement des mathématiques pour modéliser.
- Informatique : mise en code des équations.
- Science pilotée par les données : observer et modéliser sans théorie scientifique.
Types d'apprentissages
- Supervisé : apprendre à partir de données labellisées.
- Non supervisé : analyser des données non labellisées.
- Auto-supervisé : labellisation via des données d'entrée.
- Apprentissage par renforcement : agent interagissant avec un environnement.
- Transfert learning : utiliser un modèle appris pour une tâche différente.
Problèmes et défis
- Surapprentissage : trop d'ajustement aux données d'apprentissage.
- Complexité des données : importance de la qualité des données.
- Boîte noire : difficulté à expliquer les décisions des modèles complexes.
Ressources et outils
- Environnement Python : Keras, TensorFlow, PyTorch.
- Besoins en calcul : GPU pour faire fonctionner ces modèles.
- Accès à des supercalculateurs : IDRISS pour projets de recherche.
Conclusion
- Importance de la préparation des données.
- Prochaine session : focus sur les données et leur rôle dans l'apprentissage.
- Remerciements à l'équipe technique et aux participants.
Note : Les points clés et concepts sont résumés et peuvent être détaillés lors des prochaines séances.