*Cliquer sur les liens en rouge pour obtenir plus de détails
1. Fondations de l'Intelligence Artificielle
Test de Turing (1950) : Test proposé par Alan Turing pour déterminer si une machine peut reproduire un comportement intelligent humain.
Intelligence Artificielle (1956) : Simulation de l'intelligence humaine par des machines pour résoudre des problèmes, apprendre et prendre des décisions.
Conférence de Dartmouth (1956) : Rencontre fondatrice où le terme "intelligence artificielle" a été introduit, marquant le début officiel de la recherche en IA.
AGI (Artificial General Intelligence) : IA hypothétique capable de réaliser toutes les tâches intellectuelles humaines avec une flexibilité comparable à celle des humains.
Systèmes Experts (1970) : Programmes informatiques basés sur des règles d'expertise, conçus pour résoudre des problèmes complexes dans des domaines spécifiques.
Machine Learning (1959) : Sous-branche de l'IA permettant aux machines d'apprendre à partir de données pour effectuer des prédictions ou des décisions.
Deep Learning (1986) : Sous-branche du machine learning utilisant des réseaux de neurones profonds pour analyser des données complexes.
Deep Blue(1997): IA d'IBM ayant battu le champion d'échecs Garry Kasparov.
Watson (2011) : IA d'IBM ayant battu des champions humains dans le jeu télévisé Jeopardy!
Explicabilité : Capacité à expliquer les décisions prises par un modèle, essentielle pour la transparence et l'éthique.
2. Concepts de Machine Learning
Algorithme : un algorithme est une série d'instructions ou d'étapes logiques conçues pour résoudre un problème ou effectuer une tâche de manière systématique.
Apprentissage Supervisé : Technique d'apprentissage où les modèles sont entraînés à partir de données étiquetées (avec des entrées et sorties connues).
Apprentissage Non Supervisé : Technique où les modèles analysent des données non étiquetées pour identifier des schémas ou des regroupements.
Apprentissage Semi-Supervisé : Méthode combinant des données étiquetées et non étiquetées pour améliorer l'apprentissage du modèle.
Forêts Aléatoires (2001) : Algorithme d'apprentissage supervisé utilisant un ensemble d'arbres de décision pour réaliser des prédictions robustes.
Transfer Learning : Technique où un modèle pré-entraîné sur une tâche est réutilisé ou adapté pour une autre tâche connexe.
Fine-Tuning : Ajustement spécifique d'un modèle pré-entraîné pour l'adapter à une tâche précise.
Overfitting : Situation où un modèle est trop complexe, apprenant les détails et le bruit des données d'entraînement au lieu de généraliser.
Underfitting : Situation où un modèle est trop simple et n'arrive pas à capturer les tendances des données, entraînant une faible précision.
Appropriate Fitting : État où un modèle capture correctement les tendances des données sans surapprentissage ni sous-apprentissage.
Biais : Erreurs systématiques dans les données ou les modèles conduisant à des prédictions biaisées.
3. Réseaux de Neurones et Techniques Associées
Réseaux de Neurones (1943) : Modèles mathématiques inspirés des neurones biologiques, capables de reconnaître des schémas complexes.
Descente du Gradient (1847) : Algorithme d'optimisation qui ajuste les paramètres d'un modèle pour réduire l'erreur.
Rétropropagation (1986) : Algorithme permettant de calculer les gradients dans les réseaux de neurones.
Réseaux de Neurones Convolutifs (1989) : Réseaux conçus pour le traitement des images et la reconnaissance de motifs visuels.
Mixture of Experts (1990) : Architecture où des sous-modèles spécialisés (experts) sont activés selon les tâches à réaliser.
Réseaux de Neurones Récurrents (2014) : Réseaux adaptés aux données séquentielles comme le texte et les séries temporelles.
Attention (2014) : Mécanisme qui permet aux modèles de se concentrer sur des parties spécifiques des données d'entrée.
Transformer (2017) : Architecture révolutionnaire utilisée notamment pour le traitement du langage naturel grâce au mécanisme d'attention.
Réseaux de Neurones Liquides (2022) : Réseaux adaptatifs capables d'ajuster leur structure en fonction des données reçues.
4. Applications et Domaines
NLP (Natural Language Processing) : Techniques pour permettre aux machines de comprendre et générer le langage humain.
Computer Vision : Domaine de l’IA dédié à l’analyse et à la compréhension des images et des vidéos, permettant aux machines de percevoir et interpréter le monde visuel.
Speech Recognition : Technologie permettant aux machines de convertir la parole humaine en texte écrit, utilisée notamment dans les assistants vocaux.
Recommander System : Systèmes permettant de personnaliser les suggestions de produits, films, musiques ou contenus basés sur les préférences des utilisateurs.
Generative AI : IA capable de créer du contenu original comme des textes, images ou musiques.
AI Agent : Système autonome qui perçoit son environnement, prend des décisions et agit pour atteindre ses objectifs.
RAG (Retrieval-Augmented Generation) : Technique combinant la génération de texte par IA avec la recherche dans des bases de connaissances pour améliorer la pertinence des réponses.
5. Données et Analyse
Données : Information brute, un fait ou une mesure collectée qui peut être quantitative (nombres, valeurs mesurables) ou qualitative (texte, images)
Ontologie : structure formelle qui représente les concepts, les relations et les règles d'un domaine spécifique pour permettre le partage et l'interprétation des connaissances de manière cohérente.
Données d'Entraînement : Ensemble de données utilisé pour enseigner à un modèle comment fonctionner sur un problème donné.
Données de Test : Ensemble de données utilisé pour évaluer les performances d'un modèle après son entraînement.
Analyse Descriptive : Analyse visant à décrire les données collectées pour résumer leur contenu.
Analyse Diagnostique : Analyse permettant d'identifier les causes sous-jacentes des tendances observées dans les données.
Analyse Prédictive : Utilisation des modèles statistiques et d'IA pour prédire des tendances futures.
Analyse Prescriptive : Techniques d'analyse aidant à identifier les actions optimales à entreprendre en fonction des prédictions.
6. Tech & Régulations
Data Protection Act : Loi britannique sur la protection des données.
AI Act : Réglementation européenne visant à encadrer l'utilisation de l'IA..
GDPR : Règlement général sur la protection des données en Europe.
Prompt : Un prompt est un texte ou une instruction donnée à un modèle de langage pour définir le contexte ou orienter la génération de sa réponse.
API : Une API (Application Programming Interface) est un ensemble de règles et outils permettant à des logiciels de communiquer et d'échanger des données entre eux.
Token : Un token est une unité de texte (mot, sous-mot ou caractère) utilisée comme entrée par les modèles de langage.
Boucle de feedback : une boucle de feedback consiste à utiliser les performances d'un modèle sur des données (prédictions ou erreurs) pour ajuster ses paramètres et améliorer son apprentissage de manière itérative.