Please enable JavaScript.
Coggle requires JavaScript to display documents.
8INF878 – Intelligence Artificielle Groupe 02 - Automne 2022 - Coggle…
8INF878 – Intelligence Artificielle
Groupe 02 - Automne 2022
Agent intelligent
Définition d’un agent intelligent
Types d’agents intelligents
Agent réflexe avec état interne
Agent basé sur les buts
Agent simple réflexe
Agent basé sur l’utilité
Agent apprenant
Propriétés d’un environnement
Complètement observable vs partiellement observable
Déterministe vs stochastique
Épisodique vs séquentiel
Statique vs dynamique
Statique vs dynamique
Un agent vs plusieurs agents
État mental d’un agent
BDI
Propriétés d’un agent
Autonomie
Réaction
Habileté sociale
Pro-action
Résolution de problèmes par exploration
Types de problèmes
Exploration
informée
Best-First Search
Recursive Best-First Search
A* Search
Iterative Deepening A
(IDA
)
Greedy Search
Heuristiques
Heuristiques admissible
Relaxed problems (problèmes détendus)
Exploration
non informée
Graph Search
Stratégies non informées
Breadth-first search (largeur)
Uniform-cost search (coût uniforme)
Depth-first search (profondeur)
Depth-limited search (profondeur limitée)
Iterative deepening search (itérative en profondeur)
Bidirectional search (bidirectionnelle)
Exploration
Locale
Hill-Climbing
Simulated annealing
Genetic algorithms
Local beam search
Arbre d’exploration
Exploration
Adverse
Élagage Alpha-Beta
L’algorithme Minimax
Expectiminimax
Problèmes à Satisfaction de Contraintes (CSP)
Permet l’utilisation d’algorithmes à des fins générales plus puissants que les algorithmes d’exploration standards
Test d’objectif
Résolution
des CSP
Backtracking search
Minimum remaining values (MRV)
Degree heuristic
Arc consistency: AC-3
Local Search for CSPs
Hill Climbing + l’heuristique min-conflicts
Systèmes Experts
Module de dialogue
Moteur d’inférence
Règles d’inférences
Modus ponens
Modus tollens
Cycle d’un moteur d’inférence
Filtrage
Choix d’une règle
Invocation de règles
chaînage avant
chaînage arrière
Stratégie de recherche
en largeur
en profondeur
à une étape
Appliquer la règle
Expert humain
Base de connaissances
Base des règles (connaissances opérationnelles)
Base de faits (connaissances assertionnelles)
Avantages
Séparation des connaissances de leur utilisation
Peu gérer les connaissances imprécises et incomplètes
Représentation de connaissances naturelle
Structure uniforme
Inconvénients
Relations opaque entre les règles
Stratégie de recherche inefficace
Inapte à apprendre
Systèmes experts avancés
Planification
Définition de la planification
Planification vs Exploration
Approches de planification
GPS / STRIPS
Représentation des opérateurs/actions
Le monde des blocs
Exemple avec STRIPS
Planification d’espace d’états/situations
Progression planner
Regression planner
Heuristique de planification
Planification d’espace de plans
Partial-order planning
planificateur linéaire
planificateur non-linéaire
GraphPlan
Incertitude
Définition
Méthodes pour gérer l’incertitude
Probabilité
Bases des probabilités
Variables aléatoires
propositionnelles ou booléennes
discrètes
continues
Propositions
Probabilité antérieure
Probabilités pour variables continues
Probabilité conditionnelle
Inférence par l’énumération
Indépendance
Indépendance conditionnelle
Règle de Bayes
Réseau Bayésien (Naive Bayes Classifier)
Logique non monotone
Vision artificielle
Traitement d’images
Caractéristiques d’images
Image informatique
OpenCV
Formation des images
Extraction des bonnes caractéristiques d'image
Reconnaissance d’objets
Détection de visages
Caractéristiques de Haar
Convolutions
Transformée de Fourier
Gradients et détection de bords
Filtre de Canny
Apprentissage par renforcement
Types d’apprentissage machine
Supervisé
Non-supervisé
Par renforcement
Éléments du RL
Fonction de récompense
Fonction de valeur
Police
Modèle de l’environnement
Explore vs Exploit
N-Bandits