1 / 22

Intelligence Artificielle Développementale

Intelligence Artificielle Développementale. 1 er Avril 2014 Olivier.georgeon@liris.cnrs.fr http:// www.oliviergeorgeon.com. t. Plan. Vers de la recherche en robotique. Demos Conclusion du cours. Travaux pratiques Développez votre agent auto-programmant (suite). .

mika
Download Presentation

Intelligence Artificielle Développementale

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Intelligence Artificielle Développementale 1er Avril 2014 Olivier.georgeon@liris.cnrs.fr http://www.oliviergeorgeon.com t oliviergeorgeon.com

  2. Plan • Vers de la recherche en robotique. • Demos • Conclusion du cours. • Travaux pratiques • Développez votre agent auto-programmant(suite). oliviergeorgeon.com

  3. Recherche en robotique Panoramic camera Bumper tactile sensor Ground optic sensor oliviergeorgeon.com http://liris.cnrs.fr/simon.gay/index.php?page=eirl&lang=en

  4. Expérimentation oliviergeorgeon.com http://liris.cnrs.fr/simon.gay/index.php?page=eirl&lang=en

  5. Conclusion sur l’IA développementale oliviergeorgeon.com

  6. Positionnement dans le cadre de l’IA Non symbolique Symbolique Newell & Simon (1972) goals drive problemsolving; (1976) Physical Symbol Systems. oliviergeorgeon.com

  7. IA symbolique “L’environnement” passe des symboles à l’agent en input. Nous codons une sémantique des symboles dans l’agent. Nous implémentons un « moteur de raisonnement ». (ne pas confondre symbolique et discret) oliviergeorgeon.com

  8. Positionnement dans le cadre de l’IA A E « Perception and action arise together, dialecticallyformingeachother » (Clancey, 1992) Cognition située (Clancey 1992) Apprentissage par l’expérience Apprentissage « désincarnée » Apprentissage par enregistrement (Georgeon, 2014) En confondant naivement “input” et “perception” (Crowley, 2014) Apprentissage par renforcement. A Réseaux de neurones. E Machine learning. Non-symbolic Symbolic Newell & Simon (1972) goals drive problem solving; (1976) Physical Symbol Systems. oliviergeorgeon.com

  9. Apprentissage « désincarné » 2 2 1 4 4 3 L’environnement passe des “observations” en input de l’agent. La relation monde -> observation est “statistiquement” une surjection. Nous implémentons des algorithmes qui supposent qu’un état du monde donné induit une observation donnée (bien que partielle et bruitée). oliviergeorgeon.com

  10. Positionnement dans le cadre de l’IA Théories Paradigme de validation Implementations Phenomenology (Dreyfus, 2007) “even more Heideggarian AI” Radical Interactionism, ECA (Georgeon et al., 2013) perception-action inversion (Pfeifer & Scheier, 1994) Horde (Sutton et al., 2011) Behavioral analysis rather than performance measure Théorie des systèmes SMC theory (O’Regan & Noë, 2001) Cognition située (Clancey 1992) “intrinsic motivation” (Oudeyer et al. 2007) Apprentissage par l’expérience Apprentissage « désincarnée » Apprentissage par enregistrement (Georgeon, 2014) En confondant naivement “input” et “perception” (Crowley, 2014) Reinforcement Learning. Neural networks. Machine learning. A* etc. Non-symbolic Symbolic Newell & Simon (1972) goals drive problem solving; (1976) Physical Symbol Systems. oliviergeorgeon.com

  11. Cécité au changement http://nivea.psycho.univ-paris5.fr/ oliviergeorgeon.com

  12. Apprentissage par l’expérience Time L’environnement passe le résultat d’une expérience initiée par l’agent. C’est contre-intuitif! Nous implémentons des algorithmes qui apprennent à “maitriser les contingences sensorimotrices” (O’Regan & Noë, 2001). oliviergeorgeon.com

  13. Accepter cette contre-intuitivité • Nous avons l’impression que le soleil tourne autour de la terre. • Impression est trompeuse ! (Copernic, 1519) • Nous avons l’impression de recevoir des données sur l’état du monde. • Impression trompeuse! (Philosophie de la connaissance depuis les lumières, au moins). • Comment transcrire cette contre-intuitivité dans les algorithmes? oliviergeorgeon.com

  14. Enjeux: cognition sémantique Raisonnement et langage Systèmes à bases de règles, Ontologies, IA traditionnelle. Cognition sémantique Ancrage de la connaissance dans l’expérience, Construction de sens. Auto-programmation. Adaptation stimumuls-response Apprentissage par renforcement, Réseaux de neurones, machine learning classique. oliviergeorgeon.com

  15. Conclusion • Raisonner en termes d’interactions • Plutôt que de séparer perception et action. • Raisonner en termes de comportements générés • Plutôt qu’en termes de données apprises. • Garder son esprit critique • Inventer de nouvelles approches. oliviergeorgeon.com

  16. Inventer de nouvelles approches Problème formalisé « Hard problem of AI » A E A Etc. E oliviergeorgeon.com

  17. Travaux dirigés 4eme partie (suite). Salles TP6 et TP7 Groupes de 2 oliviergeorgeon.com

  18. Environnement 3 modifié • Se comporte comme Environnement 0 jusqu’au cycle 5, puis comme environnement 1 jusqu’au cycle 10, puis comme environnement 0 . • Implémentation • If (step <= 5 or step > 10) • If (experiment = e1) thenresult = r1 • If (experiment = e2) thenresult = r2 • Else • If (experiment = e1) thenresult = r2 • If (experiment = e2) thenresult = r1 • Step++ oliviergeorgeon.com

  19. Agent 3 dans Environnement 3 Environnement 0 Environnement 1 Environnement 0 0. e1r1,-1,0 1. e1r1,-1,0 learn (e1r1e1r1),-2,1 activated (e1r1e1r1),-2,1 propose e1,-1 2. e2r2,1,0 learn (e1r1e2r2),0,1 3. e2r2,1,0 learn (e2r2e2r2),2,1 activated (e2r2e2r2),2,1 propose e2,1 4. e2r2,1,0 activated (e2r2e2r2),2,2 propose e2,2 5. e2r1,-1,0 learn (e2r2e2r1),0,1 6. e2r1,-1,0 learn(e2r1e2r1),-2,1 activated (e2r1e2r1),-2,1 propose e2,-1 7. e1r2,1,0 learn (e2r1e1r2),0,1 8. e1r2,1,0 learn (e1r2e1r2),2,1 activated (e1r2e1r2),2,1 propose e1,1 9. e1r2,1,0 activated (e1r2e1r2),2,2 propose e1,2 10. e1r1,-1,0 learn (e1r2e1r1),0,1 activated (e1r1e2r2),0,1 activated (e1r1e1r1),-2,1 propose e2,1 propose e1,-1 11. e2r2,1,0 activated (e2r2e2r1),0,1 activated (e2r2e2r2),2,2 propose e2,1 12. e2r2,1,0 activated (e2r2e2r1),0,1 activated (e2r2e2r2),2,3 propose e2,2 13. e2r2,1,0 oliviergeorgeon.com

  20. Principe de l’Agent 3 AGENT Activé (i11,i12) (it-1,it) (i11i11) it-1 it i12 Choisit e1 i11 i11 Apprend Execute Propose Active it-2 it-1 it= i11 it-4 it-3 i11 … Temps PASSE FUTUR PRESENT oliviergeorgeon.com

  21. Environnement 4 • Retourne résultat r2 uniquement après deux fois la même expérience. • e1 -> r1, e1 -> r2, e1 -> r1, e1-> r1, … e1->r1, e2 -> r1, e2->r2, e2 -> r1, …, e2 -> r1, e1 -> r1, e1 -> r2, e2 -> r1, e2 -> r2, e1 -> r1, e1 -> r2, … • If (experiencet-2!=experiencet &&experiencet-1==experiencet)result = r2;elseresult = r1; oliviergeorgeon.com

  22. Rapport • Agent 1 • Explications du code • Traces dans les environnements 0 et 1 avec différentes motivations. • Explications du comportement • Agent 2 • Explications du code • Traces dans les environnements 0 à 2 avec différentes motivations. • Explications du comportement • Agent 3 • Explications du code • Traces dans les environnements 0 et 4 avec différentes motivations. • Explications des comportement • Conclusion • Quelle serait la prochaine étape pour faire l’agent 4 capable de s’adapter aux environnements 1 à 4? oliviergeorgeon.com

More Related