1 / 59

Schwerpunkt-Seminar im SS2001

Schwerpunkt-Seminar im SS2001. Was sind Agenten ? . Autonome Gebilde die in eine Umwelt mit folgenden möglichen Eigenschaften eingebettet sind: zugänglich / unzugänglich deterministisch / nichtdeterministisch zyklisch / nichtzyklisch statisch / dynamisch diskret / kontinuierlich .

mathilde
Download Presentation

Schwerpunkt-Seminar im SS2001

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Schwerpunkt-Seminar im SS2001 agent based computational economics

  2. Was sind Agenten ? Autonome Gebilde die in eine Umwelt mit folgenden möglichen Eigenschaften eingebettet sind: • zugänglich / unzugänglich • deterministisch / nichtdeterministisch • zyklisch / nichtzyklisch • statisch / dynamisch • diskret / kontinuierlich

  3. Interaktion Agent  Umgebung

  4. Agenten und Objekte Unterschied zwischen Agenten und Objekten der OOP: “Objects do it for free, agents do it for money”

  5. Eigenschaften von intelligenten Agenten Wichtige Eigenschaften • Reaktivität:Wahrnehmung der Umwelt und daraus resultierendes zielgerichtetes Verhalten • Pro-Aktivität:Eigenständiges zielorientiertes Verhalten • Sozialkompetenz:Interaktion mit anderen Softwareagenten und Menschen

  6. Architekturen für Systeme intelligenter Agenten I Abstrakte Ansätze zur Beschreibung von Agentensystemen • Parameter von Agentensystemen • rein reaktive Agenten • Agenten mit differenzierter Wahrnehmung • Agenten mit interner Zustandsmaschine

  7. Architekturen für Systeme intelligenter Agenten II Parameter von Agentensystemen • Zustände der Umwelt S = {s1, s2, s3, ... } • Aktionen des Agenten A = {a1, a2, a3, ... } • Zustände der Umgebung S x A (S) • Aufzeichnung der Interaktion Agent / Umwelt als Historie h: s0 (a0) s1(a1)  s2(a2)  s3(a3)  s u

  8. Architekturen für Systeme intelligenter Agenten III Rein reaktive Agenten Ohne Bezug zur Vergangenheit d.h. jede Entscheidung erfolgt nur aufgrund der aktuell beobachtbaren Zustands-variablen (kein Gedächtnis)

  9. Architekturen für Systeme intelligenter Agenten IV Agenten mit differenzierter Wahrnehmung • Differenzierung zwischen zwei Subsystemen des Agenten: • Wahrnehmung: S  P • Aktionen: P  A • Der Agent besitzt mehrere Sensoren P und entscheidet welche Wahrnehmung für seine nächste Aktion a relevant sind

  10. Architekturen für Systeme intelligenter Agenten V

  11. Architekturen für Systeme intelligenter Agenten VI Agenten mit interner Zustandsmaschine • Zusätzlich zum Aktionsraum A wird noch ein interner Zustandsraum I (Gedächtnis) eingeführt. • Der interne Zustand I wird mit der Wahrnehmung P auf einen neuen internen Zustand I abgebildet: I x P  I

  12. Architekturen für Systeme intelligenter Agenten VII Agenten mit interner Zustandsmaschine • Zustandsmaschine:Die Aktion eines Agenten erfolgt in Abhängigkeit des Internen Zustands (i0) und der Wahrnehmung (s) Formale Darstellung einer Aktion: aktion ( i0, s)

  13. Architekturen für Systeme intelligenter Agenten VIII

  14. Konkrete Realisierungen von Agentenarchitekturen I Konkrete Realisierungen • Logik-basierte Agenten • Reaktive Agenten • Überzeugung–Wunsch–Absicht–Systeme (BDI-Systeme)

  15. Konkrete Realisierungen von Agentenarchitekturen II Logik-basierte Agenten • Symbolische AI: Es werden logische Schlüsse aus der symbolisch repräsentierten Umwelt gezogen. • Agenten besitzen Datenbanken die ihre • „Überzeugungen“ ( Believes ) und • „Arbeitsregeln“ ( Deduction–Rules ) repräsentieren, aus denen mittels Logik erster Ordnung die nächsten Aktionen bestimmt werden. ( Wenn–Dann–Logik )

  16. Konkrete Realisierungen von Agentenarchitekturen III Logik-basierte Agenten Probleme: • Konsistenz der Datenbanken alles Agenten (häufig nicht in polynominaler Zeit lösbar) • Umsetzung der Wahrnehmung in Believes ( z.B. Bilder)

  17. Konkrete Realisierungen von Agentenarchitekturen IV Reaktive Agenten • Alternative zum Einsatz des symbolischen Paradigmas • Rationales Verhalten ist an die Umgebung gebunden und ein Produkt von Interaktion • Intelligenz der Agenten ist ein emergenter Prozess einfacher Handlungsweisen

  18. Konkrete Realisierungen von Agentenarchitekturen V Reaktive Agenten • Subsumtions–Architektur • Situation  Aktion • Verhaltensweisen der Agenten die auf Erfüllung einfacher Teilaufgaben gerichtet sind • Keine symbolische Verarbeitung von Fakten nötig • Hierarchie der Verhaltensweisen: Schichtenmodell • Inhibitionsbeziehung der einzelnen Schichten • Starke Wahrnehmungs-Handlungskopplung • Niedrige Komplexität O(n²) der resultierenden Prozesse

  19. Konkrete Realisierungen von Agentenarchitekturen VI Reaktive Agenten • Probleme • Kein Umweltmodell: hinreichend lokale Information für den Agenten ist notwendig • Tendenz zu myopischem Verhalten der Agenten • Lernfähigkeit ist schwer implementierbar • Emergenz schwer versteh- und kontrollierbar • Effektive Agenten mit mehr als 10 Schichten (Regeln) sind kaum realisierbar

  20. Konkrete Realisierungen von Agentenarchitekturen VII Überzeugung–Wunsch–Absicht–Systeme (BDI-Systeme) • Grundlage der BDI-Architektur ist sog. „praktisches Denken“, also: Welche Ziele habe ich und was sind die geeignetsten Mittel diese zu erreichen?

  21. Konkrete Realisierungen von Agentenarchitekturen VII BDI-Systeme Rolle der drei Grundelemente (Believe-Desire-Intention) Absichten (Intentions)  werden von Überzeugungen (Believe) beeinflusst  beschränken zukünftige Wünsche (Desire) Aber auch  Wünsche (D) hängen von Überzeugungen ab  Wünsche (D) beeinflussen Absichten (I)  sollten längeren Bestand haben

  22. Konkrete Realisierungen von Agentenarchitekturen VIII BDI-Systeme Dilemma • Absichten müssen regelmäßig auf Validität überprüft werden • Zu hoher Aufwand für Validitätskontrolle ist aktionshemmend •  Abwägung: Proaktivität vs. Reaktivität (zielorientiertes vs. ereignisgesteuertes Verhalten)

  23. Konkrete Realisierungen von Agentenarchitekturen IX Elemente eines BDI-Systems • Funktionstripel (B,D,I) mit den zugehörigen DB’s • Funktion zur Überzeugungskorrektur brf:(Bel) x P (Bel) • Funktion zur Wunschgenerierungoption:(Bel) x (Int) (Des) • Filterfunktion zur Absichtsgenerierung filter:(Bel) x (Des) x (Int) (Int)

  24. Konkrete Realisierungen von Agentenarchitekturen X Elemente eines BDI-Systems • Aktionsgenerierungfunction action (p:P) : Abegin B := brf (B,p) D := options(D,I) I := filter(B,D,I) return execute(I) end

  25. Schichtarchitekturen • Notwendigkeit der Strukturierung von reaktivem und proaktivem Verhalten innerhalb einer Architektur • Verwendung einer Hierarchie von interagierenden Schichten • Horizontale Schichten: direkte Verbindung der Schichten mit Sensoren und Ausgabeeinheit • Vertikale Schichten: Ein- und Ausgabe wird über eine Basisschicht bewerkstelligt

  26. Schichtarchitekturen II

  27. Horizontale Schichtarchitektur I Probleme: • Max. mn Interaktionen sind zu betrachten • Kontrollsystem zur Koordination ist erforderlich Beispiel für horizontale Architektur: TouringMachines

  28. Horizontale Schichtarchitektur II

  29. Vertikale Schichtarchitektur I • Architektur mit einem Durchlauf • Architektur mit zwei Durchläufen • Max. m2(n-1) Interaktionen • Weniger Flexibilität • Reduzierte Fehlertoleranz Beispiel für vertikale Architektur: Interrap

  30. Vertikale Schichtarchitektur II

  31. Multiagentensysteme und Gemeinschaften von Agenten

  32. Distributed–Artificial–Intelligence DAI Motivation der Distributed–Artificial–Intelligence: • Information liegen in der realen Welt meist verteilt vor, da die Objekte, auf welche sie sich beziehen, auch örtlich verteilt sind. • Die Menge der verfügbaren Informationen kann den Rahmen der Möglichkeiten eines einzelnen Systems sprengen.

  33. Vorteile der DAI Vorteile der Distributed–Artificial–Intelligence • Mächtigkeit durch Parallelverarbeitung • Erzeugung systemübergreifender Expertise • Fehlertoleranz durch Redundanz • Höhere Wiederverwertbarkeit von Fachwissen • Objektivierung von Entscheidungen durch div. Perspektive

  34. Eigenschaften von Multiagentenumgebungen Eigenschaften von Multiagentenumgebungen • Bieten Infrastruktur mit festgelegten Kommunikations- und Interaktionsprotokollen • Offenheit des Systems und dezentraler Entwurf der Architektur • Agenten im System sind autonom verteilt und können egoistisch oder kooperativ sein

  35. Agenten-Kommunikation

  36. Bedeutungsebenen Bedeutungsebenen • beschreibend/vorschreibend • individuelle/vereinbarte Bedeutung • subjektive/objektive Bedeutung • individuelle/gesellschaftliche Bedeutung • Semantik/Pragmatik (Sprachgebrauch) Weitere Eigenschaften der Bedeutungsebenen: Kontext, Mächtigkeit, Identität, Kardinalität

  37. Kommunikationstypen Intention und Ergebnis des Kommunikationsakts

  38. Kommunikationsebenen • Schichtung von Protokollen • Untere Ebene: Verbindungsmethode • Mittlere Ebene: Format / Syntax • Obere Ebene: Bedeutung / Semantik • Topologie von Protokollen: Binäre / n-äre Kommunikation • Datenstruktur von Protokollen Sender, Empfänger, Sprache, De-/Kodierung, Resultierende Aktionen

  39. Sprechakte • Linguistik : Theorie humaner Sprechakte • Aspekte eines Sprechakts: • Illokutiver Akt: • Äußerungsakt: Physikalische Äußerung • Propositionsakt: Inhaltliche Intention der Äußerung • Illokutive Beimessung: Intendierte Bedeutung der Äußerung außerhalb der direkten wahrnehmbaren inhaltlichen Intention • Perlokution: Aus der Äußerung resultierende Handlung

  40. KQML I • Knowledge Query and Manipulation Language • Trennt Semantik des Kommunikationsprotokolls von der Semantik der Nachricht • Alle Information die zum Verständnis des Inhalts einer Nachricht notwendig ist in der Kommunikation beinhaltet • Syntax: Lisp-artig, nicht domänenspezifisch

  41. KQML II • Wichtige Bestandteile des Protokolls • :sender • :receiver • :content • :language • :ontologie • :content • Implementierung von PROLOG, LISP, SQL möglich

  42. KQML III

  43. KIF • Knowledge Interchange Format • Symbolische Logik zur Beschreibung Fakten, Definitionen, Kurzfassungen, Inferenzregeln, Metawissen • Logische Operatoren wie bei LISP: Negation, Disjunktion, Konjunktion usw.

  44. Ontologien • Spezifikation von Objekten, Konzepten und Beziehungen auf einem Wissensgebiet • Definition:Ontologie ist eine Sammlung von Konzepten und den Relationen zwischen eben diesen. Eine Ontologie muss formal definiert sein, damit sie im Rahmen eines wissensbasierten Systems computergestützt verarbeitet werden kann. Der Gegenstandsbereich einer Ontologie wird Domäne genannt.

  45. Interaktions-Protokolle für Agenten Interaktions-Protokolle für Agenten • Gemeinsame Ziele bestimmen • Gemeinsame Aufgaben identifizieren • Unnötige Konflikte vermeiden • Gemeinsame Verwaltung von Wissen und Erkenntnis

  46. Koordinationsprotokolle I Probleme verteilter Datenhaltung und Prozessteuerung • Zeitgerechte Informationszuteilung • Synchronisation der Handlungen • Vermeidung von redundantem Arbeitseinsatz

  47. Koordinationsprotokolle II Globale Lösung mit Und/Oder-Zielgraph • Erstellen des Und/Oder-Graph: Abhängigkeiten bestimmen und klassifizieren • Zuweisung bestimmter Regionen des Graphs an passende Agenten • Überwachung der Entscheidungen über die Zuweisung von Regionen an Agenten • Durchlaufen des Graphs • Sicherstellung der erfolgreichen Abarbeitung des Graphs

  48. Koordinationsprotokolle III Dezentrale Agentenmechanismen zur Zielsuche • Zusagen: Agenten entscheiden über ihre Mitwirkung an einem gemeinsamen Ziel und geben „verbindliche“ Zusagen ab • Konventionen: Regelwerk unter dem „verbindliche“ Zusagen gebrochen werden können

  49. Kooperationsprotokolle I Zerlegung und Verteilung von Aufgaben: divide-and-conquer • Zerlegung direkt beim Systementwurf oder implizit im Und/Oder-Graph • Verteilung nach folgenden Kriterien • Vermeidung von Überlast • Verteilung nach passenden Fähigkeiten • Überlappung von Verantwortlichkeiten zur Zielkohärenz • Aufgabenzuweisung durch Agenten mit weitem Blickwinkel • Interdependente Aufgaben in örtlicher u. semantischer Nähe • Dynamische Neuzuordnung bei sich ändernder Priorität

More Related