1 / 23

Studiengang Informatik FHDW

Vorlesung: Betriebssysteme II 4. Quartal 2004. Studiengang Informatik FHDW. Verteilter gemeinsamer Speicher. Motivation: Wofür könnte „gemeinsamer Speicher“ benötigt werden? Welche Möglichkeiten für die Realisierung existieren? Welche Alternativen existieren?

nico
Download Presentation

Studiengang Informatik FHDW

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Vorlesung: Betriebssysteme II 4. Quartal 2004 Studiengang Informatik FHDW

  2. Verteilter gemeinsamer Speicher • Motivation: • Wofür könnte „gemeinsamer Speicher“ benötigt werden? • Welche Möglichkeiten für die Realisierung existieren? • Welche Alternativen existieren? • Nennen Sie typische Problemstellungen bei der Realisierung von „gemeinsamen Speicher“. • Rückblick: Speicherverwaltung ohne Verteilung!

  3. Verteilter gemeinsamer Speicher • Gemeinsame Nutzung von Daten ist ein grund-legendes Ziel verteilter Systeme und Anwen-dungen. • Möglichkeiten: • Daten per Nachricht transferieren (engl.: message-passing), • verteilter gemeinsamer Speicher (engl.: distributed shared memory, DSM). • DSM erlaubt den Zugriff auf Speicherstellen, obwohl die beteiligten Computer physikalisch getrennte Speicher haben. • Auf die Daten wird zugegriffen, als ob sie im üblichen Adressraum des Prozesses wären.

  4. Verteilter gemeinsamer Speicher (2) • DSM verhält sich wie ein virtuelles Speichersystem, jedoch können Speicherseiten auch auf anderen Computern liegen. • DSM ist besonders für parallele und verteilte Algorithmen nützlich, in welchen gemeinsame Daten direkt referenziert werden. • Wird DSM nicht direkt durch die Hardware unterstützt, wird ein Laufzeitsystem benötigt, das auf dem lokalen Speicher der einzelnen Rechner aufsetzt.

  5. Verteilter gemeinsamer Speicher (3) • Das DSM-Laufzeitsystem verwendet dann Nachrichtenaustausch zur Bereitstellung der Daten aus dem gemeinsamen Speicher. • Der Nachrichtenaustausch erfolgt transparent für die Prozesse, die den verteilten gemeinsamen Speicher nutzen.

  6. Verteilter gemeinsamer Speicher (4) • Hauptgründe für die Entwicklung von DSM-Systemen: • Die meisten parallelen Programme waren für SIMD oder massiv parallele Rechner entwickelt worden. • Bei der Portierung dieser Programme auf Multicomputersysteme ist es einfacher, den gemeinsamen Speicher auf Multicomputern verteilt nachzubilden, als die Software auf die Kommunikation mittels Nachrichtenaustausch umzustellen. • Bei der Programmierung auf einem DSM ist das Pro-grammierparadigma von parallelen oder paralle-lisierbaren Programmiersprachen direkt verwendbar. • Verteilte Objektsysteme können direkt auf DSM abgebildet werden ohne einen RMI-Mechanismus (remote method invocation) zu benötigen.

  7. Vergleich RPC und DSM

  8. Verteilter gemeinsamer Speicher (5) • Im kleinen Maßstab (ca. 10 Rechner), können DSM-Programme genauso effizient wie Programme, die auf Nachrichtenaustausch basieren, implementiert werden. • Bei der Programmierung wird mittels DSM der Systemoverhead für den Programmierer versteckt. • Der Aufwand der Kommunikation kann nicht direkt beeinflusst werden. Er hängt vom Algorithmus, dessen Datenverteilung und dessen momentanen Zustand ab. • Es gibt abgeschwächte DSM-Konzepte, welche die vollständige Transparenz aufbrechen.

  9. Implementierungsvarianten • Blockbasiert, kontrolliert durch die MMU • Spezielle Hardware behandelt die load und store Maschinenbefehle auf DSM-Adressen (z.B. Dash Multicomputer). • Liegt ein Zugriff auf eine physikalisch entfernte Adresse vor, sorgt die MMU für eine hardwaregestützte Anforderung der Daten. • Dies geschieht wie in Prozessorcachesystemen auf Blockbasis, d.h. ein bis wenige Speicherworte.

  10. Implementierungsvarianten (2) • Seitenbasiert, kontrolliert durch das Betriebssystem • Der DSM wird als Region mit identischen Adressen im virtuellen Adreßraum jedes beteiligten Prozesses implementiert. • Die Konsistenz leistet der Betriebssystemkern im Rahmen seines Seitenfehleralgorithmus. • Vertreter dieser Kategorie sind eine ganze Anzahl verteilter Betriebssysteme (z.B. Ivy). • Erfolgt der tatsächliche Speicherzugriff hardwareunterstützt, nennt man die Rechner NUMA-Maschinen.

  11. Implementierungsvarianten (3) • Objektbasiert, kontrolliert durch ein Laufzeitsystem • Nicht der gesamte Speicher wird transparent zugreifbar gehalten • Gemeinsame Variablen werden speziell behandelt. • Sie sind dazu vom Programmierer speziell zu kennzeichnen (z.B. Munin). • Einige verteilte, objektorientierte Sprachen/-erweite-rungen oder Koordinationssprachen, wie Linda, implementieren DSM durch Bibliotheksaufrufe an ein Laufzeitsystem. • Die DSM-Aufrufe werden vom Compiler an den entsprechenden Stellen automatisch eingesetzt.

  12. Spektrum von Shared-Memory-Ansätzen

  13. Konsistenzmodelle • Um bei DSM verschiedene Kopien einer Speichereinheit ohne großen Aufwand konsistent zu halten, muss man auf mehrere schreibbare Kopien verzichten. • Die Leistung geht dann bei nebenläufigen Schreibzugriffen zurück. • Bei hardwarebasierten Systemen ist dies sekundär. • Bei Systemen mit Netzwerkkommunikation kann man aus Effizienzgründen oft nicht auf mehrere schreibbare Kopien verzichten. • Daraus folgt ein erhöhter Aufwand, Konsistenz zu wahren. • Um die semantischen Konsistenzeigenschaften zu beschreiben, definiert man Konsistenzmodelle.

  14. Konsistenzmodelle (2) • Ein Konsistenzmodell ist eine Vereinbarung zwischen der übergeordneten, benutzenden Software und dem verteilten Speicher. • Arbeitet die Software konform zu der Vereinbarung, ist auch garantiert, dass der Speicher richtig arbeitet. • Je komplexer die Vereinbarung, • um so effizienter läuft das DSM-System, • um so aufwendiger und restriktiver wird die Programmierung.

  15. Strikte Konsistenz Definition Strikte Konsistenz Jeder Lesezugriff auf die Speicherstelle x liefert den Wert der global zeitlich letzten Schreib-operation auf x. Dies bedeutet, dass jeder Speicherzugriff im DSM genauso ablaufen soll, als ob es sich um ein lokales System handelt.

  16. Strikte Konsistenz (2) • Beispiel: • Die Speicherstelle x sei bei Rechner B gespeichert. • Rechner A liest x zum Zeitpunkt t1. • Eine Nanosekunde später schreibt B auf x. • Sind A und B etwa 3 Meter auseinander, müsste der Lesezugriff zehnmal schneller als die Lichtgeschwindigkeit übertragen werden, um das richtige Ergebnis zu liefern.

  17. Implementierung • Über alle Ereignisse ist eine absolute globale Zeitordnung sicherzustellen. • Es können z.B. alle Speicherzugriffe werden in eine Transaktion gekapselt werden • oder Sperren werden rigorose verwendet. • Beide Realisierungen verhindern nebenläufige Zugriffe.

  18. Sequentielle Konsistenz Definition Sequentielle Konsistenz Die Speicheroperationen verschiedener Prozesse geschehen in beliebiger sequentieller Reihenfolge. Alle Lese- und Schreiboperationen eines Pro-zesses erscheinen in der programmierten Reihen-folge. Hier sehen also alle Prozesse die gleiche Reihenfolge von Speicherreferenzen. Der Zeitpunkt der Sichtbarkeit spielt keine Rolle, es kann eine beliebige Verzögerung unter den Prozessen vor-kommen.

  19. Sequentielle Konsistenz (2) • Schreibweise: • R(x)=a Lesen der Speicherstelle x liefert den Wert a. • W(x)=a Speicherstelle x wird mit dem Wert a beschrieben. • Alle Speicherstellen sind mit 0 initialisiert. • Beispiel für zwei sequentielle konsistente Programmergebnisse:

  20. Sequentielle Konsistenz (3) • Komplexeres Beispiel: 3 Prozesse arbeiten mit den gemeinsamen Variablen a, b, c. • P1: a=1; print (b,c); • P2: b=1; print (a,c); • P3: c=1; print (b,c); • Vier mögliche Reihenfolgen sequentielle Konsistenz:

  21. Sequentielle Konsistenz (4) • Um die sequentiell konsistente Ausführung zu prüfen, bildet man z.B. die Signatur. • Die Signatur ist die Konkatenation der Ausgaben der Prozesse als Tupel <P1, P2, P3>. • Für das Beispiel: • Signatur:001011 101011 110101 111111 • Nicht alle 64 möglichen Signaturen entsprechen einer sequentiellen Ausführung und sind erlaubt. • Z. B. ist die Signatur 000000 ungültig.

  22. Implementierung • Z. B. in einem seitenbasierten System: • Schreibbare Seiten werden repliziert. • Keine Speicheroperation wird begonnen, bevor nicht alle vorhergehenden beendet sind. • Aktualisierungen werden über einen zuverlässigen, total geordneten Broadcast oder Multicast propagiert. • Sequentielle Konsistenz ist nicht sehr effizient: • Es wurde nachgewiesen, dass (Lesezeit + Schreibzeit) immer größer als die kürzeste Pakettransferzeit ist. • D. h. man kann Lesezugriffe auf Kosten der Schreibzugriffe optimieren und umgekehrt, aber nie beide Zugriffsformen zusammen. • Für effizientere Implementierungen von DSM benötigt man schwächere Konsistenzmodelle.

  23. Kausale Konsistenz

More Related