1 / 12

Datensicherheit

Datensicherheit. 2001/02 Georg N. Strauss HTL Jenbach - Informationstechnologie. Erstmals 1987: RAID Redundant Arrays of Inexpensive Disk University of Berkeley: Gibson, Katz, Patterson Ersatz für teure Speichersysteme der damaligen Hosts – SLED Single Large Expensive Disks

roz
Download Presentation

Datensicherheit

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Datensicherheit 2001/02 Georg N. Strauss HTL Jenbach - Informationstechnologie

  2. Erstmals 1987: RAIDRedundant Arrays of Inexpensive Disk University of Berkeley: Gibson, Katz, Patterson Ersatz für teure Speichersysteme der damaligen Hosts – SLEDSingle Large Expensive Disks Erhöhte Verfügbarkeit durch RedundanzZusätzlicher Prüfsummenalgorithmus (Parity) legt redundante Informationen abgespeicherter Daten innerhalb des RAID nieder RAID Controller:Organisation des HD Stapels Massenspeicher

  3. Ursprüngliche Definition: RAID 0-5 RAB: RAID Advisory Board international führende Anbieter von RAID Systemen Übernahm die Levels 1-5 Ersetzt Inexpensive durch Independend www.raid-advisory.com Veröffentlichungen liefern Kriterien um RAID Angebote bewerten zu können: RAID Book Festlegung von Benchmarks: Bonnie, Iobench, Iozone, Iogen Zertifiziert und prüft RAID Systeme Massenspeicher

  4. MTBF: Mean Time Between FailureAngabe über die Lebensdauer und Fehleranfälligkeit Allerdings: Verbund aus n HDs weist eine n mal kleinere MTBF als die einer einzelnen HD auf -> Einsatz von Redundanzverfahren, sodass bei Ausfall einer HD keine Daten verloren gehen-> während Host Daten liest und speichert erfolgt die Rekonstruktion der Daten im Hintergrund Allerdings:fällt in dieser Phase eine weitere Platte des Sets aus, sind die Daten meist verloren-> Rekonstruktionsphase = verwundbarer Zustand-> erst Ersatz der defekten Platte und Einbindung in den laufenden Betrieb erzeugt wieder ein stabiles System Abhilfe: RAID Level 6Verkraftet den Ausfall von 2 Platten in einem 6‘er Verbund Massenspeicher

  5. Achtung: ->Höherer RAID Level muss nicht mehr Datensicherheit bedeuten-> Write hole: Dateninhalt ist zwar gespeichert, aber die zugeordnete Redundanzinformation (Prüfsummen-) noch nicht-> tritt in diesem Zustand ein Hardwarefehler auf sind Daten und –spiegel oder Prüfsumme inkonsistent Ausweg:-> Technik, die auch bei Datenbanken Anwendung findet-> System schreibt die Daten zuerst in einen Redo-Log Buffer der sich entweder auf einer HD oder in einem nicht flüchtigen Speicher (non volatile RAM) befindet Massenspeicher

  6. Level Methoden Eigenschaften 0 Striping Verteilen der Daten über mehrere HDs Mirroring Spiegeln der Daten auf mind. 2 HDs Striping+HC Parity Striping bitweise mit Hammingcode Parity auf eigene Platte Striping+XOR Parity Striping mit XOR Prüfsumme Striping+XOR Block wie 3, nur mit blockweiser XOR Prüfung Striping+XOR wie 4, jedoch statt Parity Platte Interleave Block Verteilen der Prüfsumme auf ganzes RAID Striping+ 2 Independend 2 unabhängige PrüfsummenXOR Interleave Block RAID Level

  7. Level Methoden Eigenschaften proprietär wie 4, mit Controller unabhängigem I/O Bus (X-Bus) und eigenem Echtzeitbaustein (Storage Computer Corp) S proprietär EMC2 , Kombination aus Level 3 + 5 Auto proprietär HP, Level 0 + 1 kombiniert oder 5 abhängig von I/O Verhalten 0+1 mirrored striping ein Stripe wird gespiegelt striped mirrors Verteilen der gespiegelten Daten über mehrere HDs 15 striped mirrors+Parity auf Basis von 10 mit gespiegelten Parity RAID Level

  8. RAID Level Hohe Sicherheit ist teuer und geht auf Kosten der Performance

  9. EDAP Kriterien • Mitte der Neunziger:weitere RAID Levels: 7, auto, 10, 15, usw. • RAB:neues KlassifizierungsschemaRAB Disk System Classification Programgenauere Klassifizierung – • EDAP – Extended Data Availability and Protection • Unterscheidet 3 verschiedene Stufen der Verfügbarkeit für Speicheplattensysteme und Speichersubsysteme durch 21 Kriterien: 1. EDAP: Failure Resistant – gegen Fehler geschützt 2. EDAP: Failure Tolerant – kann Fehler korregieren 3. EDAP: Disaster Tolerant – übersteht selbst KatastrophenHöhere Stufen enthalten alle Kriterien der niedrigeren

  10. EDAP Kriterien • EDAP Klassen: • Standard Disk Array EDAP System Controller Kriterien • Failure Resistant FRDS FRAC 1-6 • Failure Resistant Plus FRDS+ FRAC+ 1-11 • Failure Tolerant FTDS FTAC 1-13 • Failure Tolerant Plus FTDS+ FTAC+ 1-17 • Failure Tolerant Plus Plus FRDS++ FTAC++ 1-18 • Disaster Tolerant DTDS DTAC 1-16, 19 • Disaster Tolerant Plus DTDS+ DTAC+ 1-15, 20

  11. EDAP Kriterien • 21 Kriterien: beschreiben bestimmtes Verhalten bei Fehlereinflüssen • Erlauben die genaue Klassifizierung eines Speichersystems, wie z.B. Güte, Zuverlässigkeit, Bedienbarkeit • Kriterien gelten für RAID Systeme und ebenfalls für die Controller • FRU: Field Replaceable Unit – Komponenten, die austauschbar sind • FRDS Systeme: für Anwender, die keinen Betrieb rund um die Uhr aufrecht erhalten müssen, aber gegen Datenverlust bei Ausfall einer Komponente des Speichersystems geschützt sein wollen • Erweiterung +: Daten bleiben auch bei Cache Fehlern, Ausfall der externen Stromversorgung oder Temp.-Überschreitungen erhalten • Geben Warzeichen aus und besitzen Hot-Swap Fähigkeiten

  12. EDAP Kriterien • FTDS Systeme: arbeiten weiter, selbst wenn der Controller oder ein I/O Kanal des HD-Systems ausfällt • FTDS+: trotz Ausfall des angeschlossenen Servers oder dessen I/O Kanal wird der Datenzugriff gewährleistet • Hot-Swap fähig und durch USV geschützt • in der Regel Bestandteil schneller Cluster, die über redundante Kanäle mit redundanten RAID Controllern arbeiten • DTDS Systeme: soll sogar bei lokalem menschlichen Versagen, bzw. längerem Ausfall der Stromversorgung und Klimaanlage – wie bei Katastrophen (Brand, Erdbeben, Überschwemmungen, Anschläge, ...) – den Zugriff auf die Daten ermöglichen • Daten liegen redundant in 2 verschiedene Zonen oder von einander entfernten Standorten • neben dem Rechenzentrum – zweites externes Ausweichzentrum – Daten werden über Standleitung gespiegelt • Entfernung: 1-10km

More Related