Current Page: Greybox » Authoring » Course ID: medieninformatik » Modules » Module ID: mmserver » Learning Units » Unit ID: 030datenplatzierung
Last Modified:Tuesday, 2015-05-05 - 08:09:06
 
Tools: ValidatePreview XML Preview HTML Preview PDF
Alternative: Printable HTML

 

Learning Unit ID: 030datenplatzierung
Title: Datenplatzierung
Abstract: Magnetische Laufwerks sind die wichtigsten Speichergeräte in Computersystemen. Wie und wo die Daten physisch auf den Laufwerken gespeichert werden, hat einen großen Einfluss auf die Gesamtperformance eines Systems. Man unterscheidet zwischen Block- und Dateienplatzierung. Blockplatzierungsstrategien haben zum Ziel, den zeitlichen Overhead, der während eines Abrufvorgangs von Daten einer magnetischen Disk entsteht, möglichst gering zu halten. Dateienplatzierungsstrategien arbeiten in einem System mit mehreren Laufwerken und haben die Aufgabe, für jede Datei das passende Speichergerät zu finden. Weiters obliegt ihnen die Entscheidung, wie viele Kopien einer Datei vorhanden sein müssen, um eine optimale Performance zu erzielen.
 
Status: under construction Version: 2005-10-17
History:

2005-10-17 (Thomas Migl): Def. "strand-based Allocation" korrigiert
2005-10-10 (Thomas Migl): Abstract hinzugefügt
2005-10-03 (Thomas Migl): Kleine Korrektur, Strand-based Allocation geändert
2005-09-30 (Thomas Migl): COPU BSR (LOD1+2) fertiggestellt, Änderungen in COPU pop.-basierte Strategie (LOD1+2)
2005-09-23 (thomas Migl): Vorl. BSR COPU importiert, Quelle [dan1995] eingegetragen
2005-09-21 (Thomas Migl): LOD1 bis auf COPU BSR fertiggestellt
2005-09-20 (Thomas Migl): Quellen in greybox importiert, LOD1 begonnen, bis vor Rebeca)
2005-09-19 (Thomas Migl): LOD2 (+xml-Formeln) bis auf COPU BSR importiert
2005-07-18 (Thomas Migl): LU angelegt


Author
Author 1: Thomas Migl E-Mail: migl@ims.tuwien.ac.at
Author 2: (empty) E-Mail: (empty)
Author 3: (empty) E-Mail: (empty)
Author 4: (empty) E-Mail: (empty)
Author 5: (empty) E-Mail: (empty)
Organization: Technische Universität Wien; Institut für Softwaretechnik und Interaktive Systeme; Arbeitsgruppe für Interaktive Multimediale Systeme; http://www.ims.tuwien.ac.at/

Content

Einleitung

1

Motivation

  • Magnetische Disk ist Standard Speichergerät
  • Nachteil
    • Mäßige Transaktionsrate ist System immanent
      • Macht sich besonders bei Multimedia Daten negativ bemerkbar
        • Zeitgleiche Lieferung verschiedener Datenströme
        • Einhaltung des QoS
        • Echtzeit
  • Datenplatzierungsstrategien
    • Bestimmen, wo welche Daten physisch gespeichert werden
    • Minimieren den zeitlichen und örtlichen Overhead bei Datenzugriffen

Grundlegende Unterscheidung für Datenplatzierung

  • Blockplatzierung (Block Placement)
    • Datenstrom wird in Blöcke gegliedert
    • Blockplatzierungsstrategien
      • Zeitlicher Overhead bei Aufruf der Daten soll minimal sein
      • Jedem Block wird individuell ein Speicherplatz zugewiesen
        • Im Datenstrom benachbarte Blöcke werden nicht automatisch nebeneinander liegend gespeichert
  • Dateienplatzierung (File Placement)
    • Ressourcenoptimierung
    • Schaffung von Redundanz

2

Motivation

Die Magnetische Disk ist heute unangefochten der wichtigste Massenspeicher für Computersysteme. Und wie es aussieht, wird sie diese Vormachtsstellung nicht so schnell verlieren: Ihre Kapazität/Kostenentwicklung macht sie zum sicheren Kandidaten auch für zukünftige Multimedia Anwendungen. Die Magnetische Disk hat nur einen entscheidenden Nachteil: Die möglichen Datentransaktionsraten sind nur mäßig und hinken den in anderen Teilen des Computersystems üblichen stark nach. Dieser Nachteil wird besonders bei Multimedia Anwendungen schlagend, da ein Multimedia Server die Möglichkeit haben muss, verschiedene Daten direkt von der Disk zeitgleich an unterschiedliche Clients zu übertragen, und zwar unter Einhaltung das Quality of Service Parameter (QoS). Wie und wo welche Daten physisch auf der Magnetplatte gespeichert werden, hat nun einen großen Einfluss darauf, wie weit einem geforderten QoS trotz beschränkter Datentransferrate nachgekommen werden kann. Eine zweite wichtige Aufgabe der Datenplatzierungsstrategien ist es, die Daten in einem Verbund von Speichergeräten möglichst ressourcenoptimiert zu platzieren.

Grundlegende Unterscheidung für Datenplatzierung

Grundsätzlich sind für die Platzierung von Daten zwei Kategorien zu unterscheiden:

  • Blockplatzierung (Block Placement) – Dabei handelt es sich um Strategien, deren Ziel es ist, den zeitlichen Overhead, der während eines Abrufvorgangs von Daten auf einer magnetischen Disk entsteht, möglichst niedrig zu halten. Blockplatzierungsstrategien weisen jedem Block einen bestimmten Speicherort zu. Im Datenstrom benachbarte Blöcke liegen dabei nicht notwendiger Weise auch auf der Disk nebeneinander.
  • Dateienplatzierung (File Placement) – Ein Multimedia Server besitzt im Allgemeinen eine größere Anzahl von unterschiedlichen Speichergeräten. Dateienplatzierungsstrategien haben folgende Aufgaben:
    1. Ressourcenoptimierung – Es muss festgelegt werden, wo die einzelnen Dateien gespeichert werden müssen, um gegebene Speicherressourcen optimal nutzen zu können.
    2. Schaffung von Redundanz – Es muss entschieden werden, wie viele Kopien von populären Dateien zu machen sind und wo diese optimal gespeichert werden können.

Überblick Lerneinheit

Einleitend wird ein Überblick über die Terminologie der magnetischen Disk gegeben und Begriffe erläutert, die zum Verständnis des Inhaltes dieser Lerneinheit wichtig sind. Anschließend werden verschiedene Blockplatzierungsstrategien beschrieben, wobei zu beachten ist, dass alle in dieser Lerneinheit beschriebenen Blockplatzierungsstrategien sich auf die Speicherung von Blöcken auf einer einzigen magnetischen Disk beziehen. Wie Blöcke einer Datei strategisch sinnvoll auf mehrere Laufwerke aufgeteilt werden können, wird in der Lerneinheit RAID Speichersysteme (Stichwort Striping) beschrieben. Bezüglich Dateienplatzierungsstrategien wird ein Überblick über Anforderungen und Arbeitsweisen, die für alle Dateienplatzierungsstrategien gültig sind, geboten. Abschließend werden die popularitätsbasierte und die BSR Strategie genauer beschrieben.

Disk Terminologie Chen1994,147

1

Diskaufbau

Magnetische Disk [chen1994]

Performance Maße einer Disk zaia1998

  • Access Time
    • Dauer Request - Datenbereitstellung
  • Seek Time
    • Benötigte Zeit für Neupositionierung des Schreibe/Lesekopfes
  • Average Seek Time

Definition Block

  • Dateien werden in Blöcke unterteilt
  • Block ist Basiseinheit für Datentransaktionen

2

Diskaufbau

Die Abbildung zeigt die Komponenten einer einfachen Magnetischen Disk. Sie besteht aus einer Gruppe von Platten (Platter), die mit einem magnetischen Material beschichtet sind. Die Platten sind auf einer gemeinsamen, sich mit konstanter Winkelgeschwindigkeit drehenden Spindel befestigt. Für jede Plattenoberfläche gibt es einen eigenen Schreibe/Lesekopf, wobei alle Köpfe über einen gemeinsamen Zustellarm (Actuator) fest miteinander verbunden sind. Die binären Informationen werden in konzentrischen Kreisen auf den Plattenoberflächen gespeichert. Einen Kreis bezeichnet man als Track. Durch radiale Bewegung kann nun der Zustellarm die Köpfe auf jeden beliebigen Track positionieren. Tracks, die direkt untereinander liegen, und daher bei selber Zustellarmposition gelesen/beschrieben werden können, werden unter der Bezeichnung Zylinder (cylinder) zusammengefasst. Ein Sektor schließlich ist die kleinste adressierbare Dateneinheit einer Disk und umfasst eine diskspezifische Anzahl an Bytes. Ein Track besteht aus mehreren Sektoren.

Magnetische Disk [chen1994]

Performance Maße einer Disk zaia1998

Access Time – Zeit, die zwischen Request und Datenbereitstellung vergeht

Seek Time – Zeit, die benötigt wird, um Schreibe/Lesekopf auf gewünschten Track (bzw. Zylinder) zu positionieren. Typische Werte: sind 2 bis 30 Millisekunden

Average Seek Time – Durchschnittliche Seek Time Wert, ermittelt durch eine zufällige Sequenz von Requests

Definition Block

Für den Austausch von Daten zwischen magnetischer Disk und Hauptspeicher werden die Daten in Blöcke unterteilt. Ein Block kann dabei 512 bis einige Tausend Bytes umfassen und ist die Basiseinheit für Datentransaktionen. Auf einer Magnetplatte wird ein Block als eine Sequenz von physisch nebeneinander liegenden Bytes innerhalb eines Tracks gespeichert.

Blockplatzierung - Überblick

1

auto

  • Traditionelle Blockplatzierung
    • Aneinandergrenzende Platzierung (Contiguous Allocation)
      • Everest Contiguous Allocation - Adaption für Multimediadaten
    • Orgelpfeifenplatzierung
  • Eingeschränkte Platzierung
    • Spezielle Strategien für Multimediadaten
      • REBECA
        • Region-based block allocation method
      • Strand-based Allocation

2

Unterscheidung der Blockplatzierungsstrategien

Für Multimedia Daten unterscheidet man Strategien, die sich von traditionellen Blockplatzierungen ableiten und Strategien, die die besonderen Eigenschaften von Multimedia Daten zur Overheadreduktion nützen können (Eingeschränkte Platzierung).

Traditionelle Blockplatzierung

Traditionelle Blockplatzierungs Strategien leiten sich von traditionellen Datenplatzierungsstrategien ab. Diese können unabhängig vom Datentyp angewendet werden.

  • Aneinandergrenzende Platzierung (Contiguous Allocation) – Aufeinanderfolgende Blöcke einer Datei werden auch auf der Disk nebeneinander abgelegt.
    • Everest Contiguous Allocation – Adaption der Contiguous Allocation für Multimedia Daten, die berücksichtigt, dass Multimedia Dateien sehr groß sind.
  • Orgelpfeifen Platzierung – Bei der Entscheidung, wo ein Block positioniert werden soll, wird dessen Aufrufwahrscheinlichkeit beurteilt. So soll sichergestellt werden, dass bei gleichzeitigem Zugriff auf unterschiedliche Dateien die zu erwartende durchschnittliche Seek Time niedrig bleibt.

Eingeschränkte Platzierung (Constrained-placement policies)

Diese Strategien berücksichtigen die speziellen Eigenschaften von Multimedia Daten.

  • REBECA - Region-based block allocation method. REBECA berücksichtigt den sequentiellen Charakter von Multimedia Dateien. Es werden Blöcke der unterschiedlichen Multimedia Dateien in gleiche Regionen gespeichert. Sind die Schreib/Leseköpfe in einer bestimmten Region positioniert, können die entsprechenden Blöcke aller auf der Disk gespeicherten Dateien nahezu zeitgleich geschrieben/ausgelesen werden. REBECA ermöglicht die Abwägung von Startverzögerung und Transaktionsrate.
  • Strand-based Allocation – Diese Strategie berücksichtigt, dass Multimedia Dateien meist aus mehreren Datenströmen bestehen (z.B. Video mit Tonspur). Es gibt die Möglichkeit, Ton und Video durch Multiplexen zu vermengen (z.B. MPEG Kodierung) und als einzigen Datenstrom auf der Disk zu speichern. Die Strand-based Allocation Strategie geht einen anderen Weg: Zusammenhängende Datenströme werden voneinander getrennt gespeichert. Dies bringt besonders bei bandbreitenschwachen Speichersystemen Vorteile. Um eine optimale Datenplatzierung zu erzielen, ist die Strategie bestrebt, Blöcke von Datenströmen, die Teil derselben Multimedia Präsentation sind, so zu positionieren, dass bei deren gleichzeitigem Abruf nur ein geringer Seek Overhead entsteht.

Everest Platzierung

1

Traditionelle Contiguous Allocation

  • Funktionsweise
    • Im Datenstom nebeneinander liegende Blöcke werden physisch nebeneinander gespeichert
  • Eigenschaften
    • Lesen eines Datenstromes
      • Optimal, da minimaler zeitlcher Overhead
      • Traditionelle Contiguous Allocation für CD-ROM und Video DVD bestens geeignet
    • Gleichzeitiges Lesen mehrerer Datenströme
      • Keine Möglichkeit, durchschnittliche Wegstrecke der Lese/Schreibköpfe zu minimieren
    • Lesen und Schreiben
      • Dateien ändern sich fortwährend
      • Auf Disk entstehen lokal Lücken bzw. Engpässe
        • Dateien müssen laufend umpositioniert werden
          • Umpositionierung erzeugt Overhead
          • Je größer Dateien, desto größer der durchschnittliche Overhead

Everest Contiguous Allocation

  • Multimediadateien sehr groß
  • Everest Contiguous Allocation
    • Adaption der traditionellen Contiguous Allocation für Multimediadaten

Funktionsweise

  • Datengruppen
    • Blöcke des Datenstroms in Gruppen unterteilt
      • Blöcke einer Gruppe werden nebeneinander gespeichert (Contiguous Allocation)
      • Aufeinander folgende Gruppen werden voneinander getrennt gespeichert
    • Mögliche Gruppengröße
      • <math><semantics><mrow><msub><mi>A</mi><mi>B</mi></msub><mo>=</mo><msup><mi>&#x03C9;</mi><mi>i</mi></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>
  • Freie- Segmente-Liste
    • Freie Blöcke werden in freien Segmenten organisiert
    • Liste besteht aus mehreren Unterlisten
      • Je eine Liste für jede sich aus <math><semantics><mrow><msup><mi>&#x03C9;</mi><mi>i</mi></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>ergebende mögliche Segmentgröße
      • Maximal <math><semantics><mrow><mi>&#x03C9;</mi><mo>&#x2212;</mo><mn>1</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> Segmente in einer Unterliste
Beispiel für mögliche Gruppengrößen
  • <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>2</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>
    • Gruppengrößen von 1, 2, 4, 8, 16, 32 etc. Blöcken möglich
  • <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>3</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>
    • Gruppengrößen von 1, 3, 9, 27, 81, 243 etc. Blöcken möglich

Beispiel Aufteilung einer Datei mittels Everest Allocation

  • Gegeben ist eine Datei bestehend aus 50 Böcken
  • Aufteilung in Gruppen durch Everest Allocation:
    • Für <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>2</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>
      • <math><semantics><mrow><mn>1</mn><mo>&#x00D7;</mo><msup><mn>2</mn><mn>5</mn></msup><mo>+</mo><mn>1</mn><mo>&#x00D7;</mo><msup><mn>2</mn><mn>4</mn></msup><mo>+</mo><mn>1</mn><mo>&#x00D7;</mo><msup><mn>2</mn><mn>1</mn></msup><mo>=</mo><mn>50</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>
    • Für <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>3</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>
      • <math><semantics><mrow><mn>1</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>3</mn></msup><mo>+</mo><mn>2</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>2</mn></msup><mo>+</mo><mn>1</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>1</mn></msup><mo>+</mo><mn>2</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>0</mn></msup><mo>=</mo><mn>50</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

Beispiel Löschen einer Datei

Everest Allocation: Löschen, Blockmigration und Verdichtung

2

Traditionelle Contiguous Allocation

Es werden alle Blöcke einer Datei in gleich bleibender Reihenfolge in aneinander grenzenden Sektoren auf der Disk gespeichert.

Lesen einer Datei

Für das kontinuierliche Auslesen aufeinander folgender Blöcke einer Datei ist die „Contiguous Allocation“ Blockanordnung optimal, da die Seek Time minimal ist. Diese Methode ist daher für Read-only Speichermedien, wie zum Beispiel der CD-ROM und der Video-DVD, besonders geeignet.

Lesen mehrerer Dateien

Sollen Blöcke unterschiedlicher Dateien gleichzeitig ausgelesen werden, bietet die Contiguous Allocation keine Strategie, um die durch die fortwährend neu zu positionierenden Lese/Schreibköpfe eingeführte Seek Time zu minimieren. Diese Eigenschaft macht sich besonders auch dann negativ bemerkbar, wenn der Benutzer eine Multimedia Datei mittels VCR Befehle durchsuchen will.

Lesen/Schreiben

Für ein Speichermedium wie der magnetischen Disk, auf der sowohl geschrieben wie auch gelesen wird, ist zu beachten, dass die Anzahl der Dateien und deren Größe ständig variiert. So entstehen an manchen Stellen der Disk Lücken, anderswo wieder wird es für die Dateien zu eng. Geeignete Strategien müssen daher dafür sorgen, dass die Dateien so positioniert werden, dass sie immer möglichst nahtlos nebeneinander zu liegen kommen. Das notwendige Umpositionieren der Dateien wird allerdings mit zunehmender Dateiengröße zu einem ernsten Problem: Je größer die Datei, desto länger dauert der Kopiervorgang. In dieser Zeit kann auf entsprechende Datei nicht zu gegriffen werden. Weiters erzeugt der Kopiervorgang selbst einen großen Overhead und damit eine Beschneidung der effektiven Bandbreite.

Everest Contiguous Allocation

Ziel

Um die Vorteile der traditionellen Contiguous Allocation auch für die gewöhnlich sehr großen Multimedia Dateien nutzen zu können, wurde die Everest Platzierung entwickelt.

Funktionsweise

Für die Everest Strategie werden nicht alle Blöcke einer Datei durchgehend physisch aneinander liegend auf der Disk gespeichert, sondern es werden Blöcke zu Gruppen zusammengefasst, wobei die Blöcke einer Gruppe aneinander liegend in einem Segment gespeichert werden, die Gruppen aber nicht aneinander grenzen. Durch diese Strategie ergibt sich auf der Disk ein Muster aus Daten- und freie Blöcke.

Datenblöcke

Die möglichen Größen einer Gruppe werden durch

<math><semantics><mrow><msub><mi>A</mi><mi>B</mi></msub><mo>=</mo><msup><mi>&#x03C9;</mi><mi>i</mi></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

mit <math><semantics><mrow><msub><mi>A</mi><mi>B</mi></msub></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>…Gruppengröße, <math><semantics><mi>&#x03C9;</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math>…abstimmbarer Parameter ,<math><semantics><mi>i</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math> …Integer

bestimmt.

Beispiel Gruppengröße

Wenn <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>2</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>, sind Gruppengrößen von 1, 2, 4, 8, 16, 32 etc. Blöcken möglich.
Wenn <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>3</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>, sind Gruppengrößen von 1, 3, 9, 27, 81, 243 etc. Blöcken möglich.

Freie Blöcke

Freie Blöcke werden in freien Segmenten organisiert und in einer eigenen Freie- Segmente-Liste geführt. Diese Liste besteht aus mehreren Unterlisten, und zwar je eine Liste für jede sich aus <math><semantics><mrow><msup><mi>&#x03C9;</mi><mi>i</mi></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>ergebende mögliche Segmentgröße. Um die Prozedur der Datenplatzierung zu vereinfachen, wird festgelegt, dass sich maximal <math><semantics><mrow><mi>&#x03C9;</mi><mo>&#x2212;</mo><mn>1</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> Segmente in einer Unterliste befinden dürfen. Sollte es in Folge einer Dateilöschung in einer Liste zu mehr als <math><semantics><mrow><mi>&#x03C9;</mi><mo>&#x2212;</mo><mn>1</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>Segmenten kommen, werden die Segmente so verteilt, dass zumindest <math><semantics><mi>&#x03C9;</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math> freie Segmente der Größe <math><semantics><mrow><msup><mi>&#x03C9;</mi><mi>i</mi></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> aufeinander folgen. Diese werden dann in ein Segment der Größe<math><semantics><mrow><msup><mi>&#x03C9;</mi><mrow><mostretchy='false'>(</mo><mi>i</mi><mo>+</mo><mn>1</mn><mostretchy='false'>)</mo></mrow></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> zusammengefasst.

Beispiel Aufteilung einer Datei mittels Everest Allocation

Im Folgenden wird gezeigt, wie eine 50 Block Datei von der Everest Allocation in Blockgruppen aufgeteilt wird.
Für <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>2</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> gilt:

<math><semantics><mrow><mn>1</mn><mo>&#x00D7;</mo><msup><mn>2</mn><mn>5</mn></msup><mo>+</mo><mn>1</mn><mo>&#x00D7;</mo><msup><mn>2</mn><mn>4</mn></msup><mo>+</mo><mn>1</mn><mo>&#x00D7;</mo><msup><mn>2</mn><mn>1</mn></msup><mo>=</mo><mn>50</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

1 Segment mit 32 Blöcken (<math><semantics><mrow><msup><mn>2</mn><mn>5</mn></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> ), 1 Segment mit 16 Blöcke (<math><semantics><mrow><msup><mn>2</mn><mn>4</mn></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> ), 1Segment mit 2 Blöcken (<math><semantics><mrow><msup><mn>2</mn><mn>1</mn></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> ).

Für <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>3</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> gilt:

<math><semantics><mrow><mn>1</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>3</mn></msup><mo>+</mo><mn>2</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>2</mn></msup><mo>+</mo><mn>1</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>1</mn></msup><mo>+</mo><mn>2</mn><mo>&#x00D7;</mo><msup><mn>3</mn><mn>0</mn></msup><mo>=</mo><mn>50</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

1 Segment mit 27 Blöcke (<math><semantics><mrow><msup><mn>3</mn><mn>3</mn></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> ), 2 Segmente mit 9 Blöcke (<math><semantics><mrow><msup><mn>3</mn><mn>2</mn></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> ), 1 Segment mit 3 Blöcken (<math><semantics><mrow><msup><mn>3</mn><mn>1</mn></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math> ), 2 Segmente mit einem Block ( <math><semantics><mrow><msup><mn>3</mn><mn>0</mn></msup></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>).

Beispiel Löschen einer Datei

Die Abbildung zeigt die verschiedenen Phasen der Everest Allocation Strategie bei Löschen einer Datei: Löschen, Blockmigration und Verdichtung. Für dieses Beispiel wurde <math><semantics><mrow><mi>&#x03C9;</mi><mo>=</mo><mn>2</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>gewählt.

Everest Allocation: Löschen, Blockmigration und Verdichtung

Orgelpfeifenplatzierung

1

Ziel

  • Minimierung der Average Seek Time

Funktionsweise

  • Jeder Block wird auf dessen Aufrufwahrscheinlichkeit untersucht
    • Blöcke mit hoher Aufrufwahrscheinlichkeit
      • Platzierung in mittleren Zylindern
    • Blöcke mit geringer Aufrufwahrscheinlichkeit
      • Platzierung am inneren oder äußeren Plattenrand

Orgelpfeifenplatzierung: Häufig aufgerufene Blöcke w

 

2

Ziel

Ziel der Orgelpfeifenplatzierung ist es, die Average Seek Time zu minimieren. Als Grundlage der Platzierung dienen die Aufrufwahrscheinlichkeiten der einzelnen Dateienblöcke.

Funktionsweise

Bei der Orgelpfeifenstrategie werden aufeinander folgende Blöcke einer Datei nicht notwendiger Weise nebeneinander liegend auf der Disk gespeichert. Vielmehr werden Blöcke danach bewertet, wie groß die Wahrscheinlichkeit ist, dass sie aufgerufen werden. Untersuchungen haben ergeben, dass die Average Seek Time minimiert werden kann, wenn Blöcke mit hoher Aufrufwahrscheinlichkeit in den mittleren Zylindern, jene mit geringerer Wahrscheinlichkeit am inneren bzw. äußeren Rand der Platten gespeichert werden. In der Mitte der Disk befinden sich also alle Blöcke mit hoher Aufrufwahrscheinlichkeit, unabhängig davon, zu welcher Datei sie gehören. Durch diese Blockanordnung sind die durchschnittlichen Weglängen, die die Schreib/Leserköpfe bei der parallelen Bearbeitung von unterschiedlichen Requests zurücklegen müssen, minimal.

 

Orgelpfeifenplatzierung: Häufig aufgerufene Blöcke werden in den mittleren Zylindern, selten angeforderte in den Randlagen der Disk gespeichert.

REBECA

1

auto

  • REBECA - Region-based block allocation method
    • Ziel
      • Zeitgleiches Schreiben/Lesen unterschiedlicher Multimedia Datenströme
    • Basiert auf sequentiellen Charakter multimedialer Datenströme
    • Möglichkeit, zwischen Bandbreite und Startverzögerung abzuwägen

Funktionsweise

  • Regionen
    • Magnetische Disk wird in eine fixe Anzahl von konzentrischen Regionen unterteilt
      • Anzahl der Regionen
        • Entweder viele kleine Regionen
        • Oder wenige große Regionen
  • Datenplatzierung
    • Blöcke eines Datenstroms werden auf die Regionen aufgeteilt
    • Aufeinanderfolgende Blöcke liegen in aneinandergrenzenden Regionen
    • In jeder Region befinden sich Blöcke unterschiedlicher Dateien
  • Schreibe/Lesestrategie
    • Schreib/ Leseköpfe ursprünglich in Region nächst Diskzentrum
      • Relevante Blöcke aller aktuellen Requests werden bearbeitet
    • Schreib/ Leseköpfe wandern in nächste Region
      • Relevante Blöcke aller aktuellen Requests werden bearbeitet
    • Vorgang wird für alle Regionen wiederholt
    • Wenn äußerste Region erreicht, wandern Schreib/ Leseköpfe wieder schrittweise Richtung Diskzentrum

Beispiel REBECA

Einfluss der Regionsgröße

  • Größe der Regionen bestimmen Performance von REBECA
    • Bandbreite
      • Bandbreite um so höher je kleiner Regionen
        • Geringere Wegzeiten der Schreib/ Leseköpfe
        • Geringere Seek Time
      • Für maximale Bandbreite sind kleine Regionen wünschenswert
    • Startverzögerung
      • Datenstrom kann erst gestartet werden, wenn Schreib/ Leseköpfe in Region des Startblockes
        • Benötigte Zeit für einen Abtastzyklus steigt mit Anzahl der Regionen
        • Hohe Anzahl der Regionen bedeutet kleine Regionen
      • Für minimale Startverzögerung sind große Regionen wünschenswert

2

Ziel

Bei REBECA werden die Daten so platziert, dass möglichst viele Multimedia Dateien zeitgleich geschrieben/ausgelesen werden können. Es wird dabei der sequentielle Charakter von Multimedia Datenströmen genutzt. Man erhält bei dieser Methode die Möglichkeit, zwischen Bandbreite des Speichergerätes und Startverzögerung der Datenströme abzuwägen.

Funktionsweise

Für die Region-based block allocation method (REBECA) wird die magnetische Disk in eine fixe Anzahl von konzentrischen Regionen unterteilt. Die Größe der einzelnen Regionen hängt von der gewählten Anzahl der Regionen ab: Wird in vielen Regionen unterteilt, werden die Regionen kleiner und umgekehrt. Beim Schreibvorgang verteilt REBECA aufeinander folgende Blöcke eines Multimedia Objektes auf aufeinander folgende Regionen. In einer Region befinden sich also Blöcke von verschiedenen Multimedia Objekten. Befindet sich die Schreibe/Leseköpfe in einer bestimmten Region, können Blöcke der unterschiedlichen Multimedia Objekte beinahe zeitgleich ausgelesen werden.

Schreibe/Lesestrategie bei REBECA

Die Schreib/ Leseköpfe befinden sich ursprünglich in der dem Diskzentrum am nächst gelegenen Region. In dieser Position bearbeiten sie alle Requests, die sich auf Blöcke beziehen, die sich hier befinden. Nun wandern die Köpfe sukzessive von innen nach außen, von Region zu Region, und bearbeiten dort jeweils alle regionsrelevanten Requests. Nachdem sie in der äußersten Region angelangt sind, bewegen sie sich wieder schrittweise nach Innen, bis sie schließlich wieder die ursprüngliche Position erreicht haben. Wie oft dieser Disk-Abtastzyklus wiederholt wird, hängt von der Länge der Multimedia Objekte ab. Durch diese Strategie können viele unterschiedliche Streaming Dateien wie Videos oder Audios praktisch zeitgleich ein/ausgelesen werden.

Beispiel REBECA

Als Beispiel betrachten wir eine Disk, die in 6 Regionen unterteilt wird. Die Region 0 umfasst die dem Diskzentrum nahen Zylinder, Region 5 die Zylinder am Diskrand. Auf dieser Disk soll nun eine Datei, die aus 16 Blöcken besteht, gespeichert werden. Von Innen beginnend wird nun Block 0 in Region 0 gespeichert, Block 1 in Region 1 usw. Block 5 und 6 werden in der Region 5 gespeichert. Die Schreibe/Leseköpfe bewegt sich nun wieder Richtung Zentrum, Block 7 wird in Region 4 gespeichert usw.

REBECA : Eine Datei bestehend aus 16 Blöcken wird auf 6 Regionen aufgeteilt

Einfluss der Regionsgröße

Die richtige Wahl der Größe der Regionen spielt die entscheidende Rolle für die Performance von REBECA. Es muss zwischen gewünschter Bandbreite und vertretbarer Startverzögerung der Datenströme abgewogen werden.

Bandbreite

Die Seek Time innerhalb einer Region hängt von deren Größe ab: Ist die Region groß, ist der mögliche Weg, den der Kopf zurücklegen muss, groß. Dementsprechend hoch ist die maximale Seek Time. Ist die Region hingegen klein, reduziert sich die Seek Time, es können in kürzerer Zeit mehr Blöcke ausgelesen werden. Kleine Regionen erhöhen die erzielbare Bandbreite des Speichergerätes.

Startverzögerung

Viele kleine Regionen ergeben zwar eine geringe Seek Time, aber erhöhen auch die Zeit, die die Lese/Schreibköpfe benötigen, um einen vollständigen Abtastzyklus zu durchlaufen. Ein Video- oder Audiodokument kann aber erst gestartet werden, wenn sich der Kopf in der Region befindet, in der der entsprechende Startblock steht. Für eine minimale Startverzögerung sind daher große Regionen wünschenswert.

Retrieval - Strategien zum Abrufen von Multimedia-Daten

1

Überblick

  • Ablaufplanungsstrategien (Scheduling policies)
    • Gefordert ist die unterbrechungsfreie Wiedergabe aller aktuellen Datenströme
      • Strategien erstellen einen Zeitplan, wann welche Blöcke ausgelesen werden müssen
    • Gemeinsames Prinzip aller Strategien
      • Blöcke werden schon im Vorhinein von der Disk abrufen

Zwei Kategorien von Ablaufplanungsstrategien

  1. Round-based Strategien
    • Daten periodisch in Runden ausgelesen
      • Für jeden Datenstrom muss eigener Puffer vorhanden sein
        • Dimensionierung Pufferkapazität
          • Puffer muss Daten für die Dauer einer Runde zwischenspeichern können
    • In einer Runde wird pro Datenstrom exakt ein Request abgearbeitet
      • Datenmenge pro Request abhängig von Playback-Datenrate des Datenstroms
      • Daraus ergibt sich, dass Diskblöcke verschieden groß sind
        • Nachteil: Implementierung von variablen Diskblöcken ist äußerst komplex
  2. Fixe Blockgröße Strategien
    • Pro Request wird nur ein Block konstanter Größe ausgegeben
    • Anzahl der Requests pro Zeiteinheit proportional zur Playback-Datenrate
    • Einfache Implementierung

2

Überblick

Die größte Herausforderung, die sich beim Abruf von Multimedia Datenstöme ergibt, ist deren unterbrechungsfreie Lieferung. Dazu bedarf es eigener Ablaufplanungsstrategien (Scheduling policies). Sie haben die Aufgabe, einen geeigneten Zeitplan zu erstellen, der festlegt, wann welcher Block ausgelesen werden muss, um für alle aktuellen Requests eine unterbrechungsfreie Wiedergabe garantieren zu können. Alle Strategien arbeiten mit dem Prinzip, dass sie Blöcke schon im Vorhinein von der Disk abrufen. Ablaufplanungsstrategien können in zwei Kategorien eingeteilt werden:

  • Round-based Strategien – Die Daten werden periodisch in so genannten Runden ausgelesen. In einer Runde wird pro Datenstrom exakt ein Request abgearbeitet. Die Anzahl der abgefragten Daten pro Request ist dabei proportional zur Playback-Datenrate der Multimedia Dateien. Die Daten werden in Puffer ausgelesen. Für jeden Datenstrom gibt es einen eigenen Puffer, der so dimensioniert sein muss, dass genügend Daten geladen werden können, um während der Zeit, die eine Runde dauert, eine unterbrechungsfreie Lieferung garantieren zu können. Der Pufferinhalt wird in jeder Runde aktualisiert: Bereits gesendete Blöcke werden überschrieben, Blöcke, die noch in Warteposition sind, bleiben unberührt. Sind noch keine Blöcke des Puffers ausgelesen worden, wird entsprechender Datenstrom in dieser Runde übersprungen.
  • Fixe Blockgröße Strategien – Bei der Round-based Strategie ist die Anzahl der Daten, die pro Request abgearbeitet werden, abhängig von der Playback-Datenrate der auszulesenden Multimedia Datei. Das bedeutet allgemein, dass die Größe der Diskblöcke variabel ist. Die Implementierung solcher variablen Diskblöcke ist allerdings äußerst komplex. Als Alternative bieten sich nun Strategien an, die mit fixen Blockgrößen arbeiten. Es wird dabei pro Request immer nur ein Block konstanter Größe ausgegeben, unabhängig von der Playback-Datenrate. Hier sind dann die Anzahl der Requests pro Zeiteinheit proportional zur Playback-Datenrate.

Round-based Strategien

1

Round-Robin Strategien

  • Round Robin = Zyklischer Warteschlangenbetrieb
  • Round-Robin Planer spielt Datenstromblöcke nach fix vorgegebener Ordnung aus
    • Vorteil
      • Leichte Implementierung
      • Puffer müssen nur eine Runde überbrücken
    • Nachteile
      • Eine Runde dauert länger als bei anderen Strategien
        • Grund: Durch fixe Ordnung besteht keine Möglichkeit, Seek Time Overhead zu reduzieren
      • Lange Runde bedeutet hohe Pufferkapazität

Abtast-Strategien (Scan policies)

  • Diskoberfläche wird fortwährend kontinuierlich abgetastet
  • Es werden die Requests bedient, die sich auf Daten der momentanen Köpfeposition beziehen
    • Vorteil
      • Minimaler Seek Time Overhead
    • Nachteil
      • Puffer müssen zwei Runden überbrücken
        • Allerdings: Zwei Runden der Abtaststrategie dauern kürzer als eine Runde der Round Robin Strategie

Vergleich Round-Robin Strategien und Abtast Strategien

Vergleich Round-Robin und Abtast-Strategie bei drei Dateien

Group Sweeping Scheduling (GSS)

  • Group Sweeping Scheduling - Kombination der Round Robin- und Abtast-Strategie
    • Round-Robin Komponente
      • Daten müssen nur für eine Runde gepuffert werden
    • Abtaststrategie Komponente
      • Geringer Seek Time Overhead
        • Eine Runde dauert nur kurz
  • Funktionsweise von GSS
    1. Es werden V aktive Datenströme in M Gruppen aufgeteilt
      • M ist optimal, wenn Puffergröße minimal
    2. Die Gruppen werden nach der Round-Robin Strategie ausgelesen
      • Puffer müssen nur eine Runde überbrücken
    3. Die Datenströme einer Gruppe werden nach der Abtast-Strategie ausgelesen
      • Geringer Seek Time Overhead
      • Eine Runde ist schnell abgearbeitet

Beispiel GSS

Auslesestrategie GSS für 6 Dateien, die in 2 Gruppen aufgeteilt werden

Aufteilung in Gruppen
  • Gruppe 1: G1 {A, C, E}
  • Gruppe 2: G2 {B, D, F}
Auslesereihenfolge

Runde 1

Runde 2

G1{A1, E1, C1}, G2{D1, F1, B1}

G1{C2, A2, E2}, G2{F2, B2, D2}

2

Round-Robin Strategien

Round Robin = Zyklischer Warteschlangenbetrieb ling2005. Der Round-Robin Planer spielt die einzelnen Datenstromblöcke nach einer fix vorgegebenen Ordnung aus. Die Requests werden in dieser fixen Reihenfolge bedient. Die Round-Robin Strategie wird zwar auf Grund ihrer Einfachheit gerne eingesetzt, sie hat allerdings den großen Nachteil, dass bei der Ausgabe die Reihenfolge der Datenströme nicht verändert werden kann, so dass es keine Möglichkeit gibt, den Leseköpfen redundante Wegzeiten zu ersparen und somit den Seek-Overhead zu minimieren. Durch diesen systemimmanenten Overhead dauert auch eine Runde bei der Round-Robin Strategie länger als bei anderen Auslesestrategien. Dementsprechend groß müssen die Puffer dimensioniert werden. Ein Puffer muss dabei Datenmengen, die für die Dauer einer Runde ausreichen, fassen können.

Abtast-Strategien (Scan policies)

Bei dieser Strategie tasten die Lese/Schreibköpfe periodisch die gesamte Diskoberfläche ab. Beginnend im Inneren der Disk bewegen sie sich schrittweise Richtung Äußersten Zylinder der Disk, von dort bewegen sie sich wieder, ebenfalls schrittweise, Richtung Zentrum. Es werden jeweils die Requests bedient, die sich auf die Daten der momentanen Köpfeposition beziehen. Obwohl die Puffer der Abtast-Strategie Datenmengen fassen müssen, die die Dauer von zwei Runden überbrücken, sind diese trotzdem kleiner als bei der. Round-Robin Strategie (Puffer für eine Runde). Der Grund dafür ist, dass es bei der Abtast-Strategie nur einen geringen Seek Overhead gibt, und eine Runde daher dementsprechend kürzer dauert.

Vergleich Round-Robin Strategien und Abtast Strategien

Die Abbildung zeigt schematisch die Arbeitsweise der beiden Strategien.

Vergleich Round-Robin und Abtast-Strategie bei drei Dateien

Round-Robin

Bei der Round-Robin Strategie ist die Reihenfolge der Datenströme fix: In diesem Beispiel werden zuerst die Blöcke der Datei A, dann die der Datei C und dann die der Datei B ausgelesen. Wie man leicht erkennen kann, wäre bei der in der Abbildung dargestellten Dateienplatzierung die Auslesereihenfolge A, B, C in Hinblick auf einen minimalen Seek Overhead zweckmäßiger, aber unter Round-Robin eben nicht realisierbar. Ein Vorteil der starren Auslesereihenfolge ist, dass der zeitliche Abstand zwischen zwei aufeinanderfolgenden Blöcken einer Datei (A1-A2, C1-C2, B1-B2) immer eine Runde beträgt.

Abtast Strategien (Scan policies)

Es werden die Blöcke in derselben Reihenfolge ausgelesen, wie die Dateien auf der Disk physisch angeordnet sind. Dadurch wird ein Minimum an Seek Overhead erreicht. In welchen zeitlichen Abständen aufeinander folgender Blöcke einer Datei ausgelesen werden, hängt von der Dateiposition ab. In der Abbildung sieht man, dass Block 1 und 2 der Datei C unmittelbar hintereinander ausgelesen werden, während Block 1 und 2 der Datei A in einem 2 Runden entsprechendem Zeitabstand geliefert werden. Die Puffer müssen daher Daten für zwei Runden puffern können.

Group Sweeping Scheduling (GSS)

Diese Strategie ist eine Kombination der Round-Robin- und der Abtast-Strategie. Durch Group Sweeping Scheduling lässt sich ein minimaler Seek Overhead bei gleichzeitig kleinen Puffergrößen realisieren. Die Round-Robin Komponente bewirkt, dass Daten nur für eine Runde gepuffert werden müssen, die Abtaststrategie Komponente sorgt dafür, dass diese Runde möglichst schnell abgearbeitet wird.

Funktionsweise von GSS

  1. Es werden V aktive Datenströme in M Gruppen aufgeteilt
  2. Die Gruppen werden nach der Round-Robin Strategie ausgelesen
  3. Die Datenströme einer Gruppe werden nach der Abtast-Strategie ausgelesen

Entscheidend für die Qualität von GSS ist die richtige Wahl des Wertes M. M ist dann optimal, wenn sich eine minimale erforderliche Puffergröße ergibt. Da die Gruppen in der Round-Robin Reihenfolge ausgelesen werden, müssen die Puffer nur Daten für eine Runde zwischenspeichern können. Im Gegensatz zur Round-Robin Strategie benötigt GSS allerdings wesentlich weniger Zeit für eine Runde, da die Datenströme selbst mit der Seektime-schonenden Abtaststrategie ausgelesen werden.

Beispiel GSS

Auf einer Disk sind die 6 Dateien A, B, C, D, E, F, wie in der Abbildung dargestellt, positioniert. GSS teilt sie nun in 2 Gruppen auf:

Gruppe 1: G1 {A, C, E}

Gruppe 2: G2 {B, D, F}

Es werden nun die Gruppen mit Round-Robin, die Dateien einer Gruppe mittels Abtaststrategie ausgelesen. Es ergibt sich für die Dateienblöcke folgende Auslesereihenfolge:

Runde 1

Runde 2

G1{A1, E1, C1}, G2{D1, F1, B1}

G1{C2, A2, E2}, G2{F2, B2, D2}


Auslesestrategie GSS für 6 Dateien, die in 2 Gruppen aufgeteilt werden

Dateienplatzierung - Allgemein

1

Aufgabe

  • Dateienplatzierung - Für jede Datei muss geeigneter Speicherort gefunden werden
  • Es sind folgende Eigenschaften zu betrachten
    • Speichergeräte
      • Bandbreite
      • Speicherkapazität
    • Dateien
      • Größe
      • Popularität

Arbeitsweise

  • Mischung unterschiedlicher Dateien
    • Optimale Dateienplatzierung
      • Auf jedem Speichergerät eine Melange aus
        • Großen und kleinen Dateien
        • Populären und weniger populären Dateien
  • Erstellen von Kopien
    • Für populäre Dateien ist es zweckmäßig, mehrere Kopien zu speichern
      • Dateienplatzierungs Strategien entscheiden
        • Wie viele Kopien anzufertigen sind
        • Wo die Kopien zu speichern sind
  • Dateienplatzierung und Belastungsschwankungen
    • Reale Systeme
      • 5% der Gesamtbandbreite werden benötigt, um Belastungsschwankungen dynamisch auszugleichen
    • Dateienplatzierung bildet Grundlage für effektive Belastungsausgleichs Strategien
  • Dateienplatzierung für interaktive Anwendungen
    • Multimedia Objekte müssen so platziert werden, dass synchrone Präsentation der Objekte gewährleistet

2

Aufgabe

Dateienplatzierungs Strategien haben die Aufgabe, für jede Datei den geeigneten Speicherort zu wählen: Es müssen dabei sowohl Eigenschaften der Speichergeräte wie die der Dateien betrachtet werden: Jedes Speichergerät hat bezüglich Bandbreite und Speicherplatz individuelle Grenzen, Dateien sind unterschiedlich groß und werden unterschiedlich oft angefordert, womit auch deren erforderlichen Bandbreiten ebenfalls unterschiedlich sind.

Arbeitsweise

Mischung unterschiedlicher Dateien

Speichergeräte kann man bezüglich Bandbreite und Speicherkapazität als schnelle oder langsame Geräte klassifizieren. Dateien kann man auf Grund ihrer Popularität in als populäre und weniger populäre und auf Grund ihrer Größe als große und kleine Dateien klassifizieren. Für eine optimale Dateienplatzierung muss nun für jedes Speichergerät eine ideale Mischung von populär und wenig populär, groß und klein, gefunden werden.

Beispiel: Schlechte Dateienplatzierung

Als ein Beispiel, wie durch falsche Platzierung vorhandene Ressourcen verschließen werden können, betrachten wir hier ein schnelles Speichergerät, auf welchem vorwiegend lange, aber wenig populäre Dateien positioniert werden. Die Speicherkapazität wird zwar ausgenutzt, da aber die zu erwartende Requesthäufigkeit gering ist, wird potentielle Bandbreite nicht genutzt. Ähnliches gilt, wenn man viele kleine Dateien hoher Popularität auf ein langsames Speichergerät stellt: Die geringe Bandbreite des Gerätes erlaubt nur wenige Zugriffe, nur wenige Dateien können zur Verfügung gestellt werden, Speicherkapazitäten werden unnötig vergeudet.

Beispiel: Gute Dateienplatzierung

Eine gute Dateienplatzierung ergibt sich im Allgemeinen aus einer Mixtur von populären und weniger populären, großen und kleinen Dateien.

Erstellen von Kopien

Um dem Wunsch nachkommen zu können, dass eine hohe Anzahl von Clients zeitgleich auf dieselbe Multimedia Datei zugreifen können, ist es oft notwendig, von einer Datei mehrere Kopien zu speichern. Die Platzierungsstrategie muss nun entscheiden, wie viele Kopien zu erstellen sind und wo diese zu speichern sind.

Dateienplatzierung und Belastungsschwankungen

In realen Systemen werden zirka 5% der Gesamtbandbreite benötigt, um Belastungsschwankungen, die während des Betriebes entstehen, ausgleichen zu können. Um einen zufrieden stellenden Belastungsausgleich zwischen den verschiedenen Speichergeräten zu erzielen, ist eine dynamische Strategie sehr hilfreich. Die DSR (Dynamic Segment Replication) zum Beispiel arbeitet nur mit Kopien von Teilen der Multimedia Objekte, mittels deren dynamischen Verschiebung sie Belastungsschwankungen entgegen wirkt. Die Effektivität einer solchen Strategie hängt stark davon ab, wo ursprünglich die Dateien platziert waren. Unter dem Gesichtpunkt des Belastungsausgleiches wird eine Dateienplatzierungsstrategie dann als gut angesehen, wenn eine dynamische Strategie effektiv darauf aufbauen kann.

Dateienplatzierung für interaktive Anwendungen

Bei vielen interaktiven Anwendungen ist es erforderlich, dass kundenseitig mehrerer Multimedia Objekte gleichzeitig angezeigt werden. Um ein hohes Maß an Synchronität gewährleisten zu können, sollten hier die unterschiedlichen Objekte so platziert werden, dass nur wenig zwischen unterschiedlichen Servern hin- und hergeschaltet werden muss.

Praktische Anforderungen an Dateienplatzierung

1

auto

  • Effektive Nutzung vorhandener Speichergeräte bezüglich Bandbreite und Kapazität
  • Absehbare Belastungsänderungen müssen in Entscheidungsprozess miteinbezogen werden
  • Zeitabhängigkeit der Arbeitslast soll möglichst genau berechenbar sein
  • Jede Art von Neuplatzierung muss mit Dateienplatzierungsstrategie abgestimmt werden
  • Integration Dateienplatzierungsstrategie in Speicherorganisation

2

auto

Um eine Strategie mit hoher Effektivität zu erzielen, muss folgendes berücksichtigt werden:

  • Die zur Verfügung stehenden Speichergeräte sollen bezüglich ihrer Bandbreite und Speicherkapazität möglichst effektiv genutzt werden
  • Multimedia Dateien sind im Allgemeinen sehr groß, daher nimmt das Verschieben der Dateien auf andere Speicher viel Zeit in Anspruch. So müssen absehbare Belastungsänderungen immer schon im Vorhinein in die Entscheidung miteinbezogen werden
  • Die Arbeitslast ändert sich in Abgängigkeit von der Zeit. Für eine effektive Dateienplatzierung muss Datenmaterial vorhanden sein, mit dessen Hilfe man für jede Multimedia Datei die zu erwartende Client Anzahl für einen zukünftigen Zeitpunkt möglichst genau vorhersagen und die Dateienplatzierung darauf basierend regelmäßig aktualisieren kann (off- oder online)
  • Jede Art von Neuplatzierung von Multimedia Objekten, wie Hinzufügen, Löschen und Verschieben, muss mit der Dateienplatzierungsstrategie abgestimmt werden
  • Die verwendete Dateienplatzierungsstrategie muss in jene Strategie integriert werden, die für die Organisation der Speicherhierarchie verantwortlich ist. Sind zum Beispiel kaum gewünschte Dateien auf einem Magnetband archiviert, muss der Dateienplatzierungsstrategie bekannt sein, wie lange es dauert, eine Datei auf eine Disk zu kopieren, um sie so für mehrere Clients zugänglich zu machen.

Popularitätsbasierte Strategie

1

Ziel

  • Multimedia Objekte sollen auf ein Set identischer Disks optimal platziert werden
  • Zahl der Clients, die im Falle einer Überlastung nicht bedient werden können, soll möglichst gering sein

Funktionsweise

  • Bewertung der individuellen Aufrufwahrscheinlichkeitswerte
    • Für jede Datei wird protokolliert, wie oft sie innerhalb eines Tages aufgerufen wird
    • Aus Werte werden die Aufrufwahrscheinlichkeitswerte für nächsten Tag errechnet

Schätzung der Popularitätswerte für morgigen Tag

Zugriffswahrscheinlichkeit für den morgigen Tag ergibt sich aus:

<mathdisplay='block'><semantics><mrow><msub><mi>p</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow></msub><mo>=</mo><mfrac><mrow><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow></msub></mrow><mrow><mstyledisplaystyle='true'><munder><mo>&#x2211;</mo><mi>i</mi></munder><mrow><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow></msub></mrow></mstyle></mrow></mfrac></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

<math><semantics><mrow><msub><mi>p</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi></mrow></msub></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>…Zugriffswahrscheinlichkeit der Datei <math><semantics><mi>i</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math> am Tag <math><semantics><mi>t</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math>(heutiger Tag)
<math><semantics><mrow><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi></mrow></msub></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>…Anzahl der Zugriffe auf die Datei <math><semantics><mi>i</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math> am Tag <math><semantics><mi>t</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math>

Popularitätsbasierte Strategie: Aus den Werten der Tage t und t -1 wird Tag t+1 approximiert

Dateienplatzierung auf identische Disks

  • Optimale Dateienplatzierung der popularitätsbasierten Strategie
    • Jede Disk wird mit gleicher Häufigkeit aufgerufen

2

Ziel

Die popularitätsbasierte Strategie (engl: popularity-based placement policy) kann dazu benutzt werden, um Multimedia Objekte auf ein Set identischer Disks optimal zu platzieren. Es wird das Ziel verfolgt, die Zahl der Clients, die im Falle einer Überlastung nicht bedient werden können, möglichst niedrig zu halten.

Funktionsweise

Die popularitätsbasierte Strategie baut auf der Kenntnis der Aufrufwahrscheinlichkeitswerten der gespeicherten Dateien auf. Für solch eine Strategie ist es wichtig zu wissen, welche Datei in Zukunft eine höhere bzw. geringere Popularität haben wird. Das heißt, man muss schon im Vorhinein für jede Datei mittels geeigneten Algorithmen genau abschätzen können, wie oft sie in nächster Zukunft aufgerufen wird. Zu diesem Behufe wird für jede Datei protokolliert, wie oft sie im Verlauf eines Tages angefordert wird. Die hier betrachtete popularitätsbasierte Strategie rekonfiguriert die Dateienplatzierung alle 24 Stunden, und zwar off-line. Die für den morgigen Tag zu erwartenden Zugriffswerte werden mittels der Werte vom heutigen und gestrigen Tag approximiert.

Schätzung der Popularitätswerte für morgigen Tag

<math><semantics><mrow><msub><mi>p</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi></mrow></msub></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>…Zugriffswahrscheinlichkeit der Datei <math><semantics><mi>i</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math> am Tag <math><semantics><mi>t</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math>(heutiger Tag)
<math><semantics><mrow><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi></mrow></msub></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>…Anzahl der Zugriffe auf die Datei <math><semantics><mi>i</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math> am Tag <math><semantics><mi>t</mi><annotationencoding='MathType-MTEF'></annotation></semantics></math>
Durch eine lineare Interpolation erhält man aus den protokollierten Zugriffen von heute und gestern die Anzahl der Zugriffe für morgen:

<mathdisplay='block'><semantics><mrow><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow></msub><mo>=</mo><mn>2</mn><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi></mrow></msub><mo>&#x2212;</mo><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>&#x2212;</mo><mn>1</mn></mrow></msub></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

Die Zugriffswahrscheinlichkeit für den morgigen Tag ergibt sich aus:

<mathdisplay='block'><semantics><mrow><msub><mi>p</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow></msub><mo>=</mo><mfrac><mrow><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow></msub></mrow><mrow><mstyledisplaystyle='true'><munder><mo>&#x2211;</mo><mi>i</mi></munder><mrow><msub><mi>&#x039B;</mi><mrow><mi>i</mi><mo>,</mo><mi>t</mi><mo>+</mo><mn>1</mn></mrow></msub></mrow></mstyle></mrow></mfrac></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

Popularitätsbasierte Strategie: Aus den Werten der Tage t und t -1 wird Tag t+1 approximiert

Dateienplatzierung auf identische Disks

Für eine optimale Dateienplatzierung ist die popularitätsbasierte Strategie bestrebt, die Dateien so auf die Disks aufzuteilen, dass auf jede Disk mit gleicher Häufigkeit zugegriffen wird.

BSR Strategie (Bandwidth to Space Ratio)

1

Ziel

  • Dateien
    • Verschieden groß, verschieden populär
  • Speichergeräte
    • Unterschiedliche Charakteristika
  • BSR (Bandwidth to Space Ratio) Strategie
    • Ressourcenoptimierung

Funktionsweise

  • Bandbreite und Kapazität jedes Speichergerätes soll voll ausgeschöfpt werden
  • BSR strebt nach
    • Bandbreiten-Kapazitäts-Verhältnis Speichergerät = Bandbreiten-Kapazitäts-Verhältnis Dateien
  • BSR arbeitet online
    • Bei Belastungsänderung wird Dateienplatzierung adaptiert

Beispiel Übereinstimmung BSR

.

BSR: Zwei Geräte mit unterschiedlichem Bandbreiten-Kapazitäts-Verhältnis a) Übereinstimmung der BSR der Speichergeräte und Dateien. b) Keine Übereinstimmung der BSR der Speichergeräte und Dateien

Details zum BSR Algorithmus

  • Eingangsparameter Bandbreite
    1. Anzahl der zu erwartenden Requests
    2. Benötigte Bandbreite, um eine Kopie zu erstellen
      • Abhängig von
        • Dateiengröße
        • Benötigte Kopierzeit
  • Die vier Phasen des BSR Algorithmus
    1. Entscheidung, welche Kopien zu erstellen sind
    2. Auswahl der Speichergeräte nach dem Kriterium Bandbreiten-Kapazitäts-Verhältnis
    3. Übertragung der Kopien auf Speichergeräte
    4. Phase 4 wird nur ausgeführt, wenn in Phase 3 keine Dateienplatzierung möglich
      • Bandbreite bzw. Kapazität der Speichergeräte bereits ausgeschöpft
      • Die BSR schaftt nutzbaren Speicherplatz
        • Umpositionieren von Kopien
        • Löschen von Kopien

Performancemaße

  • Die Performance der BSR Strategie ist unter unterschiedlichen Gesichtspunkten bewertbar
    • Messung der Abweichung der Bandbreiten-Kapazitäts-Verhältnisse
      • Macht keine Aussage über Verhalten bei hoher Belastung
    • Performancemaß „ Ungenutzte Bandbreite “
      • Sagt aus, wieviel Bandbreite vergeudet wird
      • Aussagekräftiges Maß auch bei hohen Belastungen

Evaluierung BSR für Video-on-Demand

Studie siehe shah1995

Aufbau der Simulation

  • 64 Videos, gespeichert in vier Striping groups auf 8, 16, 32 und 64 identischen Disks
  • Dateiengröße - 3,6GB/Video
  • Bandbreite der Videos - Zipfsche Verteilung (siehe Zipfsches Gesetz)
  • Speicherkapazität/Disk - 2GB
  • Bandbreite/Disk - 6,25 Datenströme
Kapazität/Bandbreiten Werte der 4 Striping Groups

 

Group 1

(8 Disks)

Group 2

(16 Disks)

Group 3

(32 Disks)

Group 4

64 Disks

Kapazität [GB]

16

32

64

128

Bandbreite [Datenströme]

50

100

200

400

Anfangsplatzierung durch BSR

BSR: Anfangsplatzierung a) Kapazität b) Bandbreite. Die schwarzen Balken zeigen die zur Verfügung stehenden Werte. Die beiden grauen Balken (hell- und dunkelgrau) zeigen die durch die BSR Platzierungsstrategie erzielten Werte.

BSR bei Belastungsänderung

 

Links: Zipfverteilung und unterschiedliche Belastungsänderungen – Rechts: Bandbreite Kapazität (schwarz), Anfangsplatzierung (dunkelgrau), Verschiebung 1 (mittelgrau), Verschiebung 10 (hellgrau)

2

Ziel

Die BSR Strategie ( Bandwidth to Space Ratio) ermöglicht es, große und kleine Multimedia Objekte, Objekte mit hohen und geringen Popularitätswerten auf Speichergeräte unterschiedlicher Charakteristika ressourcenoptimiert zu verteilen.

Funktionsweise

Die BSR Strategie charakterisiert jedes Speichergerät durch dessen maximale Bandbreite und Speicherkapazität, jedes Multimedia Objekt durch Größe und dessen zum Zeitpunkt der Speicherung geforderte Bandbreite. Die BSR Strategie ist bestrebt, für jedes Speichergerät die richtige Melange an Dateien zu finden, sodass die geforderten Bandbreite- und Kapazitätswerte der Dateien mit den Werten des Speichergerätes harmonieren: Das Bandbreiten-Kapazitäts-Verhältnis (Bandwidth to Space Ratio) des Speichergerätes soll gleich dem Bandbreiten-Kapazitäts-Verhältnis der darauf gespeicherten Dateien sein. Die BSR Strategie arbeitet online: Ergeben sich während des Betriebes Änderungen der Werte, so reagiert die BSR Strategie, indem sie Kopien verschiebt, löscht (wenn eine sinkende Nachfrage nach betreffendem Objekt erkennbar ist) oder neue erstellt (für Objekte mit steigender Popularität), um so möglichst schnell die Übereinstimmung von Speichergeräten und den darauf gespeicherten Dateien wieder herzustellen.

Beispiel Übereinstimmung BSR

Die Abbildung zeigt zwei Speichergeräte mit unterschiedlichen Bandbreiten-Kapazitäts-Verhältnisse. Das Gerät 1 (in der Abbildung links) bietet hohe Bandbreite bei verhältnismäßig wenig Speicherplatz. Gerät 2 (in der Abbildung rechts) hat ein ausgewogenes Bandbreiten-Kapazitäts-Verhältnis. In a) ist der zum jeweiligen Gerät passende, in b) der nicht passende Dateiensatz eingezeichnet.

.

BSR: Zwei Geräte mit unterschiedlichem Bandbreiten-Kapazitäts-Verhältnis a) Übereinstimmung der BSR der Speichergeräte und Dateien. b) Keine Übereinstimmung der BSR der Speichergeräte und Dateien

Details zum BSR Algorithmus

Eingangsparameter Bandbreite

Die BSR Strategie hat bezüglich Bandbreite eines Multimedia Objektes zwei Eingangsparameter: Die sich durch die Anzahl der zu erwartenden Requests ergebende Bandbreite eines Multimedia Objektes und die zusätzlich benötigte Bandbreite, um eine Kopie zu erstellen. Die letztgenannte ist neben der Dateiengröße davon abhängig, wie schnell die Kopie erstellt werden kann: Wird ein Objekt von einer Disk auf eine andere kopiert, dauert der Kopiervorgang nur kurz, wird von einem Magnetband kopiert dauert er lang, bei einer Echtzeitanwendung läuft er während der gesamten Übertragung.

Die vier Phasen des BSR Algorithmus

Die BSR legt mit Hilfe der Eingangsparameter die Anzahl der erforderlichen Kopien fest. Der Algorithmus besteht aus 4 Phasen:

  1. In der ersten Phase wird entschieden, ob es zweckmäßig ist, von einem Multimedia Objekt mehrere Kopien zu speichern.
  2. Sind zusätzliche Kopien zu speichern, werden in Phase 2 die Speichergeräte nach dem Kriterium Bandbreiten-Kapazitäts-Verhältnis ausgewählt.
  3. In Phase 3 werden die verschiedenen Kopien auf die jeweiligen Speichergeräte übertragen.
  4. Die vierte Phase wird nur ausgeführt, wenn es in Phase 3 nicht möglich ist, die Kopien nach Wunsch zu positionieren. Das ist dann der Fall, wenn Bandbreite bzw. Kapazität der Speichergeräte bereits ausgeschöpft sind. Die BSR Strategie nutzt den Umstand, dass bei einem bezüglich Bandbreite ausgelasteten Speichergerät im Allgemeinen noch Speicherplatz, bezüglich Speicherplatz noch Bandbreite zur Verfügung steht. Die BSR Strategie ist in der Phase 4 durch Umpositionieren und Löschen von Kopien bestrebt, freien Speicherplatz auf den Geräten mit ausgeschöpfter Speicherkapazität zu erzeugen, um so deren gesamte Bandbreite nutzen zu können.

Performancemaße

Die Performance der BSR Strategie kann unter unterschiedlichen Gesichtspunkten bewertet werden. Eine Möglichkeit wäre, nach jedem Aufruf der BSR Strategie die Abweichungen der Bandbreiten-Kapazitäts-Verhältnisse zu messen und danach die Performance der Strategie zu evaluieren. Allerdings gibt dieses Maß nur wenig Auskunft darüber, wie effektiv die Strategie im Falle hoher Belastung arbeitet. Dazu eignet sich das Performancemaß der „ Ungenutzten Bandbreite “. Dieses gibt an, wie viel Bandbreite nicht genutzt werden kann, da der Speicherplatz, nicht aber die Bandbreite der Geräte voll ausgeschöpft werden.

Evaluierung BSR für Video-on-Demand

Im Folgenden wird die Performance der BSR mittels einer Simulation in einer Video-on-Demand Umgebung untersucht. Siehe dazu shah1995

Aufbau der Simulation

In der Simulation werden 64 Videos in vier Striping groups auf 8, 16, 32 und 64 identischen Disks gespeichert. Jede Disk bietet eine Speicherkapazität von 2GB und eine Bandbreite, die die gleichzeitige Ausgabe von 6,25 Datenströmen erlaubt. Für die Striping Groups ergeben sich die jeweiligen Kapazität/Bandbreite Werte in Abhängigkeit der Diskanzahl.

Rechenbeispiel für Striping Group 1

Striping Group 1 wird auf 8 Disks aufgeteilt. Daraus ergeben sich folgende Kapazitäts/Bandbreiten Werte:

Kapazität:<math> <semantics>  <mrow><mn>8</mn><mo>&#x00D7;</mo><mn>2</mn><mi>G</mi><mi>B</mi><mo>=</mo><mn>16</mn><mi>G</mi><mi>B</mi>  </mrow> <annotation encoding='MathType-MTEF'> </annotation> </semantics></math>

Bandbreite: <math><semantics><mrow><mn>8</mn><mi>x</mi><mn>6,25</mn><mo>=</mo><mn>50</mn></mrow><annotationencoding='MathType-MTEF'></annotation></semantics></math>

Kapazität/Bandbreiten Werte der 4 Striping Groups

Analog dem oberen Rechbeispiel können für jede Striping Group deren Kapazitäts/Bandbreiten Werte berechnet werden.

 

Group 1

(8 Disks)

Group 2

(16 Disks)

Group 3

(32 Disks)

Group 4

64 Disks

Kapazität [GB]

16

32

64

128

Bandbreite [Datenströme]

50

100

200

400

Bandbreite und Größe der Videos

Jedes Video hat eine Größe von 3,6GB. Die erforderlichen Bandbreiten der Videos werden durch das Zipfsche Gesetz ermittelt.

Anfangsplatzierung durch BSR

Im ursprünglichen Zustand sind alle Disks leer. Die BSR Strategie hat zunächst die Aufgabe, die 64 Videos optimal auf die Disks aufzuteilen. Die Abbildung zeigt das Ergebnis. Allocation 1 und 2 ergeben sich durch den unterschiedlichen Wert eines Eingangsparameters der BSR. Dieser Eingangsparameter legt die maximale Belastung pro Kopie fest (Allocation1: 30 Allocation2: 50).

BSR: Anfangsplatzierung a) Kapazität b) Bandbreite. Die schwarzen Balken zeigen die zur Verfügung stehenden Werte. Die beiden grauen Balken (hell- und dunkelgrau) zeigen die durch die BSR Platzierungsstrategie erzielten Werte.

 

Ergebnis

Wie man sieht, arbeitet die BSR Strategie hervorragend. Sie nutzt Bandbreite und Speicherplatz gleichermaßen.

Weitere Erkenntnisse

Die BSR liefert nur dann ein optimales Ergebnis, wenn genug Speicherplatz vorhanden ist, um mindestens eine zusätzliche Kopie pro Video speichern zu können. Bei kleinerer Speicherkapazität werden die Ressourcen nicht mehr optimal genutzt, wobei die BSR Strategie so arbeitet, dass nur sehr kleine Teile der möglichen Bandbreite und Kapazität vergeudet werden.

BSR bei Belastungsänderung

Bei Veränderungen der Verteilung der Dateienzugriffe kann die BSR Strategie die Dateienplatzierung dynamisch aktualisieren. Um dieser Fähigkeit zu evaluieren, wird die Belastungsänderung durch eine Änderung der Zipfschen Verteilung simuliert. Diese Änderung wird durch die gefaltete Zipfverteilung beschrieben. Durch Verschieben des Indexwertes kann die gefaltete Zipfverteilung unterschiedlich starke Belastungsänderungen, d.h. eine Änderung der Aufrufhäufigkeiten, simulieren (Je größer die Verschiebung, desto größer die Belastungsänderung). In der Abbildung links sind neben Zipfscher Verteilung (durchgehende Linie) und gefalteter Zipfscher Verteilung (gestrichelte Linie) die Kurven für Verschiebung 1 (punktierte Linie) und Verschiebung 10 (Strich-Punkt Linie) eingezeichnet. Rechts sind die Bandbreiten-Kapazitäts Werte der Striping Groups eingezeichnet (schwarze Balken), die Anfangsplatzierungswerte (dunkelgraue Balken), Platzierung bei Belastungsänderung mit Verschiebung 1 (mittelgrauer Balken) und mit Verschiebung 10 (hellgrauer Balken).

Links: Zipfverteilung und unterschiedliche Belastungsänderungen (siehe Text) – Rechts: Bandbreite Kapazität (schwarz), Anfangsplatzierung (dunkelgrau), Verschiebung 1 (mittelgrau), Verschiebung 10 (hellgrau)

Ergebnis

Wie man aus Abbildung erkennen kann, erzielt die BSR Strategie auch nach einer starken Belastungsänderung eine exzellente Dateienplatzierung.

 

 


Notes

Akronyme

BSR – Bandwith to Space Ratio, Bandbreite - Speicherplatz Verhältnis

DSR – Dynamic Segment Replication

DVD – Digital Versatile Disc (früher Digital Video Disc)

e.g. Exempli Gratia (Latein: Zum Beispiel )

Gb – Gigabit (1024 Megabits)

GSS – Group Sweeping Scheduling

QoS – Quality of Service

REBECA - Region-based block allocation method

VCR – Video Cassette Recorder

Glossar

Access Time – Zeit, die zwischen Request und Datenbereitstellung vergeht

Average Seek Time – Durchschnittliche Seek Time Wert, ermittelt durch eine zufällige Sequenz von Requests

Seek Time – Zeit, die benötigt wird, um Schreibe/Leseköpfe einer magnetischen Disk auf gewünschten Track (bzw. Zylinder) zu positionieren.

Round Robin – Zyklischer Warteschlangenbetrieb

Terminologie – die Gesamtheit aller Begriffe und Benennungen (Termini) einer Fachsprache

Zylinder (Cylinder) – Zusammenfassung von übereinander liegender Tracks einer magnetischen Disk.