Besuchen Sie uns:
Follow us on LinkedIn Follow us on Twitter Like us on Facebook Subscribe to our channel on YouTube Follow us on Tumblr
Weiterleiten:
| More

Core Prefetch

Hintergrund

Aufgrund rasanter Fortschritte bei den CPU-Taktfrequenzen und den architektonischen Methoden, wie z. B. Pipelining und Multithreading, werden mit jeder neuen Generation von Computersystemen höhere Ansprüche an die Bandbreite von Speichersystemen gestellt. Da das Leistungsgefälle zwischen Prozessor und Speicher weiter zunimmt, werden die Speichersysteme, insbesondere die Bandbreite von Speichersystemen, für die Computersysteme der kommenden Generationen immer mehr zu einem Hindernis. Dieses Problem zeichnete sich Ende der 1980er Jahre ab und trat in den 1990ern noch stärker zutage.

Abbildung 1. Das Leistungsgefälle zwischen Prozessor und Speicher.

Die Bereitstellung hoher Speicherbandbreite ist ein gravierendes Problem, was durch die Beschränkungen einer auf hohen Ertrag und große Mengen ausgerichteten Herstellung noch verschärft wird. Bei der Steigerung der Bandbreite des Speichersystems kommt es darauf an, die Datenübertragungsrate zwischen der DRAM-Schnittstelle und dem DRAM-Core (auf dem Daten gespeichert sind) zu erhöhen. Mit Core Prefetch – einer wichtigen Innovation, die Anfang der 1990er Jahre von Rambus entwickelt wurde – kann diese Datenübertragungsrate gesteigert werden. Core Prefetch senkt die Kosten für die Bereitstellung einer höheren Bandbreite und bietet noch Spielraum für weitere Bandbreitensteigerungen.

Was ist Core Prefetch?

Abbildung 2. Core Prefetch ermöglicht schnellere Schnittstellen.

Ein grundlegendes Problem bei der Steigerung der DRAM-Bandbreite besteht darin, die Datenübertragungsrate zwischen der DRAM-Schnittstelle und dem DRAM-Core zu erhöhen. Es besteht zwar die Möglichkeit, die Frequenz des DRAM-Core an die der DRAM-Schnittstelle anzupassen. Dadurch werden jedoch die Schaltungskomplexität und Chip-Größe sowie der DRAM-Stromverbrauch erhöht. Das wiederum führt zu höheren Herstellungskosten und einem geringeren Ertrag. Mit Core Prefetch wird dieses Problem auf andere Weise gelöst, nämlich indem der DRAM-Core mit niedrigerer Geschwindigkeit betrieben wird als die DRAM-Schnittstelle. Um der Bandbreite der Schnittstelle zu entsprechen, überträgt jeder Core-Zugang mehrere Datenbits vom Core, um die Differenz zwischen den Übertragungsraten auszugleichen. Auf diese Weise kann die DRAM-Bandbreite durch Core Prefetch gesteigert werden, selbst wenn der DRAM-Core mit einer niedrigeren Geschwindigkeit arbeiten muss.

Abbildung 3. Verbreitung von Core Prefetch in modernen DRAM-Technologien.

In Abbildung 3 wird deutlich, dass Core Prefetch mittlerweile eine weit verbreitete Methode ist, um die Schnittstellenübertragungsraten moderner DRAMs zu verbessern. Au diese Weise können diese Produkte unter Ausnutzung von DRAM-Cores mit niedrigerer Geschwindigkeit und hohem Ertrag weiterhin in großen Stückzahlen hergestellt werden. Die ersten Rambus DRAMs, die Anfang der 1990er Jahre hergestellt wurden, arbeiteten mit 8n Core Prefetch. Das heißt, die Schnittstelle konnte Daten mit der achtfachen Geschwindigkeit des DRAM-Cores übertragen, was einer effektiven Übertragungsrate von 500 MHz entsprach. Durch die XDR-DRAMs wird Core Prefetch auf 16n erhöht. Bei der jüngsten Generation synchroner DRAMs kommt Core Prefetch gar nicht mehr zum Einsatz. Das heißt, die Übertragungsgeschwindigkeit der Schnittstelle entspricht bereits der des Cores. In jüngster Zeit wurde Core Prefetch in andere Arten von DRAMs integriert, wie DDR und DDR2, um die Schnittstellenbandbreite zu erhöhen und gleichzeitig kostengünstigere Cores zu nutzen. DDR-DRAMs verwenden 2n Core Prefetch, während DDR2-DRAMs mit 4n Core Prefetch arbeiten.

Wer profitiert davon?

Da durch Core Prefetch die Kosten für höhere DRAM-Bandbreiten gesenkt werden, profitieren viele unterschiedliche Gruppen davon, wie beispielsweise folgende:

  • DRAM-Hersteller: Durch die höheren Erträge, die darauf zurückzuführen sind, dass der Core mit niedrigerer Geschwindigkeit arbeitet, steigt die Anzahl der verkäuflichen DRAMs pro Herstellungszyklus.
  • Controller-Designer: Da eine bestimmte Bandbreite mit weniger DRAMs erzielt werden kann, reduziert sich die Anzahl der Controller-Pins und die Baugruppenkosten sinken.
  • Systemintegratoren: Die Stücklistenkosten sinken, und bei einigen Systemen ist ein kleinerer Formfaktor möglich, da eine bestimmte Bandbreite mit einer minimalen Anzahl an DRAMs zur Verfügung gestellt wird.
  • Verbraucher: Dank höherer DRAM-Erträge, geringerer Baugruppenkosten und weniger DRAMs, die im System erforderlich sind, können die Systemkosten gesenkt werden.