Prélecture du noyau
Contexte
Les avancées rapides des fréquences d’horloge des CPU et des techniques architecturales telles que l’architecture pipeline et le multithreading ont placé des demandes croissantes sur la bande passante des systèmes de mémoire avec chaque nouvelle génération de systèmes informatiques. À mesure que l’écart de performance entre processeur et mémoire continue de grandir, les générations de systèmes informatiques à venir vont être de plus en plus limités par leurs systèmes de mémoire, et en particulier par la bande passante de la mémoire du système. Ce problème était déjà évident à la fin des années 80 ; il est devenu primordial dans les années 90.

Fournir une large bande passante de mémoire est un problème difficile, d’autant plus avec des contraintes de fabrication à haut rendement et volume élevé. Un aspect clé de l’augmentation de la bande passante mémoire des systèmes est l’accroissement du taux des transferts de données entre l’interface DRAM et le noyau de la DRAM où sont stockées les données. Au début des années 90, une innovation importante développée par Rambus, la prélecture du noyau, a permis au taux de transfert des données d’augmenter. La prélecture du noyau diminue le coût de fourniture d’une large bande passante et fournit de l’espace pour d’autres améliorations de la bande passante.
Qu’est-ce que la prélecture du noyau ?

Un problème fondamental de l’augmentation de la bande passante de la DRAM est l’augmentation du taux de transfert des données entre l’interface DRAM et le noyau de la DRAM. Une possibilité consiste à augmenter la fréquence du noyau de la DRAM pour qu’elle corresponde à celle de l’interface DRAM. Cependant, cela introduit davantage de complexité dans les circuits, augmente la taille de la puce et accroît la consommation de la DRAM, ce qui conduit à des coûts de fabrication plus élevés et un rendement inférieur. La prélecture du noyau approche la résolution de ce problème de manière différente, en laissant le noyau de la DRAM fonctionner à une vitesse réduite par rapport à l’interface DRAM. Pour égaler la bande passante de l’interface, chaque accès au noyau transfère plusieurs bits de données depuis le noyau pour compenser cette différence de vitesses de transfert. De cette manière, la prélecture du noyau laisse la bande passante de la DRAM augmenter, même si le fonctionnement du noyau de la DRAM est limité à une vitesse inférieure.

La Figure 3 illustre le fait que la prélecture du noyau est devenue une méthode largement adoptée pour améliorer le débit de signalisation de l’interface des DRAM modernes. Cela préserve la possibilité de fabriquer ces produits à grand volume en employant des noyaux de DRAM à haut rendement et à vitesse plus faible. Les premières DRAM de Rambus fabriquées au début des années 90 intégraient une prélecture du noyau de 8 n, ce qui permettait à l’interface de transférer des données à 8 fois la vitesse du noyau de la DRAM, pour une vitesse de transfert effective de 500 MHz. Les DRAM XDR augmentent la prélecture du noyau jusqu’à 16 n. La dernière génération de DRAM synchrones n’utilise pas la prélecture du noyau, ce qui conduit à une vitesse de transfert de l’interface égale à la vitesse de transfert du noyau. Plus récemment, d’autres types de DRAM, telles que les DDR et DDR2, ont intégré la prélecture du noyau pour augmenter la bande passante de l’interface tout en optimisant des noyaux à vitesse plus faible. Les DRAM DDR utilisent une prélecture du noyau de 2 n, alors que les DDRAM DDR2 utilisent une prélecture du noyau de 4 n.
Qui en bénéficie ?
En diminuant le coût pour atteindre de larges bandes passantes de la DRAM, la prélecture du noyau bénéficie à de nombreux groupes dont :
- Les fabricants de DRAM : des rendements supérieurs provoqués par le fonctionnement du noyau à des vitesses plus faibles augmentent le nombre de DRAM vendables dans un cycle de fabrication.
- Les concepteurs de contrôleurs : pouvoir fournir un niveau donné de bande passante avec moins de DRAM permet de réduire le nombre de broches du contrôleur et le coût de la configuration.
- Les intégrateurs de systèmes : fournir un niveau donné de bande passante tout en minimisant le nombre de DRAM diminue les coûts des composantes et permet de plus petits facteurs de forme dans certains systèmes.
- Les consommateurs : il est possible d’atteindre un coût système inférieur grâce aux rendements supérieurs des DRAM, à la réduction des coûts de configuration et au nombre inférieur de DRAM nécessaires dans le système.
