Taxinomie de Flynn


Taxinomie de Flynn

La taxonomie de Flynn est une classification des architectures d'ordinateur, proposée par Michael J. Flynn en 1966[1],[2]. Les quatre catégories définies par Flynn sont classées selon le type d'organisation du flux de données et du flux d'instructions.

Sommaire

SISD (instruction simple, une seule mémoire)

SISD

Il s'agit d'un ordinateur séquentiel qui n'exploite aucun parallélisme, tant au niveau des instructions qu'à celui de la mémoire. Cette catégorie correspond à l'architecture de von Neumann. Elle supporte le parallélisme apparent.

SIMD (instruction simple, plusieurs mémoires)

SIMD
Article principal : Single Instruction Multiple Data.

Il s'agit d'un ordinateur qui utilise le parallélisme au niveau de la mémoire, par exemple le processeur vectorielSingle Instruction Multiple Data.

MISD (instructions multiples, une seule mémoire)

MISD

Il s'agit d'un ordinateur dans lequel une même donnée est traitée par plusieurs processeurs en parallèle. Il existe peu d'implémentations en pratique. Cette catégorie peut être utilisée dans le filtrage numérique et la vérification de redondance dans les systèmes critiques.

MIMD (instructions multiples, plusieurs mémoires)

MIMD

Dans ce cas, plusieurs processeurs traitent des données différentes, car chacun d'eux possède une mémoire distincte. Il s'agit de l'architecture parallèle la plus utilisée — Multiple Instructions on Multiple Data.

Nous rencontrons principalement les deux variantes suivantes.

MIMD à mémoire partagée

Les processeurs ont accès à la mémoire comme un espace d'adressage global. Tout changement dans une case mémoire est vu par les autres CPU. La communication inter-CPU est effectuée via la mémoire globale.

MIMD à mémoire distribuée

Chaque CPU a sa propre mémoire et son propre système d'exploitation. Ce second cas de figure nécessite un middleware pour la synchronisation et la communication.

Un système MIMD hybride est l'architecture la plus utilisée par les superordinateurs. Ces systèmes hybrides possèdent l'avantage d'être très extensibles, performants et à faible coût.

Références

  1. Flynn, M., Some Computer Organizations and Their Effectiveness, IEEE Trans. Comput., Vol. C-21, pp. 948, 1972.
  2. Duncan, Ralph, A Survey of Parallel Computer Architectures, IEEE Computer. February 1990, pp. 5-16.