Accueil |

Calcul parallèle

 

En informatique, le calcul parallèle consiste en l'exécution simultanée d'une même tà¢che, partitionnée et adaptée afin de pouvoir être répartie entre plusieurs processeurs en vue de traiter plus rapidement des problèmes plus grands. L'atteinte de ces objectifs a un impact majeur dans presque tous les domaines reliés calcul, incluant: la dynamique des fluides, les prédictions météorologiques, la modélisation et simulation de problèmes de dimensions plus grandes, le traitement de l'information et l'exploration de données, le traitement d'images, l'intelligence artificielle et la fabrication automatisée. Elle permet, en particulier, de traiter des problèmes nouveaux, d'apporter des solutions globales à  des problèmes qui n'étaient abordés que partiellement auparavant.

Trois facteurs principaux ont contribué à  la forte tendance actuelle en faveur du traitement parallèle. Premièrement, le coà»t du matériel a décru de manière constante, de sorte qu'il est aujourd'hui possible de construire des systèmes à  multiprocesseurs à  moindre coà»t. Deuxièmement, l'intégration à  très grande échelle de la technologie des circuits a progressé à  un tel point qu'il est devenu possible de fabriquer des systèmes complexes nécessitant des millions de transistors sur une seule puce. Troisièmement, la vitesse de traitement des ordinateurs séquentiels traditionnels, basés sur le modèle de von Neumann, semble s'approcher de la limite physique au-delà  de laquelle il n'est plus possible d'accélérer. Tous ces facteurs ont motivé les chercheurs à  étudier les avenues du parallélisme et de son application potentielle à  des problèmes importants.

La thèse du calcul parallèle s'énonce comme suit: Tout problème pouvant être résolu sur un ordinateur séquentiel raisonnable en utilisant un espace de taille polynomiale peut être résolu en temps polynomial par un ordinateur parallèle raisonnable et vice versa.

La thèse de l'invariance est une thèse complémentaire qui supporte, du moins de façon approximative, la définition d'une notion d'ordinateur raisonnable. Elle s'énonce comme suit: Des machines raisonnables peuvent se simuler entre elles avec au plus un accroissement polynomial en temps et une multiplication constante de l'espace. Une manière de construire des modèles raisonnables est de considérer la classe des machines raisonnables incluant la machine de Turing.

Le terme ordinateur parallèle est parfois utilisé en référence à  un ordinateur qui possède plus d'une unité centrale de traitement et qui peut effectuer un traitement parallèle.

Il existe plusieurs types d'ordinateurs (ou de processeurs) parallèles, caractérisés, principalement, par différents modèles d'interconnexions entre les processeurs et entre les processeurs et la mémoire. La classification la plus populaire est celle de Flynn, qui catégorise les ordinateurs parallèles (et sériels) selon le type d'organisation du flot de données et du flot d'instructions. Elle distingue ainsi les machines SIMD (à  flot d'instructions unique agissant sur des données multiples) et les machines MIMD (à  flot d'instructions et de données multiples).

Bien qu'un système de n processeurs en parallèle ne soit pas plus efficace qu'un seul processeur ayant n fois la vitesse de l'un d'eux, le système parallèle est souvent moins coà»teux à  réaliser. Le calcul parallèle est, donc, une excellente solution pour des tà¢ches exigeantes en calcul et/ou ayant des contraintes temporelles critiques (cf. Systèmes en temps réel). En fait, la plupart des systèmes de calcul de haute performance (aussi appelés superordinateurs ou supercalculateurs) qui ont été conçus au cours des dernières années ont une architecture parallèle.

Sommaire
1 Sujets apparentés
2 Liens externes

Sujets apparentés

Sujets généraux

Langages de programmation

Bibliothèque de programmation

Liens externes