Abonnez-vous à Universalis pour 1 euro

MICROÉLECTRONIQUE

  • Article mis en ligne le
  • Modifié le
  • Écrit par

Microélectronique et performance des ordinateurs

D'après les lois d'échelle, la performance des composants croît comme a3et le nombre d'opérations possibles logiques par puce augmente entre a et a3, suivant l'évolution du standard de la tension logique (cf. 4. Les limites physiques aux circuits intégrés). Comment varie alors la performance des ordinateurs ?

Variation des performances des ordinateurs - crédits : Encyclopædia Universalis France

Variation des performances des ordinateurs

La performance « théorique » d'un ordinateur (fig. 13) se décrit à l'aide de plusieurs paramètres qui sont plus ou moins liés à ce que l'on observera dans la réalité pour une utilisation donnée : la fréquence d'horloge (fréquence de travail à laquelle les différents éléments de l'ordinateur effectuent des opérations logiques), le nombre de bits (taille des « mots » logiques sur lesquels on effectue les opérations logiques ; par exemple, opération arithmétique sur des nombres comportant un plus ou moins grand nombre de chiffres – actuellement la plupart des machines travaillant en 32 bits, les plus performantes en 64 bits), les MIPS (millions of instructions per second, millions d'instructions logiques effectuées par seconde par la machine), les mégaflops (floating point operations per second, millions d'opérations arithmétiques en virgule flottante), etc. Tous ces éléments ne donnent qu'une idée approximative de la performance relative des ordinateurs puisque celle-ci varie suivant l'adéquation de la machine au problème posé, la configuration de la machine (en particulier ses échanges de données entre mémoire de masse/mémoire principale/unités de calcul), le langage informatique utilisé, l'habileté du programmeur. C'est ainsi que l'on s'intéresse plutôt aux MIPS pour les ordinateurs de gestion et autres tâches séquentielles car le nombre d'instructions est alors déterminant, alors que la performance en mégaflops, ainsi que le nombre de bits, sont importants en calcul scientifique. De ce fait, pour des comparaisons chiffrées précises, des programmes spécialisés et simples, les benchmarks, tournent sur les différentes machines à comparer. L'évolution dans le temps de la performance des différentes machines peut être mesurée pour les superordinateurs (de type Cray), les grands ordinateurs (mainframe), les miniordinateurs et les microprocesseurs. Cette comparaison quantitative sur une même application peut désavantager les machines qui seraient mieux adaptées à des problèmes plus complexes. Elle traduit bien, cependant, les phénomènes essentiels de l'évolution des performances : croissance de 25 p. 100 par an pour les ordinateurs, doublement – tous les ans, depuis 1986 – de la performance des microprocesseurs qui présentent désormais une puissance de calcul comparable aux gros ordinateurs. Comment en est-on arrivé là ?

Le temps d'exécution d'un programme dépend de trois facteurs ; le nombre d'instructions (c'est-à-dire d'opérations) nécessaires pour exécuter le programme ; le nombre de cycles d'horloge pour effectuer une instruction ; la durée de chaque cycle d'horloge.

Chacun de ces termes a progressé avec le temps grâce au progrès de la technologie des circuits intégrés, à celui de la mise en œuvre de ces circuits dans l'ordinateur – que l'on désigne par le terme d'architecture de l'ordinateur – et enfin à celui de la programmation de l'ordinateur, que ce soit sous forme du logiciel utilisé, du programme lui-même (plus ou moins efficace) ou bien des algorithmes de calcul (il peut exister plusieurs manières de faire exécuter une opération arithmétique par exemple).

Les trois types d'ordinateurs standards – c'est-à-dire les miniordinateurs, les gros ordinateurs et les superordinateurs – sont ou étaient construits à partir de circuits intégrés spécialisés : mémoires de différents types, opérateurs[...]

La suite de cet article est accessible aux abonnés

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

  • : directeur de recherche émérite au C.N.R.S., École polytechnique, Palaiseau, professeur au Materials Department de l'université de Californie à Santa Barbara

Classification

Pour citer cet article

Claude WEISBUCH. MICROÉLECTRONIQUE [en ligne]. In Encyclopædia Universalis. Disponible sur : (consulté le )

Article mis en ligne le et modifié le 10/02/2009

Médias

Microélectronique : transistor à effet de champ. - crédits : Encyclopædia Universalis France

Microélectronique : transistor à effet de champ.

Microélectronique : connectique - crédits : IBM

Microélectronique : connectique

Microprocesseur : le Pentium. 4 - crédits : Intel .

Microprocesseur : le Pentium. 4

Autres références

  • AUTOMATISATION

    • Écrit par
    • 11 882 mots
    • 12 médias
    Cette densité ne cesse de croître avec les progrès des moyens de production de la microélectronique. On peut ainsi disposer, sur une seule pastille de silicium, de registres de mémoire d'une capacité considérable, de sorte que des variables numériques codées en mots de 8 ou 16 bits et même 32 bits...
  • CIRCUITS INTÉGRÉS

    • Écrit par et
    • 8 993 mots
    • 20 médias

    Les circuits intégrés monolithiques (encore appelés puces, traduction de l'anglais chips) constituent l'approche la plus sophistiquée de la microélectronique. Leur origine technologique remonte à 1958, et leur importance économique et industrielle est devenue considérable. La miniaturisation...

  • COMMERCIALISATION DU PREMIER MICROPROCESSEUR

    • Écrit par et
    • 464 mots
    • 1 média

    À la fin des années 1960, Marcian Hoff (surnommé Ted Hoff), un jeune ingénieur de la société américaine Intel (Integrated Electronics), propose le concept du microcalculateur (le terme microprocesseur apparaissant plus tardivement) pour répondre à une commande de la société japonaise Busicom,...

  • IMAGERIE TÉRAHERTZ

    • Écrit par
    • 1 427 mots
    • 1 média
    Le développement de sources puissantes et compactes n’a vraiment commencé qu’avec l’éclosion de la microélectronique et des nanotechnologies à la fin du xxe siècle. Les lasers à cascade quantique, mis au point en 1994 aux laboratoires Bell de Murray Hill (New Jersey, États-Unis) et commercialisés...
  • Afficher les 12 références