Accédez à l'intégralité de nos articles sans publicité

MICROÉLECTRONIQUE

La microélectronique et l'informatique n'en finissent pas de surprendre par leurs performances dans les domaines tant technique qu'économique. De nombreux secteurs d'activité ont été profondément modifiés par leurs impacts et de nouvelles avancées, qui révolutionneront les modes de vie des hommes, sont encore attendues. Inventé vers 1975 et commercialisé en masse à partir de 1980, le micro-ordinateur est produit, au début du xxie siècle, à quelque 200 millions d'exemplaires par an. La téléphonie mobile compte 600 millions de nouveaux appareils par an et l'accès à Internet est possible sur pratiquement toute la planète. Déjà première industrie mondiale en volume d'activité devant l'automobile depuis 1990, l'électronique connaît une croissance de 10 p. 100 par an depuis le début du xxie siècle, alors que les autres industries (à l'exception des biotechnologies) sont en faible progression, en stagnation, voire en légère récession, la croissance économique hors électronique se produisant essentiellement du côté des services. Cette croissance de l'industrie électronique a trois origines : une grande sophistication des produits existants, ce qui entraîne un renouvellement rapide des marchés (que l'on songe à l'évolution de la télévision passant du noir et blanc à la couleur, complété du magnétoscope, du caméscope, du vidéodisque) ; l'apparition incessante de nouveaux marchés (l'exemple le plus éclatant étant la téléphonie mobile, de loin le plus grand facteur de croissance du secteur des télécommunications avec Internet) ; enfin, la pénétration par l'électronique de bien d'autres secteurs d'activité tels que l'automobile, le bâtiment, etc.

À l'origine et au cœur de l'explosion de l'industrie électronique se situent bien sûr la microélectronique et la numérisation de l'information, des signaux et des images. La profondeur de la percée est telle que le prix Nobel 2000 de physique a récompensé, entre autres, l'Américain Jack Kilby pour l'invention du circuit intégré en 1958. Il est à noter que ce prix est fondé sur le brevet du circuit intégré et non pas, comme à l'habitude, sur des publications scientifiques. C'est un cas unique où le concept nouveau porte bien plus sur l'application que sur la création de nouvelles connaissances.

Accédez à l'intégralité de nos articles sans publicité

Face à cette prodigieuse percée d'un monde qui n'existait pratiquement pas au début des années 1960, on cherche à évaluer le progrès réalisé et à entrevoir ce que réserve l'avenir. Quels sont les fondements physiques et technologiques de cette révolution ? Comment décrire la performance actuelle ? Quels ont été les moyens qui ont permis d'y parvenir ? Où sont les limites de l'extrapolation « raisonnée » des réalisations actuelles ? Y-a-t-il des percées conceptuelles qui permettraient d'aller encore bien plus loin ?

Trois moteurs : le transistor, le circuit intégré et le microprocesseur

Le transistor, un interrupteur quasi parfait (1947-1960)

Microélectronique : transistor à effet de champ. - crédits : Encyclopædia Universalis France

Microélectronique : transistor à effet de champ.

Accédez à l'intégralité de nos articles sans publicité

L'idée d'interrupteur (relais électrique) solide commandé par une tension électrique appliquée remonte au début du xxe siècle, avec des brevets décrivant correctement le fonctionnement du transistor à effet de champ dès 1923 (fig. 1a). Cet effet « transistor », c'est-à-dire le contrôle d'un courant à travers un morceau de matériau semiconducteur par une tension appliquée sur une grille de commande, a cependant nécessité de longs travaux durant les années 1930 et 1940. Il a fallu maîtriser la purification des semiconducteurs, contrôler l'incorporation de dopants et, plus fondamentalement, mieux comprendre les barrières d'énergie qui existent au sein des semiconducteurs dopés de manière inhomogène ou bien aux interfaces métal-semiconducteur. Des études ont également été menées sur les effets de surface qui étaient alors mal maîtrisés et tendaient, à l'origine, à masquer tous les autres phénomènes.

C'est par une démarche délibérée de recherche d'un tel relais solide que les laboratoires Bell d'American Telephone and Telegraph (A.T.T.), alors monopole des télécommunications américaines, se sont lancés dans l'exploration du transistor dès 1936. Leur analyse prospectiviste montrait que l'accroissement du trafic téléphonique serait tel que les réseaux seraient constamment en panne vu leur taille et la mauvaise fiabilité des commutateurs de l'époque, qu'ils soient à relais électromécaniques ou à tubes à vide. Il fallait des interrupteurs hautement fiables fondés sur un nouveau concept physique. Le transistor a donc été inventé dans une entreprise de télécommunications grâce à un programme de recherche fondamentale de très grande ampleur puisqu'il a fallu comprendre complètement nombre de nouveaux phénomènes en physique et en chimie concernant les matériaux semiconducteurs.

Le premier transistor, dit transistor « à pointes », inventé en 1947 par les Américains John Bardeen et Walter H. Brattain, utilisait des pointes métalliques pressant un morceau de semiconducteur, en l'occurrence du germanium. Notoirement instable, il ne fut pratiquement pas produit. Un bien meilleur concept de transistor, le transistor à jonctions ou transistor bipolaire, fut inventé peu après par William B. Shockley et mis au point en 1952. C'est cependant un troisième type de transistor, le transistor à effet de champ (fig. 1), qui est de loin le plus utilisé aujourd'hui (plus de 99 p. 100 des transistors) à cause de sa simplicité de fabrication et de sa faible consommation électrique. Il est devenu opérationnel qu'en 1960 tant son utilisation demandait la maîtrise préalable des propriétés de surface. Son principe est simple : la conductivité d'un canal semiconducteur situé entre deux électrodes, source et drain, est commandée en appliquant une tension sur une électrode de grille située au-dessus du canal. Cette tension crée un potentiel électrostatique qui attire les électrons dans le canal ou les repousse hors du canal suivant le signe du potentiel appliqué et le mode de fonctionnement du transistor choisi (respectivement, en « accumulation » ou en « déplétion »). Afin d'obtenir un interrupteur parfait, qui ne « fuie » pas entre l'électrode de commande (la grille) et le canal conducteur, un matériau isolant est placé entre le canal et la grille (fig. 1b). Pour empêcher le courant de passer lorsque aucune tension n'est appliquée à la grille, des impuretés chimiques choisies sont introduites, de manière localisée, dans le semiconducteur (phénomène de « dopage » du semiconducteur). Plus précisément, on dope de manière différente le canal et les régions situées sous les électrodes source et drain, avec des atomes dits « donneurs » ou « accepteurs » d'électrons, respectivement. Ayant donné ou accepté un électron, ces impuretés deviennent chargées électriquement et vont créer des barrières d'énergie potentielle pour les électrons du silicium, barrières essentielles pour obtenir un fonctionnement en transistor. Le courant pourra passer lorsque la tension de grille aura suffisamment abaissé l'énergie potentielle des électrons dans le canal, entre les électrodes source et drain, ce qui permettra d'y faire arriver des électrons (fig. 1c). Il y a amplification par le transistor parce que le courant ou la tension commandés entre les électrodes source et drain sont bien supérieurs à ceux qui sont appliqués à la grille et qui servent à les obtenir.

Le circuit intégré (1958-1959)

Le circuit intégré n'est pas un concept aussi fondamental que le transistor : son invention résulte de l'association d'éléments déjà connus, sinon maîtrisés, en réponse à un besoin pratique. Jacques Kilby a décrit son système dans un brevet et des conférences et non dans des revues scientifiques.

Comment est-il né ? Dès sa mise au point, le transistor a remplacé le tube à vide dans les appareillages électroniques et les ingénieurs ont mis en œuvre ses remarquables propriétés : conception de très grands systèmes grâce à la petite taille des composants, à leur meilleure fiabilité et surtout à leur faible consommation énergétique. Cette course à la miniaturisation est suscitée par des besoins, comme ceux des grands centraux téléphoniques, des très grands ordinateurs ou encore ceux des militaires de disposer d'électronique « portable » pour les communications, les missiles ou les satellites.

Microélectronique : connectique - crédits : IBM

Microélectronique : connectique

Pour toutes ces applications, on tente d'assembler, de façon compacte, le plus grand nombre possible de composants (résistance, diode, condensateur, transistor, inductance) par des techniques dites « hybrides » : chaque composant est fabriqué dans un matériau différent et tous les composants sont ensuite reliés, mécaniquement et électriquement, par d'autres matériaux encore. Cette approche hybride rencontre toutefois une limitation importante. Tandis que la fiabilité des transistors a beaucoup augmenté, celle des soudures des fils, qui assurent la liaison électrique entre ceux-ci, plafonnent. Devra-t-on se contenter de circuits comportant au mieux quelques centaines de composants qui ne nécessiteraient que quelques milliers de soudures ?

Accédez à l'intégralité de nos articles sans publicité

Quelques visionnaires proposent alors de fabriquer tous les composants électroniques avec un seul matériau, le semiconducteur, qui servirait aussi de support, d'où le terme de circuit intégré « monolithique » (une seule pierre). Kilby, de la société Texas Instruments, conçoit, en mai 1958, une méthode pour réaliser les différents éléments de circuits (résistances, condensateurs et transistors) par attaque chimique localisée du germanium. La composition chimique verticale du germanium (du fait de l'incorporation, lors de la croissance du cristal de germanium, des impuretés chimiques qui dopent la conductivité), la profondeur de l'attaque et la géométrie des motifs attaqués déterminent les différents composants. Parallèlement, l'Américain Robert Noyce, de la société Fairchild Electronics (il fondera plus tard Intel), non seulement décrit un circuit intégré en silicium mais propose aussi, en 1959, une méthode de fabrication originale : le procédé « planar » qui permet de fabriquer des transistors à l'horizontale, alors qu'auparavant, on devait mettre les contacts aux électrodes sur les différents niveaux verticaux imposés par le dopage du germanium qui s'effectuait lors de la croissance de ce cristal. Pour y arriver, Noyce reprend une idée développée chez Bell : l'utilisation de la silice (SiO2) comme masque de fabrication à cause de ses excellentes propriétés d'adhésion et d'isolation chimique ; cette silice forme une espèce de « cocon » protégeant la partie de la puce qui n'est pas traitée au cours de l'opération. On peut ainsi créer successivement des régions N (silicium dopé avec des atomes donneurs d'électrons) et P (silicium dopé avec des atomes accepteurs d'électrons) qui vont se positionner différemment de façon latérale – mais aussi verticale, à cause des diverses longueurs de pénétration des impuretés –, ce qui permet de réaliser le transistor complet en faisant affleurer, à la surface du silicium, les différentes couches dopées.

Bien qu'il réponde à des besoins très concrets, le circuit intégré ne s'est pas imposé facilement. Au contraire, la plupart des entreprises produisant des tubes à vide s'étaient mises à fabriquer des transistors, mais peu ont fait le saut vers les circuits intégrés : ces derniers menaient, en fait, à un réel changement de paradigme dans l'utilisation des grands nombres de transistors. En effet, jusqu'alors, les transistors remplaçaient simplement les tubes « composant pour composant » alors que l'intégration monolithique se heurtait à plusieurs objections très pertinentes. D'abord, celle-ci utilisait le silicium, matériau semiconducteur très coûteux, pour des fonctions peu nobles, de support par exemple. Ensuite, elle obligeait à des compromis sur les géométries et les compositions des composants : chacun d'eux était moins performant que s'il avait été fabriqué séparément. En outre, le rendement allait être bas puisqu'on devait avoir d'un seul coup un ensemble de bons composants. Enfin, alors que l'on avait besoin de multiples fonctionnalités dans les assemblages de composants, que l'on pouvait concevoir et réaliser à la demande par l'approche hybride, il semblait impossible de satisfaire la variété de besoins par des circuits intégrés à la fonctionnalité figée.

L'histoire a tranché : l'intégration a permis au contraire de franchir ces limitations et d'aller bien au-delà. L'industrie utilise aujourd'hui des plaquettes de silicium de 30 centimètres de diamètre, ensuite découpées en une ou quelques centaines de puces, sur lesquelles elle fabrique, en une trentaine d'opérations de base, des centaines de milliards de composants. La surface relativement coûteuse du silicium est en fait utilisée très efficacement grâce à l'extraordinaire miniaturisation, impossible à atteindre pour des composants discrets, c'est-à-dire manipulés à l'unité (ne serait-ce que parce que l'on ne pourrait pas manipuler des composants aussi petits que ceux qui sont intégrés). Des milliards de contacts électriques sont fabriqués de manière très contrôlée (propreté, conditions chimiques de surface, préparation des matériaux...) et à l'identique, ce qui fait qu'ils sont tous bons. Ces performances ont nécessité de nombreuses recherches et un long apprentissage pour maîtriser parfaitement les procédés industriels. Mais il est aujourd'hui patent que l'intégration a multiplié les rendements et la fiabilité par plusieurs milliards. Incidemment, le coût a baissé dans les mêmes proportions : un circuit intégré, comportant bientôt un milliard de transistors, coûte aujourd'hui une dizaine de dollars, autant qu'un seul transistor dans les années 1950.

Microprocesseur : le Pentium. 4 - crédits : Intel .

Microprocesseur : le Pentium. 4

Quant au problème de la fonctionnalité limitée, il a été résolu en deux temps : au début des circuits intégrés, seules des fonctions universelles simples étaient réalisées, les portes logiques, dont l'assemblage permettait de constituer de grands ensembles fonctionnels tels des commutateurs téléphoniques ou des ordinateurs. Compacts, ces circuits étaient aussi très fiables. Comprenant quelques dizaines de composants élémentaires, ils contribuaient déjà fortement à l'augmentation de rendement de fabrication des ensembles, en diminuant le nombre de soudures à effectuer. C'est cependant avec le microprocesseur que la grande révolution est arrivée : au lieu de produire une fonctionnalité par assemblage d'éléments physiques, celle-ci est programmée grâce à l'insertion, sur une même puce, des éléments de traitement logique et des mémoires nécessaires. Le microprocesseur est automatiquement multifonctions et multi-applications. Bien entendu, un tel système est loin d'être optimal dans l'utilisation des composants électroniques (puisque l'on doit toujours prévoir plus de composants que ceux qui sont nécessaires, ne serait-ce que ceux qui permettent un fonctionnement programmable universel pour un usage à chaque fois particulier) mais comme le coût de ces composants s'est effondré, ce n'est plus très important.

Le microprocesseur (1973)

Microprocesseur - crédits : Pedrosala/ Shutterstock

Microprocesseur

Accédez à l'intégralité de nos articles sans publicité

Comme beaucoup d'inventions, le microprocesseur est apparu accidentellement. La société japonaise Busicom avait demandé à la firme américaine Intel de concevoir des puces permettant de réaliser un calculateur programmable destiné aux calculettes, machines de bureau et caisses enregistreuses. On s'est vite rendu compte qu'il était possible de mettre l'essentiel des fonctions sur une seule puce, cette dernière pouvant, par programmation, effectuer des tâches de calcul logique pour de nombreuses autres applications. Busicom, qui avait le droit à l'exclusivité des utilisations de la puce programmable, s'est retrouvée en faillite lors de la commercialisation de calculateurs incorporant ces puces, ce qui a permis à Intel de racheter les droits de ce qui allait être le microprocesseur et de devenir ainsi le leader incontesté de la microélectronique (environ 25 p. 100 du marché à lui seul). Bien entendu, l'augmentation de transistors sur une même puce a permis d'obtenir de plus en plus de mémoire et de capacité logique par microprocesseur, jusqu'à en faire l'équivalent de super ordinateurs (photo 1). En y intégrant aussi des composants d'entrée/sortie, des systèmes complets, appelés micro-contrôleurs, sont élaborés. Enfin, la réalisation de l'ensemble des fonctions d'une application donnée, par exemple les capteurs d'image pour la photographie numérique ou les fonctions hyperfréquences pour le téléphone portable, permet d'obtenir le système sur puce ou SoC (system on chip).

Accédez à l'intégralité de nos articles

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrir

Déjà abonné ? Se connecter

Écrit par

  • : directeur de recherche émérite au C.N.R.S., École polytechnique, Palaiseau, professeur au Materials Department de l'université de Californie à Santa Barbara

Classification

Médias

Microélectronique : transistor à effet de champ. - crédits : Encyclopædia Universalis France

Microélectronique : transistor à effet de champ.

Microélectronique : connectique - crédits : IBM

Microélectronique : connectique

Microprocesseur : le Pentium. 4 - crédits : Intel .

Microprocesseur : le Pentium. 4

Autres références

  • AUTOMATISATION

    • Écrit par
    • 11 885 mots
    • 12 médias
    Cette densité ne cesse de croître avec les progrès des moyens de production de lamicroélectronique. On peut ainsi disposer, sur une seule pastille de silicium, de registres de mémoire d'une capacité considérable, de sorte que des variables numériques codées en mots de 8 ou 16 bits et même 32 bits...
  • CIRCUITS INTÉGRÉS

    • Écrit par et
    • 8 998 mots
    • 20 médias

    Les circuits intégrés monolithiques (encore appelés puces, traduction de l'anglais chips) constituent l'approche la plus sophistiquée de la microélectronique. Leur origine technologique remonte à 1958, et leur importance économique et industrielle est devenue considérable. La miniaturisation...

  • COMMERCIALISATION DU PREMIER MICROPROCESSEUR

    • Écrit par et
    • 464 mots
    • 1 média

    À la fin des années 1960, Marcian Hoff (surnommé Ted Hoff), un jeune ingénieur de la société américaine Intel (Integrated Electronics), propose le concept du microcalculateur (le terme microprocesseur apparaissant plus tardivement) pour répondre à une commande de la société japonaise Busicom,...

  • IMAGERIE TÉRAHERTZ

    • Écrit par
    • 1 427 mots
    • 1 média
    Le développement de sources puissantes et compactes n’a vraiment commencé qu’avec l’éclosion de lamicroélectronique et des nanotechnologies à la fin du xxe siècle. Les lasers à cascade quantique, mis au point en 1994 aux laboratoires Bell de Murray Hill (New Jersey, États-Unis) et commercialisés...
  • Afficher les 12 références

Voir aussi