BOUTIQUECONTACTASSISTANCE
Zone de recherche

AltasAuteursRecherche thématiqueDictionnaire

ÉLECTRONIQUE INDUSTRIE

L'électronique intervient aujourd'hui dans la vie quotidienne de chacun, que ce soit avec le téléphone mobile ou avec l'ordinateur personnel, le téléviseur ou le lecteur de disques compacts.

L 'utilisation du mot électronique dans sa présente acception est relativement récente : jusqu'à la fin des années 1950, ce vocable se rapportait le plus souvent à la seule discipline qui traitait du mouvement des électrons dans le vide, et ce qu'on appelle maintenant l'électronique désignait la radioélectricité, voire la télégraphie – ou la téléphonie – sans fil, plus connue sous le sigle T.S.F. La raison en est que, avant la Seconde Guerre mondiale, les applications de l'électronique se limitaient, pour l'essentiel, à la transmission par ondes radio et à la radiodiffusion.

On rappellera d'abord les principales étapes de cette révolution. Puis on classera les différents domaines de l'électronique, qui seront examinés l'un après l'autre, à savoir : l'électronique professionnelle, l'électronique médicale, l'informatique, les télécommunications, l'électronique grand public et les composants. Enfin, l'évolution possible de l'industrie électronique, ainsi que les conséquences qui en résulteront, seront évoquées.

1.   Évolution des concepts

Les équipements électroniques utilisent les propriétés de l'électron : sa charge électrique, les champs électromagnétiques que créent ses mouvements, et plus récemment son spin. Toutefois, le terme « électronique » est réservé en pratique aux applications où l'on contrôle le comportement des électrons de façon relativement sophistiquée, par opposition aux équipements « électriques », même si la distinction est parfois subtile.

On parlait autrefois de « courants faibles » pour les équipements électroniques et de « courants forts » pour les équipements électriques : dans les années 1950-1960, en France, à l'École supérieure d'électricité (à Malakoff), une moitié des étudiants suivaient les cours de l'option « courants forts » et l'autre moitié ceux de l'option « courants faibles ». À l'heure des équipements électroniques comme les radars puissants, les lasers à électrons libres ou les synchrotrons, dans lesquels les courants dépassent 1 000 ampères, ce vocabulaire a perdu de son sens.

On peut sans doute faire remonter le début de l'électronique à l'année 1820, lorsque Hans Christian Œrsted découvre accidentellement l'effet d'un courant électrique sur une aiguille aimantée, et lorsque, peu après, André-Marie Ampère met en évidence l'effet d'un courant électrique sur une boucle parcourue par un courant électrique, première transmission d'une information à (très courte) distance. Ce phénomène est précisé en 1831 par Michael Faraday.André-Marie Ampère

André-Marie Ampère Photographie

André-Marie Ampère Le mathématicien et physicien français André-Marie Ampère (1775-1836), fondateur de l'électromagnétisme. 

Crédits: Hulton Getty Consulter

Vers 1860, un Français d'origine italienne, l'abbé Giovanni Caselli (1815-1891), imagine l'analyse d'une image ligne par ligne, processus qui reste aujourd'hui la base de la transmission par fax et de la télévision. Cet appareil sera exploité de 1867 à 1870 par la Société des télégraphes, pour permettre d'expédier des ordres de bourse, car il permettait d'authentifier la signature du donneur d'ordre. Le récepteur, dont le mouvement était synchronisé sur celui, distant, de l'émetteur, utilisait une feuille de papier imbibée d'iodure de potassium sur laquelle le dessin apparaissait sous forme d'un tracé marron.

James Clerk Maxwell résume en 1860 les lois de l'électromagnétisme.

Alexander Graham Bell invente la téléphonie sur fil en 1875 : il transporte sur des fils conducteurs (métalliques) les variations de courant électrique produites par un microphone.Alexander Graham Bell

Alexander Graham Bell Photographie

Alexander Graham Bell Alexander Graham Bell (1847-1922), physicien et ingénieur américain, lors de la première liaison téléphonique de New York à Chicago, en 1892. La première démonstration de la transmission de la voix avait eu lieu entre lui-même et son assistant, le 10 mars 1876. 

Crédits: Hulton Getty Consulter

C'est en 1879 que William Crookes produit les premiers rayonnements que Wilhelm Conrad Rœntgen – incertain qu'il était de leur véritable nature – baptisera en 1895 rayons X, essentiels aujourd'hui en diagnostic médical... et dans l'examen des bagages.William CrookesRadiographie

William Crookes Photographie

William Crookes Le chimiste et physicien anglais William Crookes (1832-1919), vers 1905. Il est l'inventeur du tube de Crookes, le premier accélérateur de particules. 

Crédits: Hulton Getty Consulter

Radiographie Photographie

Radiographie En 1896, l'une des premières images obtenues par l'Allemand Wilhelm Conrad Röntgen (1845-1923) par exposition aux rayons X. Il s'agit de la main de son épouse. 

Crédits: Hulton Getty Consulter

Une autre date clé se situe en 1887, lorsque Heinrich Rudolf Hertz explicite le fait qu 'il n'existe pas de différence essentielle entre les ondes lumineuses (de petites longueurs d'onde) et les ondes électromagnétiques de plus grandes longueurs d'onde. Ainsi, la grande famille des ondes électromagnétiques comprenait les ondes lumineuses, les rayons X, et... les ondes qu'émettrait en 1897 le véritable pionnier de la télégraphie sans fil, l'Italien Guglielmo Marconi, qui réalisait alors une liaison radio entre La Spezia, sur la côte ligure, et le navire militaire San Marino distant de 16 kilomètres. Il utilisait à la réception le « cohéreur » inventé par Branly, rue d'Assas à Paris (là où se trouvait encore en 1980 l'Institut supérieur d'électronique de Paris).Guglielmo Marconi

Guglielmo Marconi Photographie

Guglielmo Marconi Le physicien et inventeur italien Guglielmo Marconi (1874-1937) et le récepteur de télégraphie sans fil qu'il est venu installer à Terre-Neuve. Il y capte, en 1901, les premiers signaux émis de l'autre côté de l'Atlantique (3 400 km), à Poldhu (Cornouailles). 

Crédits: Hulton Getty Consulter

Cette remarque essentielle de Hertz conduisit en 1904 l'Allemand Christian Hülsmeyer (1881-1957) à breveter le « télémobiloscope », c'est-à-dire le radar. Mais la connaissance du comportement des ondes électromagnétiques était alors plus que sommaire : l'antenne d'émission rayonnait très mal, et le système n'était efficace que sur certaines « cibles » dans certaines positions.

D'après les travaux (1896) de Ferdinand Braun, Jonathan Adolf Wilhelm Zenneck (1871-1959) réalise en 1899 un véritable oscilloscope, ancêtre des oscilloscopes de mesure et d'analyse, des écrans des contrôleurs radar et des écrans de télévision à tubes cathodiques. C'est sans doute le Français Dauvilliers qui imagine pour la première fois, en 1928, l'utilisation d'un tel oscilloscope pour présenter le signal de télévision.

Les fondements de la théorie quantique sont posés par Max Planck en 1900, sous une forme très sommaire il est vrai. Nombre de chercheurs vont la perfectionner. Elle est aujourd'hui la base des lasers et de l'essentiel de l'optoélectronique.

Le début du xxe siècle voit l'éclosion, sous l'impulsion d'Albert Einstein, de la théorie de la relativité restreinte (1905), qui régit fort directement le comportement des électrons dès que leur vitesse n'est plus petite, ce qui est fréquent (par exemple dans les tubes électroniques), puis de la relativité généralisée (1915), dont il faut tenir compte par exemple dans le système de navigation Galileo.

La fin de la Seconde Guerre mondiale voit naître les concepts de base des machines informatiques par l'Américain John von Neumann, mettant à profit les idées émises en 1936 par le Britannique Alan Turing.

Au cours de la première moitié du xxe siècle, les connaissances concernant le comportement des ondes électromagnétiques s'améliorent. C'est ainsi qu'en 1926, les Japonais Yagi Hidetsugu (1886-1976) et Shintaro Uda (1896-1976) réalisent la première antenne, appelée aujourd'hui antenne Yagi ou antenne Yagi-Uda (nettement améliorée plus tard par le Français Gérard Lehmann au niveau de son adaptation avec le récepteur de télévision), dont on observe de nombreux exemplaires sur les toits des immeubles. Si C. Hülsmeyer avait en 1904 connu cette solution, son télémobiloscope aurait peut-être mieux fonctionné. La Seconde Guerre mondiale a vu à nouveau la connaissance du comportement des ondes électromagnétiques faire des progrès considérables (guides d'onde, antennes...), grâce à l'utilisation de l'outil mathématique qu'est la « transformation de Fourier », ainsi que celle des nombres complexes et de la théorie des réseaux (notion d'impédance caractéristique, etc.).

Les années 1950 sont par ailleurs celles des débuts du « traitement du signal » avec le développement d'outils mathématiques reposant plus ou moins sur la transformation de Fourier : transformée de Laplace et transformée en Z, outils précieux pour l'étude et la conception des systèmes automatiques. Le « théorème d'échantillonnage » de l'Américain Claude Elwood Shannon va permettre de développer toute une mathématique des « fonctions aléatoires » que constitue le signal électrique correspondant à une parole, une musique, une image de télévision ou une image photographique. Il en résultera, après transformation en signaux numériques, des possibilités de « compression », c'est-à-dire de réduction du volume des données à faire transiter (dans un rapport de plusieurs dizaines pour les données vocales et plus encore pour les images), en dénaturant très peu l'information. Il en résultera également dans le domaine de la détection – radar ou équivalente – des progrès importants dans la nature et les performances des équipements (technique de « compression des impulsions », radar Doppler à filtrage numérique, radars à corrélation, balayage électronique passif puis actif). Il est intéressant de remarquer que certains de ces outils mathématiques ont parfois été réinventés trente ans après leur première utilisation : c'est le cas, par exemple, de l'outil mathématique appelé en anglais F.F.T. (pour fast Fourier transform), qui a été retrouvé et très utilisé quelque trente ans après que son inventeur, l'Américain Butler, l'eut utilisé dans des systèmes d'antennes.

Parmi les concepts récents, le « retournement temporel », déjà appliqué en médecine (broyage de calculs, par exemple), pourrait s'avérer efficace dans d'autres domaines (imagerie ?).

2.   Évolution des composants

Cependant, il ne suffisait pas d'avoir énoncé les grandes lois de l'électromagnétisme et d'avoir obtenu des liaisons à relativement courte distance ; il fallait disposer des organes (composants) capables, à court terme, d'émettre des puissances élevées et d'améliorer la sensibilité des récepteurs, et, à plus long terme, de manipuler et de filtrer les signaux reçus.

Plusieurs découvertes essentielles ont lieu au début du xxe siècle, qui apportent les outils nécessaires : la triode, inventée en 1906 par Lee De Forest, sera, jusqu'à l'invention du transistor, l'organe essentiel de l'électronique ; elle est encore utilisée aujourd'hui dans certains émetteurs de très grande puissance (souvent sous la forme de tétrode).

Les tubes électroniques du type triode (notamment la pentode) ont été longtemps les seuls dispositifs « actifs » utilisés en circuiterie électronique. Ils étaient devenus « miniatures » (une dizaine de cm3) dans les années 1940, puis « subminiatures » dans les années 1950 (quelques cm3), puis enfin « ultraminiatures » (environ 1 cm3). Cette évolution sera stoppée par l'arrivée massive des transistors et circuits intégrés.

Le premier magnétron est réalisé par Albert Wallace Hull (1880-1966) en 1924 et perfectionné par les Français Maurice Ponte (1902-1983) et Henri Gutton entre 1934 et 1939 ; il contribuera à améliorer les radars d'une manière décisive lors de la Seconde Guerre mondiale, car il était capable de produire des puissances élevées à des longueurs d'onde décimétriques et centimétriques. Le magnétron est aujourd'hui le composant essentiel des fours à micro-ondes.

Le klystron, qui est chronologiquement le deuxième type de tubes générateurs ou amplificateurs de micro-ondes, est inventé en 1936 (en même temps donc que les magnétrons modernes) par G. F. Metcalf et W. C. Hahn. Il s'agit du premier des tubes dits à modulation de vitesse, ou tubes O, dans lesquels l'énergie électrique donne aux électrons une énergie cinétique qui se transforme en énergie électromagnétique, alors que dans les tubes M tels que le magnétron, l'énergie électrique communique aux électrons de l'énergie potentielle, laquelle est transformée en énergie électromagnétique. Le klystron est encore très largement utilisé dans les radars, les faisceaux hertziens, les accélérateurs de particules, les lasers à électrons libres, les synchrotrons, etc.

Parmi les autres tubes O descendant du klystron, on trouve les tubes à onde progressive (T.O.P.), qui équipent nombre de radars et de satellites, et parmi les tubes M, les tubes amplificateurs à champs croisés qui équipent des radars militaires.

Le Japonais Yagi Hidetsugu, évoqué plus haut à propos des antennes (notamment de télévision), avait par ailleurs travaillé immédiatement après Hull sur le magnétron.

Cela étant, l'informatique n'aurait connu qu'un développement notable, sans plus, les téléphones mobiles n'auraient connu aucun succès et l'ensemble de l'industrie électronique n'aurait pas connu l'omniprésence qui la caractérise si l'on n'avait pas inventé le transistor planar et le circuit intégré au silicium. Le transistor (M.O.S., métal oxyde semiconducteur, le plus utilisé aujourd'hui) avait bien été breveté en 1928 par l'Allemand (plus tard Américain) Julius Edgar Lilienfeld (1881-1963) de l'université de Leipzig, mais les techniques de traitement des matériaux de l'époque ne permettaient pas d'obtenir de bons résultats pratiques. Or, au cours de la Seconde Guerre mondiale, on utilisa des cristaux mélangeurs en silicium, et l'on constata que certains conduisaient dans un sens et d'autres dans l'autre, parce que les impuretés étaient différentes (silicium dopé + ou dopé –). Les recherches que cela suscita furent concrétisées par la réalisation, en 1948, des premiers transistors (à pointe et à jonction) par William Bradford Shockley, John Bardeen et Walter H. Brattain, et surtout par la mise au point, en 1958, au sein de la firme Fairchild Semiconductors (par Jean Hoerni), de la technologie « planar » conduisant aux circuits intégrés contenant aujourd'hui des milliards de transistors sur le même petit composant. Le germanium, qui avait au début permis de réaliser les premiers transistors et les premiers récepteurs radio à transistors, sera vite définitivement abandonné au profit du silicium, même si le SiGe, combinaison de silicium et de germanium, a une certaine utilité. L'extraordinaire stabilité du dioxyde de silicium (en somme, le sable) a permis aux physicochimistes de progresser extrêmement rapidement dans la voie de la densification des fonctions électroniques.John Bardeen

John Bardeen Photographie

John Bardeen Le physicien américain John Bardeen (1908-1991), ici en 1972, est le premier scientifique lauréat du prix Nobel à deux reprises pour la même discipline : le prix Nobel de physique en 1956 et en 1972. 

Crédits: Hulton Getty Consulter

La mise au point, en 1964, aux laboratoires David Sarnoff de la Radio Corporation of America (R.C.A.) à Princeton, de la technologie M.O.S. a été la dernière touche de l'arrivée des circuits intégrés, qui contiennent tout un système de plus en plus complexe sur un parallélépipède de quelques centimètres carrés.

Gordon Moore, qui n'était pas neutre, puisque cofondateur d'Intel, le producteur numéro un de circuits intégrés, a énoncé (sans l'établir) la « loi de Moore », qui dit à peu près ceci : à chaque génération de mémoire D-RAM (la plus utilisée) – c'est-à-dire toutes les 3,1 années – le dessin devient plus fin dans le rapport 21/2 ≈ 0,707, la surface de silicium est multipliée par 2 et donc le nombre de transistors est multiplié par 4. En fait, le rapport de finesse est plus proche de 0,66 et le nombre de transistors n'est multiplié que ( !) par 3,7. De façon similaire, si le circuit est plus sophistiqué (microprocesseur) la puissance de calcul augmente en moyenne d'un peu plus de 4 tous les trois ans. Mais le corollaire de la loi de Moore, c'est que les dépenses d'investissement pour passer à une nouvelle génération semblent doubler (au moins) d'une génération à la suivante ! Nombre de Français donnent le nom de « puces » aux circuits intégrés, ce qui est injustifié pour deux raisons : d'abord parce qu'ils sont vraiment beaucoup plus gros que des puces, ensuite parce que ce nom avait en fait été attribué, par les ouvrières de l'usine Thomson de la rue de Cronstadt à Paris, aux toutes petites diodes en silicium qu'elles faisaient se retourner en tapant sur le plateau qui les contenaient, et où elles sautaient comme des puces, – le nom fut ensuite repris par un publicitaire pour les premiers microprocesseurs utilisés dans les machines à laver (ailleurs, on les appelle chips ou pastillas...).

Un autre groupe de matériaux semiconducteurs, les composés dits III-V – associant des atomes à trois électrons périphériques, comme le gallium, l'indium et l'aluminium, à des atomes à cinq électrons périphériques, comme le phosphore et l'arsenic – permettent de réaliser des circuits intégrés entre 1974 et 1976, avec à la fois, pour les premiers circuits intégrés en arséniure de gallium, des propriétés de grande rapidité qui leur permettent des applications en micro-ondes, et des possibilités d'utilisation en opto-électronique (réalisation de petits lasers utilisés par exemple en télécommunication sur fibres optiques). La possibilité de réaliser avec ces matériaux, grâce à des méthodes nouvelles (épitaxie par jet moléculaire), des couches superposées extrêmement fines (épaisseurs d'un ou de plusieurs atomes) de matériaux différents, les moyens modernes de dopage par implantation (un matériau semiconducteur doit souvent comprendre un pourcentage très faible, mais bien contrôlé, d'impuretés que l'implantation injecte en force dans le matériau de base), permettent d'élaborer des structures nouvelles (par rapport aux structures classiques de transistors), et, par là, d'accéder à des performances plus élevées, donc à des applications nouvelles.

C'est aujourd'hui avec des III-V utilisant de telles techniques (« puits quantiques ») que l'on réalise les rétines de caméras détectant les images en infrarouge dans les bandes d'environ 10 ìm de longueur d'onde (objets à température ambiante) ou d'environ 5 ìm (objets un peu plus chauds), en remplacements des rétines en « Hg-Cd-Te » (mercure-cadmium-tellure) longtemps utilisées (d'autres matériaux, tels que le sulfure de plomb ou le séléniure de plomb, étaient utilisés pour des longueurs d'onde plus basses).

Les méthodes de physicochimie développées pour l'industrie des semiconducteurs et convenablement adaptées ont permis de réaliser des fibres de verre très pur et de constitution bien contrôlée, rendant possible le transfert à longue distance d'une grande quantité d'information sous forme lumineuse dans des fibres optiques grâce à l'utilisation de dispositifs optoélectroniques.

Si les triodes et les klystrons peuvent aujourd'hui fournir des puissances énormes, c'est grâce à l'utilisation de dispositifs de refroidissement nouveaux et performants (le « vapotron », inventé en 1950 par Charles Beurtheret, de la société Thomson-C.S.F.), grâce à la triode à grille en graphite pyrolithique (Thomson-C.S.F., vers 1960), grâce aussi, pour les klystrons et les tubes à onde progressive, à l'utilisation, sur des calculateurs très puissants, de programmes de calculs importants.

Des programmes de même nature permettent de concevoir et de réaliser des antennes de forme nouvelle, beaucoup plus performantes que les anciennes, et, sans la conception assistée par ordinateur, personne ne pourrait sérieusement envisager de réaliser des composants (microprocesseurs, etc.) comportant autant de transistors par plaquette.

Les spécialistes du traitement du signal ont même parfois incité les techniciens à créer des composants inédits adaptés à leurs problèmes (tels que les filtres électro-acoustiques à ondes de surface, inventés en France en 1967-1968 par Eugène Dieulesaint et Pierre Harteman, de la société Thomson-C.S.F., et largement utilisés en dehors et au-delà de leur destination première).

Deux autres types de composants méritent une mention particulière : d'une part les codeurs analogiques-numériques et d'autre part les écrans plats. Les codeurs analogiques-numériques sont les organes qui permettent de transformer un signal analogique en signal numérique. Ils ont d'abord (années 1960) été l'apanage des radaristes qui ont été parmi les premiers à utiliser du traitement de signal numérique, puis se sont étendus au traitement d'images de télévision, puis se sont généralisés. Ils sont caractérisés par leur précision (nombre de bits) et leur vitesse.

Les écrans plats à cristaux liquides ont démarré dans les années 1960, ainsi que les écrans à plasma. Les premiers exemplaires d'écrans à cristaux liquides étaient très petits (montres, écrans de petits « ordinateurs »...). Ils ont connu et connaissent un développement prodigieux sous des formes et techniques variées, des applications avioniques (cockpits d'avions de ligne) aux téléviseurs grand public, en passant par les écrans d'ordinateurs personnels.

3.   Évolution de l'industrie électronique

Jusqu'en 1930, les applications à grande échelle de la radio-électricité étaient essentiellement les transmissions militaires (le général français Gustave Ferrié avait beaucoup contribué au développement des transmissions « sans fil » pendant la Première Guerre mondiale). Les années 1930 voient les balbutiements de l'électronique grand public avec l'apparition des récepteurs radio à haut-parleurs et des électrophones, et les balbutiements de la radionavigation (navigation à l'aide d'ondes radio).

La Seconde Guerre mondiale provoque un très important développement des équipements électroniques militaires, tels que le radiocompas à relèvement instantané (grâce au Français Henri G. Busignies, qui travaillait aux États-Unis), le radar terrestre ou embarqué sur avion ou navire, les transmissions hertziennes (« faisceaux hertziens », « bande latérale unique »...), les systèmes de radionavigation, les aides à l'atterrissage. L 'industrie française allait, à la fin du conflit, avec l'aide de l'administration, se (re)construire dans ces mêmes domaines, à partir de nombreux petits groupes (pour certains, limités à quelques ingénieurs), qui fusionneront petit à petit.

À la fin des années 1940, seuls les instruments d'imagerie radiologique faisaient l'objet d'une véritable fabrication industrielle, ce qui n'empêchait d'ailleurs pas leur fiabilité d'être très médiocre (les deux tiers du personnel étaient occupés à dépanner les équipements installés). Les équipements d'électronique grand public (postes radio, chaînes hi-fi et premiers téléviseurs) étaient fabriqués par une multitude de petits fabricants, qui achetaient leurs composants via des centrales d'achats. La fiabilité de ces équipements était modeste, ne serait-ce que parce que les tubes électroniques (triodes et autres) n'étaient pas tellement fiables, un peu par nature.

Le remplacement des tubes électroniques par des composants relevant de « l'état solide » – transistors et circuits intégrés – a été l'une des raisons de l'amélioration de la fiabilité des équipements électroniques. L'utilisation, de plus en plus, du traitement numérique, intrinsèquement plus fiable que l'analogique, et celle d'outils puissants d'aide à la conception (« Computer Aided Design »), qui permettent des simulations réalistes des futurs comportements, en sont deux autres. Une quatrième raison est, bien sûr, une automatisation (plus ou moins grande) des fabrications, évitant les erreurs humaines – et permettant par ailleurs une réduction des coûts. La dernière raison est la généralisation de tests automatiques par des machines utilisant des calculateurs. Rendue strictement nécessaire par le nombre de plus en plus élevé de mesures à faire, elle est facilitée par :

– le caractère plat et parfaitement reproductif des circuits imprimés supportant nombres de fonctions, qui permet de positionner automatiquement des testeurs par points ;

– l'utilisation de calculateurs de plus en plus puissants et rapides, qui permettent de répéter sans erreur des séquences de tests mises au point ab initio par des ingénieurs concepteurs de tests.

Dans un exemple extrême d'équipements pour l'espace (charges utiles pour satellite), on en arrive à parler d'« espérance de vie » de plus d'un siècle (pour être sûr qu'avec plusieurs équipements on a la qualité suffisante).

L'industrie électronique doit s'accommoder d'une augmentation considérable de la complexité de la conception et des essais. Les investissements importants en conception, outillage de fabrication et essais doivent, soit s'amortir sur des fabrications en grand nombre, soit pouvoir servir à plusieurs produits conçus pour faciliter cette flexibilité des outils (par exemple conçus de façon modulaire).

Quoi qu'il en soit, ces évolutions ne sont concevables la plupart du temps que si les industriels sont suffisamment puissants : d'où les regroupements industriels pratiqués depuis 1950, qui ont considérablement réduit leur nombre : Alcatel et Thales résultent de tels regroupements. D'où aussi parfois la segmentation des activités avec sous-traitance de la part des industriels concepteurs (devenus en franglais fabless) de tout ou partie de la fabrication, que ce soit dans le domaine des équipements ou celui des composants circuits intégrés.

En 1960, une petite société d'une quinzaine de milliers d'employés comme la française C.S.F. pouvait avec bonheur intervenir dans pratiquement tous les domaines de l'électronique. En 1980, seules quelques puissantes sociétés (Philips, Siemens, General Electric, Thomson) étaient capables de le faire. À partir de 2005, tout le monde s'est plus ou moins spécialisé, et il n'y a plus d'électronicien généraliste.

4.   L'électronique professionnelle

L'électronique professionnelle est la première à avoir connu un réel développement, d'abord avec les applications militaires de la radio (effectuées par le général Ferrié pendant la Première Guerre mondiale), puis pendant la Seconde Guerre mondiale. Il s'agit, la plupart du temps, de systèmes (associations coordonnées d'équipements pourvus de logiciels d'exploitation adéquats) ou d'équipements, fabriqués en petites quantités, et vendus à des clients de type étatique (nations, constructeurs d'avions de ligne, compagnies aériennes...), très souvent en même temps que la formation du personnel, voire la maintenance. Plus encore, il s'agit assez souvent de systèmes ou d'équipements faits sur mesure et adaptés au client particulier.

Les quantités fabriquées dépassent rarement quelques milliers d'exemplaires, elles sont parfois de quelques unités par an, voire d'un équipement tous les cinq ans. Ces équipements ne peuvent donc pas être fabriqués sur des chaînes entièrement automatiques équipées de machines-transferts ou d'un matériel équivalent, mais demandent plutôt des ateliers flexibles, avec des machines capables de fabriquer dans la même journée différents types de produits. Pour cette raison, et à cause de leur grande sophistication, ils ne peuvent parfois pas avoir la fiabilité des matériels grand public fabriqués à plusieurs millions d'exemplaires par an de façon extrêmement automatisée. En revanche, ils sont très souvent utilisés par du personnel extrêmement compétent, qui a reçu la formation nécessaire pour connaître les équipements en question et savoir s'en servir, en assurer une maintenance préventive (mesures destinées à éviter les pannes) et les dépanner rapidement (par changement de sous-ensembles).

L 'électronique professionnelle d'État concerne à 60 ou 70 p. 100 le domaine militaire. Ses différentes activités sont :

– les communications militaires hertziennes à vue directe, par réflexion sur la troposphère, via des satellites, et la téléphonie associée, qui ont constitué sa première activité ;

– la détection et le contrôle militaire et/ou civil de la navigation ( radars de surface ou radars de surveillance montés sur plates-formes volantes), et les systèmes de manipulation des données correspondantes, avec les « faces parlantes », écrans et informations tabulaires de toute nature permettant aux contrôleurs de diriger les évolutions des avions, navires et autres mobiles ;

– les aides à la navigation (systèmes permettant aux mobiles de se situer géographiquement, à partir d'informations radioélectriques provenant du sol ou de satellites) et à l'atterrissage (aides automatiques comme l'I.L.S. – instrument landing system –, ou les plus récents M.L.S. – microwave landing system –, ou P.A.R. – precision approach radar), permettant à des opérateurs au sol d'aider par la voix les pilotes d'avions à se poser ;

– l'équipement des satellites des systèmes de navigation type G.P.S. Navstar et Galileo, et les systèmes de contrôle et de commande associés ;

– l'équipement des satellites scientifiques et d'application (par exemple, photographie aérienne en visible, infrarouge, radar) ;

– la détection des sous-marins par des sonars actifs (analogues aux radars mais envoyant un signal sonore ou ultrasonore dans l'eau pour récupérer ensuite l'écho renvoyé par le sous-marin) ou passifs (écoutant les bruits émis par les sous-marins pour les analyser ensuite) ;

– l 'armement des avions de combat (radars permettant d'indiquer au pilote la position de l'adversaire et l'aidant à l'attaquer ou à se défendre, radars permettant le vol à basse altitude, imageurs infrarouges, etc.) ;

– l'avionique des avions (instruments de bord de navigation, de pilotage, de radiocommunication, cockpits associés) ;

– l'équipement des missiles (fusées de proximité, autodirecteurs), des obus (fusées de proximité), des torpilles (guidage) ;

– les systèmes au sol permettant la mise en œuvre des systèmes de défense (guidage des missiles surface-air) ;

– les équipements de simulation permettant de façon plus économique et sans risque d'apprendre à piloter des avions, des chars, des navires, des centrales nucléaires ;

– les émetteurs radios et les émetteurs ou réémetteurs de télévision, les équipements des studios (mobiles ou fixes) de télévision ;

– la réalisation totale ou partielle (fourniture d'éléments clés) de systèmes de recherche et/ou d'investigation tels que des accélérateurs de particules, synchrotrons, lasers à électrons libres.

Les techniques utilisées recouvrent très largement le domaine des ondes électromagnétiques très longues (pour la transmission militaire, on va jusqu'à utiliser des longueurs d'onde de 10 000 kilomètres), moyennes, courtes, pour les radiocommunications, des micro-ondes (de quelques dizaines de centimètres à quelques millimètres) pour la détection et les communications, des ondes micrométriques (infrarouge et lumière visible) pour la détection et la transmission (sur fibres optiques).

Les ultrasons sont aussi utilisés, à la fois comme outils de traitement du signal et comme signal de base (dans la détection et les transmissions sous-marines).

L'électronique professionnelle utilise des équipements de plus en plus sophistiqués, qui doivent pouvoir fonctionner dans n'importe quel contexte, en dépit des perturbations atmosphériques, des signaux parasites et des contre-mesures de l'adversaire (brouillages aveugles ou dispositifs de leurrage), qui cherchent à écouter en temps de paix pour préparer la guerre (écoute stratégique), ou en temps de guerre pour neutraliser les moyens adverses.

Les équipements de l'électronique professionnelle, qui sont souvent amenés à fonctionner dans des conditions climatiques difficiles, sont le plus souvent organisés en systèmes (systèmes d'armes, systèmes de contrôle, systèmes de communications...) constitués d'un certain nombre d'équipements s'échangeant des informations (sous forme de plus en plus numérique), simples ou complexes (images colorées), qui sont stockées en plusieurs endroits mais accessibles à chaque instant. La part de traitement numérique augmente chaque jour, ce qui permet une plus grande souplesse d'emploi, sous réserve que les organes de calcul qui gèrent les systèmes et traitent l'information soient pilotés par des programmes suffisamment complexes, leur permettant de réagir à temps en cas d'événements imprévus : on dit qu'il s'agit d'informatique en « temps réel ». Les programmes correspondants (les logiciels) sont souvent très gros et donc chers. C'est la raison pour laquelle on a par exemple vu en France se constituer en 2005 un « pôle de compétitivité » comprenant Dassault, E.A.D.S., Thales, C.S., M.B.D.A., avec l'I.N.R.I.A., le C.E.A. et Esterel Technologies pour essayer de diviser par trois les coûts de conception de tels logiciels et par deux les coûts de développement.

La structure de l'industrie électronique professionnelle d'État était extrêmement dispersée après la Seconde Guerre mondiale, particulièrement en France, où il convenait de reconstruire, et où toute bonne volonté un peu compétente trouvait sa place pour un temps. Les industriels les plus importants des États-Unis (General Electric, R.C.A., Raytheon, etc.) réalisant des matériels très sophistiqués au prix d'investissements énormes en recherche et en développement (de 30 à 35 p. 100 du chiffre d'affaires), essentiellement financés (à un niveau supérieur à 80 p. 100) par le ministère de la Défense, la structure dispersée s'est progressivement révélée inefficace pour envisager de rester en France à un niveau compétitif. Les années 1960 à 1990 ont vu une considérable réduction du nombre des industriels français, dans le but de mieux utiliser les ressources disponibles pour la recherche et le développement (environ de 15 à 25 p. 100 de l'activité). Des évolutions analogues se sont produites en R.F.A. et en Italie ainsi qu'à un niveau moindre en Grande-Bretagne. Les concentrations se sont ensuite poursuivies à l'échelon européen. Raytheon et Thales figurent aujourd'hui parmi les « grands » du domaine.

5.   L'électronique médicale

L 'électronique médicale comprend l'imagerie médicale d'aide au diagnostic, les équipements de soins que sont les irradiateurs (par rayons X, par neutrons, etc.), les équipements destinés à pallier des insuffisances cardiaques tels que les cardiostimulateurs ou les équipements utilisés pour combattre d'autres problèmes du muscle cardiaque tels que les défibrillateurs.

Les premiers cardiostimulateurs ont été réalisés en France au début des années 1960, par les laboratoires Derveaux-Cotelec, sous deux formes : les équipements lourds d'hôpitaux et les équipements implantables dans le corps humain (à l'époque implantés au-dessous du diaphragme, ils étaient reliés au cœur par deux fils métalliques ; ils ont fait depuis beaucoup de progrès en fiabilité de l'appareil lui-même et de ses connexions ; très répandus, leur nom originel de pacemaker est de plus en plus remplacé simplement par le mot « pile »).Pacemaker

Pacemaker Photographie

Pacemaker Un pacemaker, en 1968. D'une durée de vie de trois ans, réalisé en résine époxy et alimenté par une pile au mercure, il était fabriqué par une filiale de la Elliot-Automation Continental. 

Crédits: Hulton Getty Consulter

L 'imagerie médicale d'aide au diagnostic utilise plusieurs types de rayonnement.

Tout d'abord la lumière visible, par exemple dans les équipements récents de vision du fond de l'œil, où la qualité de l'image est excellente en dépit de l'inhomogénéité du liquide oculaire (« humeur aqueuse »), grâce à l'utilisation de techniques d'optique adaptive (très analogues à celles utilisées dans les télescopes terrestres pour retrouver le pouvoir de résolution théorique en dépit des inhomogénéités de l'atmosphère).

L 'imagerie médicale utilise également les rayonnements ultrasonores dans des équipements d'échographie, qui ressemblent à des petits sonars. Les équipements d'échographie Doppler ont emprunté dès le début des années 1970 des techniques très voisines de celles utilisées par les radars dits « pulse Doppler ».

L 'imagerie médicale utilise bien sûr les rayons X, et ce depuis longtemps, comme il a été rappelé plus haut. Un premier grand progrès a été réalisé dans les années 1950 avec le développement (notamment grâce à Lucien Guyot de Radio-Industrie, l'un des ancêtres de Thales) des tubes à intensification d'images radiologiques (analogues dans le principe aux tubes de « vision nocturne » utilisés par les militaires) qui permettent de réduire de façon drastique la dose de rayonnement nécessaire à l'imagerie, ce qui sert aussi dans l'examen aux rayons X des bagages).

Le marché de l'imagerie médicale a été complètement bouleversé lorsque les premiers « scanners », inventés par des radaristes de la société britannique E.M.I., sont apparus dans les années 1970 ; dans ces appareils, l'image est reconstituée par un calculateur à partir d'un très grand nombre d'informations (grand nombre de capteurs de rayons X, grand nombre de positions de l'émetteur de rayons X). De tels appareils sont d'un niveau de sophistication très supérieur aux anciens imageurs X, avec un émetteur hyperfréquence très soigné, une mécanique de haute précision, un traitement du signal très élaboré ; ils ressemblent plus à un radar qu'à un imageur X ancien.

L'importance de l'imagerie médicale a été confirmée dans les années 1980 avec les imageurs utilisant la résonance magnétique nucléaire, appareils également d'un degré élevé de sophistication et nécessitant un gros investissement en recherche et développement. Ces équipements utilisent des rayonnements à fréquence relativement faible (de l'ordre de celles qui sont utilisées en radiocommunications militaires ou en acoustique). L'appellation R.M.N., peu appréciée commercialement à cause du mot « nucléaire », a été remplacée par I.R.M., pour imagerie par résonance magnétique.

Au début des années 1990, à la suite de l'arrivée du scanner et de l'I.R.M. dans le domaine des équipements lourds d'imagerie médicale, seuls avaient survécu un petit nombre de groupes, puisque trois sociétés se partageaient 60 p. 100 du marché mondial des imageurs médicaux (General Electric, après absorption de la société française C.G.R., Philips, après absorption de la société britannique Pickers, et Siemens) ; elles étaient suivies par deux firmes japonaises (Toshiba et Hitachi) qui couvraient surtout les besoins du Japon, ces cinq premières sociétés couvrant pratiquement 80 p. 100 du marché mondial.

6.   L'informatique

C'est à la fin de la Seconde Guerre mondiale que John von Neumann met à profit, aux États-Unis, les idées émises en 1936 par le Britannique Alan Mathison Turing. Aujourd'hui encore, les calculateurs numériques universels (en anglais general purpose computers) fonctionnent suivant les conceptions de von Neumann : « Je vais voir dans la mémoire de programmes ce que je dois faire maintenant – Je vais voir dans la mémoire de données la donnée sur laquelle je dois agir – J'agis – Je retourne voir dans la mémoire de programmes... ». Depuis 1995, les Français les appellent souvent « ordinateurs », notamment quand il s'agit des matériels domestiques (« ordinateur personnel » pour le vocable anglo-américain personnal computer).

Même si un Allemand, Konrad Zuse, a sans doute réalisé en 1944 le premier calculateur numérique opérationnel, on s'accorde à donner comme point de départ de l'informatique moderne, la réalisation (en 1945) de l'Electronic Numerical Integrator And Computer (E.N.I.A.C.) construit par les Américains J. Presper Eckert et John Mauchly, énorme machine de 30 tonnes contenant 18 000 tubes électroniques et dissipant une puissance énorme, avec une fiabilité réduite.

À cette époque et pendant une dizaine d'années (jusqu'à la fin des années 1950), on a utilisé avec efficacité des « calculateurs analogiques », dont on modifiait le fonctionnement en câblant différemment leurs éléments. Leur puissance de calcul était ridicule comparée à la puissance des machines numériques qu'utilisent aujourd'hui Météo France ou le C.É.A. – la précision du calcul ne dépassait pas 1 p. 100 –, mais elles furent bien utiles (exemple : le calculateur Analac de la française C.S.F.).

Dès le début des années 1950, sous l'impulsion des ingénieurs du ministère de l'Air, on a construit en France (François Raymond de la S.E.A.) des calculateurs numériques pour remplacer les précédents. On trouvait en France, à la fin des années 1950, des calculateurs de 2 mètres cubes appelés CAB 500 (de la même S.E.A.) programmés à l'aide d'un « langage évolué », voisin du langage américain Basic.

Il faut préciser qu'à cette époque on programmait généralement les calculateurs universels en « langage machine », un langage (fastidieux) très près du fonctionnement de la machine, par opposition aux nombreux langages dits « haut niveau » qui vont fleurir et qui sont plus proches du langage de tout un chacun (anglophone !), et adaptés à l'usage que l'on veut faire de la machine (Fortran d'I.B.M. pour le calcul scientifique par exemple, Cobol pour l'informatique de gestion, Jovial pour les systèmes de défense aérienne, plus tard le langage Ada du Français Jean Ichbiah standardisé par les militaires américains et l'O.T.A.N., puis... le langage C, le C++, le Java, etc. Ces langages de haut niveau ont besoin d'être traduits pour être compris par la machine (par exemple grâce à des programmes traducteurs dits « compilateurs »).

Le premier calculateur numérique universel embarquable français a sans doute été, au milieu des années 1960, celui du système d'armes antiaérien Crotale de Thomson, qui n'a pu être réalisé au début en circuits intégrés (faute d'avoir ce genre de composants « militarisés ») et dont la mémoire pouvait contenir 8 kilo-octets (le moindre ordinateur portable avait, en 2006, une mémoire un million de fois plus importante !), et cela avait été un gros progrès de le transformer en « Douchka » (c'est-à-dire de l'équiper d'une mémoire contenant plus de douze kilo-octets).

À la fin des années 1950, Jean-Pierre Brulé, à I.B.M.-France, proposa de réaliser des machines numériques à transistors pour aider au contrôle des avions militaires dans les systèmes de défense aérienne à base de radars. Il mit au point, à cette fin, des machines spécifiques nommées CAPAC (« calculateur de poursuite et d'acquisition ») et CADI (« calculateur d'interception »), qui rivalisèrent heureusement avec leurs homologues américaines et dont les fonctions sont aujourd'hui remplies par des machines « universelles ».

La firme Hewlett-Packard fabriqua dès le début des années 1970 des machines à calculer (calculettes) qui ne faisaient que du calcul, et dont les descendants peuvent aujourd'hui effectuer des calculs très savants, avec des écrans pour afficher graphiquement les résultats.

Mais le premier ordinateur portable a peut-être été (dans la seconde moitié des années 1970) le « SHARP PC-1211 pocket computer », petit ordinateur programmé en Basic, dix mille fois plus petit que la CAB 500 construite vingt années plus tôt, pour des performances très voisines.

C'était bien sûr la conséquence de l'irruption des circuits intégrés dans la vie de l'informatique. Leurs progrès, continuels, produisent encore et toujours leurs effets, associés aux progrès considérables également dans le domaine des mémoires (après l'époque des mémoires à tores magnétiques), notamment dans le domaine des mémoires non volatiles dites « à disque dur », avec, récemment, l'utilisation de mémoires qui utilisent le fait que les électrons ont un « spin » (domaine de la « spintronique »). Parmi les circuits intégrés, il convient de faire une place à part aux « microprocesseurs » – et, pour le traitement du signal, aux digital signal processor (D.S.P.) – qui sont, sur une seule pastille de semiconducteur, de véritables cœurs de calculateurs. À titre indicatif, en 1971, l'Intel 4 bits avait 2 300 transistors sur une pastille de 18 mm2 ; au début des années 1980, le Motorola 68 000 en avait, dit-on, 68 000, et il n'est pas déraisonnable d'envisager, à la fin des années 2010, des circuits de ce type avec un milliard de transistors sur un bonne dizaine de centimètres carrés.

Hormis les petites machines que l'on vient d'évoquer, l'informatique a longtemps été essentiellement le domaine des grosses machines, utilisées souvent en réseau pour des applications d'envergure. On parlait dans les années 1980 de « main frame » pour les plus grosses, dont le prix dépassait le million d'euros actuels. Les machines un peu moins grosses s'appelaient alors des « mégaminis ». Ces machines servent à faire de la gestion, à tous les sens (nombreux) du terme : gestion financière, du personnel, des vols d'avions civils ou militaires, guidage des armes. Elles fournissent des outils de plus en plus puissants dans la conception assistée par ordinateur (C.A.O., en anglais computer aided design, C.A.D.) – comme le CATIA développé chez Dassault –, d'abord en deux dimensions, puis en trois dimensions (il y a même eu des programmes en deux dimensions et demie), dans la fabrication et les tests automatisés.

On caractérise, de façon incomplète, la puissance de ces machines par le nombre d'instructions qu'elles peuvent, en théorie, traiter par seconde. Au début des années 1980, un million d'instructions par seconde (1 MIPS) était déjà une bonne puissance. Le microprocesseur Pentium 60 avait en 1993 une puissance de 100 MIPS, le Power PC 620 permettait 600 MIPS en 1996. On en était à la vingtaine de GIPS (gigaIPS, ou mille MIPS) en 2006, et il n'est pas exclu de dépasser le TIPS (téraIPS, ou un million de MIPS) au milieu des années 2010.

Le calcul scientifique proprement dit effectué à l'aide de machines numériques a commencé dès le début des années 1960, avec par exemple des machines CDC (comme le CDC 6600). La puissance des machines scientifiques se caractérise plus volontiers par le nombre de calculs (multiplications, à virgule flottante) par seconde. Le record du monde était, au début des années 1980, d'un gigaflops (flops, pour flotting point operations per second). L'utilisation de nombreuses machines en parallèle (qui convient à beaucoup de problèmes tels que les prévisions météorologiques, et généralement au « calcul vectoriel »), associée à l'évolution des circuits intégrés et autres mémoires, a permis en 2005 d'obtenir des puissances de calcul 350 000 fois plus élevées, et le pétaflops (1 000 téraflops = 1 000 000 gigaflops) a été atteint en 2006 pour un institut de recherche japonais, avec 201 machines en parallèle utilisant des circuits intégrés avec une finesse de dessin de 0,13 ìm.

Le nombre de MIPS ou de flops n'est pas suffisant pour qualifier une machine informatique : la précision du traitement (du calcul) dépend du nombre de bits avec lequel est représenté un nombre : au début de l'informatique (années 1960), maintes machines se contentaient de mots de 16 bits, qui donnaient une précision au mieux de 1/10 000, ce qui était 100 fois mieux que les machines analogiques. On est ensuite passé partout à 32 bits, avec les machines exceptionnelles (scientifiques) qui travaillaient en 64 bits. À partir de 2006 se sont généralisées, pour les « stations de travail » des ingénieurs, des machines à 64 bits.

Le traitement de signal intégré dans certains équipements complexes (comme les sonars, les radars) utilise généralement des méthodes et des structures de calcul qui leur sont propres et adaptées au problème posé, pour fournir la meilleure performance possible au moment de la conception.

C'est dans les années 1970, alors qu'I.B.M. régnait sans partage sur l'informatique mondiale, qu'Apple a conçu sa machine informatique à usage personnel ou domestique. Son succès a alors amené I.B.M. à concevoir (en liaison avec les logiciels de Bill Gates et autres) ce qu'il a appelé un personal computer (PC, en français « ordinateur personnel »), sorti en 1981. D'autres sociétés lui ont emboîté le pas et les machines en question sont maintenant tout à fait du domaine grand public.

La société Hewlett-Packard, qui a été fondée (au début dans un célèbre garage) par William Hewlett et David Packard pour concevoir et fabriquer des appareils de mesure (d'abord des oscilloscopes), était devenue en 1980 le numéro un mondial de la mesure, notamment en hyperfréquences. Elle a progressivement étendu ses activités en faisant des calculettes de plus en plus performantes, ainsi qu'en informatique, notamment en informatique personnelle, au point que son activité de mesure, tout en restant au tout meilleur niveau mondial, est devenue largement minoritaire, et qu'elle a fini par en faire une société autonome (Agilent).

Quelques mots sur la « souris » qu'utilisent la majorité des internautes et autres utilisateurs d'ordinateurs. Dans les années 1960, on a utilisé de petits manches à balais (joysticks) analogues à ceux qu'utilisent les pilotes d'Airbus, lorsqu'on voulait – sur une « face parlante », écran cathodique représentant une partie des informations utiles fournies par la machine informatique – désigner quelque chose à la machine. Puis on les a remplacés par des « boules roulantes » beaucoup plus souples et précises à manipuler, mais qui coûtaient cher, ne serait-ce qu'à cause de leur nécessaire étanchéité. En les retournant (boule au-dessous), elles sont devenues les souris bien connues, moins chères. Juste retour des choses, on retrouve sur les avions neufs (Airbus 380, Falcon haut de gamme, etc.), les boules roulantes d'autrefois fournies par Thales ou Honeywell pour « cliquer » au bon endroit sur les écrans multirôles du cockpit.

7.   Les télécommunications

Les télécommunications, première grande application de l'électronique, ont assez peu évolué jusqu'à la fin de la Seconde Guerre mondiale : le téléphone est longtemps resté à commutation manuelle, puis il est devenu à commutation automatique, « électromécanique » avec des relais électromagnétiques. Les voies téléphoniques transportaient la parole sous forme analogique dans des fils métalliques enterrés ou traversant les océans.

Depuis la fin de la Seconde Guerre mondiale sont apparues successivement, en concurrence des liaisons filaires métalliques, les transmissions hertziennes sous les formes de liaison directe de point à point ( faisceaux ou câbles hertziens), de liaison de point à point avec réflexion sur la troposphère (faisceaux « troposphériques »), de liaison à travers un relais situé sur un satellite géostationnaire, de liaison terrestre de point à point à travers des câbles en fibres de verre (le signal électrique d'origine étant transformé en signal optique pendant la durée du transport).

L'utilisation de faisceaux hertziens était la conséquence directe de l'utilisation et de la connaissance des micro-ondes (longueurs d'onde de quelques centimètres) rendues populaires par le radar : l'utilisation d'antennes à réflecteurs de grande dimension permettait de concentrer l'énergie émise dans des angles (solides) petits en direction du destinataire. Les réalisations correspondantes ont conduit durant les années 1960 à la création d'une nouvelle industrie, sans incidence évidente sur les industries existantes des télécommunications. On peut en dire autant de l'émergence des faisceaux troposphériques, dont le marché n'a jamais été très important (à cause des contraintes inhérentes à cette technologie en matière de bande passante) et se trouve assez limité aux applications militaires ou équivalentes, ou à celles ne requérant que la transmission de peu d'informations mais sur de grandes distances.

En revanche, l'utilisation d'émetteurs d'ondes hertziennes pour le téléphone a remarquablement évolué vers les applications de la téléphonie mobile, non sans hésitation au début. À la fin des années 1970 par exemple, seules trois petites zones étaient en France équipées d'émetteurs de « radiotéléphonie » (la plus grande étant la zone parisienne jusqu'à environ 30 kilomètres du centre de Paris). Seules des automobiles (sans doute moins d'un millier) étaient équipées des récepteurs correspondants permettant de téléphoner de sa voiture (même aux États-Unis, à la grande surprise des touristes américains en France). Ces récepteurs étaient volumineux (5 à 10 litres), lourds et chers. Les années 1980 ont vu l'extension de la couverture à presque tout le territoire français (avec le système Radiocom 2000), toujours pour des automobilistes privilégiés. Depuis la fin des années 1990, la quasi-totalité du territoire français est couverte par plusieurs opérateurs à destination des récepteurs « mobiles » de plus en plus petits et légers (nettement moins de 100 grammes), de plus en plus sophistiqués (progrès ici aussi de la microélectronique), équipés de petits écrans LCD, dont disposent la majorité des Français.

Les anciens châteaux d'eau retrouvent une utilité comme supports des antennes d'émission-réception et les municipalités trouvent, dans les redevances payées par les opérateurs, de petites ressources nouvelles. À l'étranger, dans certains pays, la (radio)téléphonie mobile constitue pratiquement le seul moyen de téléphonie (au Yemen par exemple on appelle un « Al Catel » un pylône supportant les antennes d'émission-réception). Inutile de préciser que si les récepteurs mobiles sont évidemment du domaine grand public, les émetteurs-récepteurs de ces antennes, avec l'informatique de commutation associée, sont d'une autre nature.

L'utilisation de satellites géostationnaires a nécessité, au début des années 1970, des antennes de très grandes dimensions, grands réflecteurs, avec des « sources primaires » adaptées et sophistiquées, pour obtenir le meilleur résultat. Puis les progrès des tubes d'émission de satellites ont rendu plus simple la tâche des antennes terrestres.

La fin des années 1970 a vu le début de l'utilisation des fibres de verre pour transporter l'information, utilisation rendue possible par les progrès de la physicochimie qui donnent les moyens de réaliser des fibres de verre de qualité parfaitement contrôlée du centre au bord, et les organes de transformation électrique-optique et optique-électrique performants associés. Les progrès ont été tels (bande passante des fibres optiques, amplificateurs « dopés à l'erbium ») qu'au début des années 2000 la disponibilité des canaux optiques était surabondante.

C'est au début des années 1970 (en France sous l'impulsion de Louis Joseph Libois) que l'on a commencé à envisager de remplacer les signaux analogiques représentant la voix par des signaux numériques. Ce n'était pas évident car la « voix numérique » demandait suivant les critères de l'époque (les militaires se contentaient avec bonheur de beaucoup moins !) 64 kilobits par seconde et donc une bande passante très supérieure à celle demandée par une voix analogique. En revanche, l'utilisation de signaux numériques permettait de s'affranchir des problèmes de distorsion au long du trajet et ouvrait la possibilité de gestion des voix par calculateur universel et de techniques de « compression » permettant de véhiculer des images sous forme très convenable dans des canaux de largeur de bande raisonnable.

La généralisation de l'emploi de signaux numériques au lieu de signaux analogiques, en particulier dans les transmissions téléphoniques, qui a commencé à partir du milieu des années 1970, a constitué une véritable révolution parce qu'elle conduisait :

– globalement, à une amélioration de la productivité dans un rapport de six à un (six fois moins de personnel de fabrication, d'essais et d'installation par ligne d'abonné), donc à un énorme surplus de personnel et aux problèmes de licenciements associés ;

– à la nécessité d'utiliser un pourcentage très élevé d'ingénieurs dans une industrie employant jusque-là surtout du personnel d'exécution ;

– à l'introduction rapide de programmes d'informatique (logiciels) très compliqués et volumineux – 500 000 « lignes de code » – (en temps réel), correspondant à ce qu'on avait fait de plus complexe dans certaines applications militaires ou spatiales, dans une industrie qui n'était pas accoutumée à ces techniques ;

– à la possibilité enfin de fournir petit à petit aux utilisateurs des services nouveaux (utilisation du Minitel, réveil téléphonique automatique, transmission d'images fixes ou animées, etc.) en mixant les possibilités de l'informatique et celle des transmissions.

Le développement des nouveaux produits correspondants demandant des sommes importantes (nettement plus d'un milliard d'euros pour une nouvelle famille de centraux téléphoniques numériques, dont la durée de vie tourne autour de cinq ans), il convenait dès lors de les amortir sur des séries importantes et d'éviter la dispersion des fabrications de quantités de modèles distincts et concurrents. D'où l'inévitable regroupement des industriels en quelques groupes puissants et peu nombreux. En Europe, la Compagnie générale d'électricité (C.G.É.), rebaptisée Alcatel Alsthom en 1991, puis Alcatel en 1998, regroupa une grosse partie des équipementiers correspondants, notamment les sociétés européennes du groupe International Telephone and Telegraph (I.T.T.).

Les années 1990 ont connu un autre bouleversement de l'industrie des télécommunications. Il y a eu d'abord la séparation, au sein de l'American Telephone and Telegraph Company (A.T.T.), de la partie opérateur et de la partie équipementier qui coiffait les célèbres Bell Labs, baptisée Lucent ; ensuite, une floraison d'opérateurs nouveaux de téléphonie, fixe et surtout mobile. La plupart de ces nouveaux venus ont fait l'objet d'une importante surévaluation, et les bourses se sont mises à croître de façon exagérée. Par la suite, la plupart des opérateurs qui avaient acheté à prix d'or des parts de concurrents de valeur en fait modeste se sont trouvés avec des pertes comptables abyssales. Au début des années 2000, les bourses ont basculé, la valeur boursière des actions des opérateurs sains a parfois été divisée par plus de dix (pour des raisons pas du tout évidentes, nombre de journalistes qualifient ce mini-crack boursier d'éclatement de la « bulle Internet »). Ils ont dû réduire brutalement leurs investissements. Les équipementiers se sont trouvés avec un carnet de commandes qui s'effondrait, et l'absolue nécessité de réduire la voilure. Le nettoyage de ces survaleurs a duré plus de cinq ans (en 2006, l'un des plus grands opérateurs de téléphonie mobile annonçait une perte comptable de 32 milliards d'euros !). Alcatel et Lucent ont vu des réductions par deux et plus de leur personnel, une externalisation des fabrications, pour finir par se regrouper en 2006 au sein d'un groupe unique. De la même façon s'étaient réunis le suédois Ericsson et le britannique Marconi (la partie télécommunications de G.E.C.-Marconi). À la suite de quoi l'allemand Siemens décidait de réunir sa partie télécommunications avec le finlandais Nokia, pour former Nokia-Siemens Network. Les chiffres d'affaires de ces trois grands (Alcatel-Lucent, Ericsson-Marconi, Nokia-Siemens) étaient en 2006 du même ordre de grandeur, au-dessus de 15 milliards d'euros, très supérieurs à celui de télécommunications des Nortel, Cisco et autres N.E.C. et Motorola (autour de 5 milliards d'euros).

Indépendamment de cela, le Department of Defense des États-Unis finançait, dans les années 1960, un projet pour expérimenter un système de liaisons fiable entre les organisations titulaires de ses contrats (universités et autres) et lui. Ce réseau, appelé Arpanet (Advanced Research Projects Administration NETwork), a commencé, dès 1967, à connecter quelques ordinateurs de l'Ouest des États-Unis. Puis il a grossi pour couvrir l'ensemble des États-Unis et, dans les années 1980, a incorporé petit à petit le réseau de la National Science Foundation et ceux de grandes entreprises, pour former un réseau de réseaux interconnectés, appelé Internet.

Par ailleurs, en 1989, au Cern de Genève, l'Anglais Tim Berners-Lee a inventé les divers outils qui permettront d'avoir un World Wide Web sur Internet : le protocole d'hypertexte http (HyperText Transfert Protocole), l'adresse URL (Uniform Resource Locator) et le HTML (HyperText Markup Language). Le Web permet à tout un chacun d'échanger des informations de natures diverses, entre des machines très différentes.

Enfin, au cours des années 1990, les ingénieurs de la filiale belge d'Alcatel développaient l'ADSL (Asymetrical Digital Subscriber Line), le premier des XDSL, un moyen d'utiliser des lignes téléphoniques banales pour y faire transiter des informations à haut débit.

La conception des logiciels associés à Internet et de ceux qui sont directement implantés dans les ordinateurs personnels représente depuis la fin des années 1990 une industrie importante où règne la société Microsoft, fondée en 1975 par Bill Gates et Paul Allen.

8.   L'électronique grand public

L'électronique grand public, dont les appareils sont fabriqués par dizaines de millions annuellement, agrandit bien évidemment régulièrement son domaine.

Après la Seconde Guerre mondiale, le seul produit était le poste radio familial, fabriqué par une grande quantité de petits artisans, devenu portable à la fin des années 1950 grâce à l'arrivée des transistors (le premier portable français, le Solistor de C.S.F., utilisait encore des transistors au germanium). Les téléviseurs noir et blanc commençaient à exister à une échelle non confidentielle à partir de 1937 en Grande-Bretagne (EMI – 405 lignes), en Allemagne (441 lignes), en France (Grammont – 441 lignes, Compagnie des Compteurs – 450 lignes et Thomson – 455 lignes). Ils n'étaient pas encore très répandus en France au début des années 1950.

La télévision en couleurs commença à prendre forme autour du tube « shadow-mask » de David Sarnoff pour la présentation des images (les autres solutions, telles que le tube à pénétration ou l'eidophore, n'ont pas véritablement émergé), des tubes de prises de vue orthicon (1946), mais surtout « vidicon » (R.C.A. 1950) et « plumbicon » (Philips 1954), avec plusieurs standards rivaux : le NTSC américain à 525 lignes (1953), le Secam français et le PAL allemand, tous deux à 625 lignes.

C'est à la fin des années 1960 que l'on commença à trouver des « chaînes hi-fi » d'origine japonaise, à l'époque fort chères d'ailleurs, dont les prix allaient baisser lentement par la suite.

Depuis le début des années 1950, époque à laquelle l'industrie électronique grand public était éclatée en un grand nombre de petites sociétés fabriquant des appareils à tubes de façon quasi artisanale (voire tout à fait artisanale), de fiabilité très relative et nécessitant d'importantes prestations d'après vente, on a assisté à une évolution somme toute analogue à celle de l'industrie automobile, quoique bien plus rapide et s'intéressant à des produits d'un coût unitaire beaucoup plus faible. À la fin des années 1980, les produits de l'électronique grand public étaient fabriqués en très grande série dans des usines automatisées nécessitant des investissements importants : alors qu'à la fin des années 1970, il fallait environ vingt heures de fabrication et d'essais par téléviseur couleurs, il en fallait moins de deux à la fin des années 1980 ; on mesure l'énorme évolution de la productivité, résultant de sommes importantes investies dans les chaînes de fabrication, qu'il faut donc amortir sur de grandes quantités fabriquées. On comprend alors la nécessité de regrouper des industries ; il en est résulté un jeu de fusions, rachats, absorptions entre la fin des années 1950 et la fin des années 1980, pour passer de la multitude de petites sociétés artisanales aux quelques grands groupes alors dominants.

Les trois premiers groupes étaient le japonais Matsushita (environ 15 p. 100 de la production mondiale), l'européen Philips et l'américano-européen Thomson – après l'acquisition de R.C.A. – (chacun environ 10 p. 100). Les autres grands étaient alors essentiellement japonais.

L'automatisation de la fabrication, grandement facilitée par le développement des circuits intégrés à haute densité, a eu des conséquences largement positives sur la fiabilité des équipements produits : la réduction au minimum des interventions humaines permet d'obtenir des produits très fiables, réduisant au minimum (voire à zéro) les interventions des dépanneurs d'après vente.

Durant les années 1970 ont été développés trois nouveaux produits : le magnétoscope et le vidéodisque dans le domaine audiovisuel, et l'allumage électronique des automobiles. Le magnétoscope a été développé essentiellement par Philips et le japonais J.V.C. (Japan Victor Company, la compagnie japonaise du chien Victor, celui qui écoute la « voix de son maître »). Le deuxième standard, qui semblait techniquement moins sain, s'est le plus répandu, sans doute parce qu'on trouvait chez les marchands de « bandes » plus de produits J.V.C. que de son concurrent.

Le vidéodisque (qui permettait de mettre sur disque des images de télévision) faisait l'objet d'études chez R.C.A., J.V.C. d'une part, Thomson-C.S.F. et Philips d'autre part. Les deux premiers enregistraient plusieurs (2 ou 3) images sur un tour de disque, au contraire des deux autres qui ne mettaient qu'une image par tour, permettant ainsi l'arrêt sur image. Ces études donneront naissance aux compact disks (CD) de toutes natures et aux digital video disks (DVD).

C'est aussi dans les années 1970 que les premiers dispositifs d'allumage électronique intégré ont été développés (en particulier dans les laboratoires de Thomson-C.S.F.) pour être installés en série sur des véhicules automobiles à la fin des années 1970. C'était le début d'une introduction envahissante de l'électronique dans l'automobile, avec ensuite l'utilisation sur les automobiles de ce que les informaticiens qualifient de « bus » et que les constructeurs d'automobiles baptisent de « multiplexage », rendant possible de nouvelles fonctions, notamment la navigation à base de satellites que permettent le Global Positioning System (G.P.S.) et le Galileo.

La seconde moitié des années 1970 a également vu les vrais débuts de la numérisation des images de télévision en couleurs, grâce à l'arrivée des mémoires numériques à semiconducteurs. La première « mémoire de trame » réalisée dans les laboratoires de Thomson-C.S.F. près de Rennes nécessitait, pour une seule image, une soixantaine de boîtiers mémoires, tels qu'ils étaient disponibles à l'époque. Très rapidement, le volume nécessaire a décru drastiquement, ouvrant la porte à des traitements permettant de réduire spectaculairement le nombre de bits par seconde nécessaires pour transmettre une image sous forme numérique, essentiellement grâce à deux outils : la transformation de Fourier discrète, et l'extrapolation du mouvement d'une image à la suivante.

Ces techniques, que l'on retrouve partiellement dans le traitement des images d'appareils de photo numérique, permettent de transmettre beaucoup d'images de qualité dans une bande passante relativement réduite. L'ancêtre des appareils de photo numérique est probablement la « caméra CCD » développée aux États-Unis en 1975 par C.B.S. Labs, qui utilisait trois CCD (charge coupled devices pour dispositifs à transfert de charges) au silicium. Il n'était pas question, alors, de rivaliser, au niveau du prix et de la finesse d'image, avec les photos argentiques – qui ont une « résolution de 50 millions de pixels ». À partir du moment où la définition des CCD a été meilleure que quelques millions de pixels, compte tenu des avantages du numérique sur l'argentique – possibilités de trafiquer les photos ou simplement de les traiter soi-même, sans recours à l'extérieur – on a vu se développer l'industrie des appareils de photo numérique au détriment des appareils argentiques.

Il a été signalé plus haut deux domaines devenus grand public : les ordinateurs personnels et les téléphones mobiles, dont les quantités produites sont énormes. À telle enseigne que I.B.M., le père de l'ordinateur personnel, a décidé en 2005 de vendre sa division de personal computers au chinois Lenovo.

Cette tendance des constructeurs occidentaux à se délocaliser jusqu'à vendre leurs usines et activités à des industriels chinois (qui prennent – d'une certaine façon – le relais des Sud-Coréens, lesquels dans les années 1990 avaient suivi les traces des Japonais), se rencontre dans plusieurs domaines du grand public. C'est ainsi que Thomson n'avait plus, en 2006, que 40 p. 100 de sa filiale sino-française chargée de fabriquer les téléviseurs en couleurs (numéro un mondial sans doute), et que plusieurs industriels sous-traitent la fabrication de leurs téléphones mobiles.

9.   Les composants

Les composants étaient initialement des constituants élémentaires que l'on assemblait pour réaliser des fonctions. On a déjà dit que l'évolution de la technique et particulièrement des circuits intégrés avait étendu cette définition à des éléments d'assez petite dimension assurant des fonctions plus ou moins complètes, voire très complexes (microprocesseurs). On a coutume de classer les composants en trois catégories : les tubes à vide, les composants passifs et les semiconducteurs.

Les tubes à vide – auxquels on ajoute parfois certains composants « à l'état solide » à base de semiconducteurs qui assurent aujourd'hui des fonctions effectuées autrefois par des tubes à vide – comportent essentiellement :

– les triodes et tétrodes, utilisées surtout dans les émetteurs lorsqu'on a besoin d'émettre (radiodiffusion, certains accélérateurs de particules) des puissances élevées à faible fréquence (exemple : tétrodes, en ondes longues et courtes, émettant des puissances de l'ordre d'un mégawatt de façon continue) ;

– les diodes et « éclateurs », qui servent d'interrupteurs ultrarapides ;

– les tubes micro-ondes (magnétrons, tubes amplificateurs à champs croisés, tubes à ondes progressives, klystrons), capables d'émettre des puissances élevées en ondes décimétriques et centimétriques (les klystrons sont encore utilisés dans des radars puissants, et ils sont indispensables dans les synchrotrons et autres accélérateurs de particules) ;

– les tubes de prises de vue pour caméra vidéo (vidicons, orthicons, etc.), pour « caméra » à rayons X ;

– leurs homologues à l'état solide [barrettes et « rétines » en silicium à « transfert de charges » pour la détection en lumière visible (photo numérique) et dans le proche infrarouge, en mercure-tellure-cadmium, ou en antimoniure d'indium, en composés III-V à puits quantiques, etc., pour la détection dans l'infrarouge] ;

– les tubes à rayons cathodiques pour oscilloscopes d'instrumentation, pour oscilloscopes radar, et, bien sûr, pour téléviseurs domestiques, et les dispositifs de fonctions analogues à cristaux liquides (LCD, OLED) de toutes dimensions ;

– les dispositifs d'imagerie à plasma et à électroluminescence.

Les composants passifs proprement dits, auxquels on ajoutera les dispositifs électro-acoustiques, comportent essentiellement :

– les résistances, de moins en moins utilisées seules ;

– les condensateurs, parmi lesquels il convient de citer à part les condensateurs d'énergie capables d'emmagasiner des énergies importantes (alors que longtemps on n'a pu guère dépasser un stockage de plus de quelques dizaines de joules par litre, on peut maintenant atteindre quelques centaines de joules par litre) et de les restituer en des temps très brefs (de l'ordre de la microseconde ou moins) ;

– les « supercondensateurs », qui ont des capacités très élevées (de l'ordre du farad) et qui sont intermédiaires entre le condensateur et la batterie ;

– les connecteurs, capables de relier des faisceaux de fils électriques ou de fibres optiques ;

– les dispositifs électro-acoustiques utilisés soit pour fournir des références de fréquence (très stables) soit pour faire du traitement du signal (dispositifs « à onde de surface », en anglais S.A.W., pour surface acoustic waves, encore utilisés) ;

– les dispositifs utilisant du matériau magnétique (tel que des ferrites), pour les déviateurs des tubes cathodiques, ou pour les équipements en micro-ondes.

Même si l'on utilise des rétines d'éléments semiconducteurs dans les dispositifs de prise de vue déjà évoqués, on ne regroupe le plus souvent sous le terme d'industrie des semiconducteurs que ce qui touche aux diodes, transistors et circuits intégrés en silicium d'une part, et ce qui touche aux mêmes éléments en composés III-V d'autre part.

L'industrie du silicium comporte, d'une part, l'industrie des éléments « discrets », diodes, thyristors et transistors, utilisés soit pour fournir de la puissance en basse fréquence et en micro-ondes (on peut obtenir 1 kilowatt moyen en ondes assez longues avec « un » transistor, en fait une association de nombreux transistors en parallèle sur la même puce) soit dans la commande de moteurs électriques puissants (« électronique de puissance ») ou à la réception (par exemple diodes de détection ou de mélange) et, d'autre part, l'industrie des circuits intégrés.

Les circuits intégrés se répartissent en circuits linéaires (tels que ceux qui sont utilisés pour faire du codage analogique-numérique) et en circuits numériques, utilisés en traitement du signal en aval des précédents et, bien sûr, dans tous les dispositifs de calcul.

Sur le plan technologique, il existe deux grandes familles de circuits intégrés : les circuits à base de transistors bipolaires et les circuits à base de transistors M.O.S. (metal oxide semiconductor), les plus répandus. L'évolution de la technologie permet de faire des dessins de circuits de plus en plus fins (et de les fabriquer avec un pourcentage suffisant de succès, grâce à l'utilisation de précautions plus importantes dans des salles de plus en plus dépoussiérées), et de ce fait d'obtenir des vitesses de fonctionnement de plus en plus grandes ainsi qu'un nombre de transistors par pastille (par puce, en anglais chip) en augmentation constante. L'état de l'art au début des années 1990 permettait de réaliser industriellement des dessins où les détails les plus petits étaient de un micromètre et, au stade du laboratoire, de 0,5 micromètre (ces mêmes dimensions étaient respectivement de 6 et de 3 micromètres à la fin des années 1970). En 2005, elles étaient divisées par dix.

Certains circuits spéciaux sont destinés à fonctionner en dépit de rayonnements (cosmiques ou provenant d'explosions nucléaires) : ils sont réalisés sur des supports (« substrats ») différents dits S.O.I. (silicon on insulator, silicium sur isolant).

La fabrication de circuits intégrésComposants électroniques repose sur une série d'opérations successives (de dix à vingt : photographie, dite photogravure, qui peut utiliser des faisceaux d'électrons plutôt que des rayons lumineux pour donner des dessins plus fins ; oxydation du silicium ; implantation d'impuretés en nombre très contrôlé par projection très vigoureuse de ces impuretés sur le substrat, etc.) appelée filière, à partir de dessins réalisés par des « concepteurs » grâce à l'aide d'outils informatiques (conception assistée par ordinateur, ou C.A.O.). La C.A.O. utilise des simulateurs pour le calcul des résultats probables, aide à définir les séquences de test qui permettront de vérifier (suffisamment) que le circuit final est bon. Elle utilise des ordinateurs qui ont besoin d'être de plus en plus puissants à mesure qu'il y a plus de fonctions différentes sur la même pastille, et des programmes qui ont besoin d'être de mieux en mieux structurés.

Composants électroniques Photographie

Composants électroniques Assemblage de composants électroniques. 

Crédits: (A. Mo&mdash ; Taxi/ Getty Consulter

Les utilisateurs cherchent souvent à réaliser eux-mêmes des circuits intégrés adaptés à leurs besoins spécifiques en faisant leur propre conception en association avec un « fondeur » qui, disposant de « filières » bien au point, peut à la fois fournir les données de base nécessaires à la C.A.O. (outils de compilation) et ensuite effectuer physiquement sur le silicium les opérations délicates de physicochimie nécessaires pour obtenir le circuit intégré final.

Les composés III-V sont variés, mais les premiers à avoir vu le jour industriellement sont les composés à base d'arséniure de gallium (certains sont d'ailleurs fabriqués sur un substrat de silicium). Quoique ne bénéficiant pas de l'avantage considérable que connaît le silicium d'avoir un oxyde (la silice) extraordinairement stable et protecteur, les composés III-V possèdent des propriétés intéressantes :

– ils permettent de faire des lasers (de très petite dimension) fournissant des sources intenses de lumière pure ;

– ils permettent de réaliser des circuits intégrés fournissant des fonctions complètes micro-ondes (circuits dits M.M.I.C. – monolithic microwave integrated circuits) ;

– ils permettent de faire des organisations nouvelles à base d'empilements de couches très fines de corps différents (hétéroépitaxies), tels que les H.E.M.T. (high electron mobility transistor) ;

– ils sont enfin plus rapides intrinsèquement que leurs homologues au silicium.

En revanche, toutes choses égales par ailleurs, ils sont plus coûteux que leurs homologues au silicium quand ceux-ci existent.

Dans le domaine des semiconducteurs au silicium, Intel (l'inventeur) détient la position numéro un. Entre 1985 et 2006, les industriels généralistes européens tels que le français Thomson et l'italien Selenia, puis l'allemand Siemens, puis le néerlandais Philips, ont progressivement préféré donner l'autonomie à leur division (ou filiale) du domaine. Leurs héritiers, Infinéon (ex-Siemens), S.T.-Microelectronics (Selenia/Thomson), ont une bonne position au classement mondial, mais assez loin derrière Intel.

10.   Éléments d'une perspective

L'évolution de l'électronique depuis la fin des années 1950 s'est dessinée au travers de ce qui précède. La caractéristique essentielle de cette évolution réside dans le rôle de la technologie.

En schématisant, on peut dire que l'informatique serait restée une petite industrie si le transistor planar n'avait pas été inventé, même s'il est vrai que l'essentiel des machines informatiques utilisent le vieux schéma de von Neumann. À l'autre extrémité, les téléphones mobiles n'ont existé que grâce aux progrès de la technologie.

En schématisant toujours, on peut dire que l'important aujourd'hui n'est plus tant, comme dans les années 1950, d'inventer de nouveaux concepts, mais de trouver les moyens pratiques d'utiliser de vieux concepts pour réaliser des équipements plus performants, ou des équipements moins coûteux.

Qu'est-ce que la « technologie » en électronique ? Ce sont de nouveaux matériaux, de nouveaux traitements de ces matériaux, tels que la microlithographie, la conception assistée par ordinateur et des tests.

Les nouveaux matériaux sont les nanotubes de carbone, les matériaux composites, le nitrure d'aluminium (AlN), des matériaux organiques, le SiGe, le carbure de silicium (SiC), le séléniure de cadmium (CdSe), etc. On envisage même de remplacer, à terme, le transistor par une seule molécule (chimique ou biologique) fonctionnant comme un interrupteur de courant électrique : par exemple un composé de benzènethiol (lorsqu'on lui applique une tension électrique, la molécule capte un électron, se modifie et laisse passer un électron).

En ce qui concerne les nouveaux traitements de ces matériaux, l'implantation (injection en force d'impuretés dans un substrat semiconducteur) et l'épitaxie par jet moléculaire (vaporisation de produits dans l'ultravide de façon contrôlée) permettent la réalisation de couches superposées d'épaisseur contrôlée de matériaux cristallisés différents, pour réaliser des cristaux artificiels ; l'utilisation de l'apesanteur, de réactions nucléaires, etc., a ouvert la voie à de nouveaux produits, de nouvelles structures de composants, donc à des équipements de performances inédites.

La microlithographie, qui permet de graver les dessins très fins des circuits intégrés très denses, après s'être contentée de lumière visible, utilise des longueurs d'onde de plus en plus courtes et de façon plus astucieuse : elle a déjà utilisé de la gravure à faisceau d'électrons, et devra peut-être un jour accueillir la gravure par faisceau d'ions, voire par rayons X pour atteindre des finesses accrues.

La conception assistée par ordinateur permettra de réaliser des circuits intégrés encore plus complexes et devra utiliser des machines informatiques de plus en plus puissantes, avec des programmes de plus en plus sophistiqués.

Mais il est à craindre que les outils nécessaires demain en technologie ne soient encore beaucoup plus chers que ceux d'aujourd'hui, à la fois en coût d'achat ou de production des outils eux-mêmes et en coût de formation du personnel qui les utilisera. Il a été fait mention au chapitre 2 de ce que, en semiconducteurs, les dépenses d'investissements semblaient doubler d'une génération à la suivante (tous les trois ans !).

Il s'agit là, avec les coûts énormes des outils de développement des logiciels, de l'une des raisons qui inciteront à des accords de coopération internationale pour réduire les dépenses fixes.

Michel-Henri CARPENTIER

Retour en haut

Offre essai 7 jours

Pour citer cet article

Michel-Henri CARPENTIER, « ÉLECTRONIQUE INDUSTRIE  », Encyclopædia Universalis [en ligne], consulté le  . URL : http://www.universalis.fr/encyclopedie/industrie-electronique/

Autres références

« ÉLECTRONIQUE INDUSTRIE » est également traité dans :

ASIE (Géographie humaine et régionale) - Espaces et sociétés

Écrit par :  Philippe PELLETIER

Dans le chapitre "Les trois ensembles géoéconomiques de l'Asie"  : …  d'exportations et de délocalisations. Les pays d'Asie orientale se sont spécialisés dans la* fabrication électronique : téléviseurs (62,6 p. 100 de la production mondiale en 2005), lecteurs de DVD (90 p. 100), téléphones mobiles (58 p. 100), ordinateurs domestiques (90 p. 100), appareils photos numériques (100 p. 100). La Chine est devenue… Lire la suite
CHINE - Économie

Écrit par :  Françoise LEMOINE

Dans le chapitre "L'industrie tire la croissance et se modernise "  : …  ans, et qui est à 80 p. 100 issue des secteurs manufacturiers. Les industries électriques et surtout* électroniques ont connu un essor spectaculaire, propulsé par des investissements étrangers, et par la forte demande extérieure et intérieure pour ces nouveaux produits dans les années 2000. Ce secteur a presque rattrapé, en poids, l'industrie… Lire la suite
CIRCUITS INTÉGRÉS

Écrit par :  Frédéric PÉTROTFranck WAJSBÜRT

Dans le chapitre " Aspects économiques de l'intégration"  : …  *Le marché des semi-conducteurs, bien que fortement instable, croît en moyenne de 14 p. 100 par an depuis 1960. C'est un marché très compétitif et à hauts risques. En effet, en plus de la croissance exponentielle du coût des équipements de gravure proprement dits, il faut investir entre 3 et 5 milliards de dollars par unité de production pour les… Lire la suite
CIRCUITS INTÉGRÉS - (repères chronologiques)

Écrit par :  Pierre MOUNIER-KUHN

… * Mise au point du transistor par trois chercheurs américains des Bell Telephone Laboratories – John Bardeen, William B. Shockley et Walter H. Brattain –, qui recevront, pour cette invention, le prix Nobel de physique en 1956. Un transistor est un cristal de semiconducteur (germanium, silicium, etc.) sur lequel sont fixés trois contacts électriques… Lire la suite
COMMERCE INTERNATIONAL - Théories

Écrit par :  Lionel FONTAGNÉ

Dans le chapitre "La nouvelle nature du commerce international"  : …  échanges portent sur des produits intermédiaires, « réintroduits » dans le processus de production. *L'exemple type est la fabrication d'un micro-ordinateur organisée en stades productifs successifs dissociés dans l'espace (conception, fabrication des composants, assemblage). On observe une division internationale des processus productifs souvent… Lire la suite
COMMERCE INTERNATIONAL - Division internationale du travail

Écrit par :  Lionel FONTAGNÉ

Dans le chapitre "De nouveaux acteurs"  : …  l'insertion dans la D.I.T. des pays émergents se traduit d'abord par une forte progression dans les* industries d'assemblage : électronique grand public et informatique, confection et bonneterie, automobile. L'automobile, plus capitalistique que les branches précédentes, était encore en déficit structurel il y a dix ans, elle est maintenant en… Lire la suite
COMMERCIALISATION DES PREMIERS ORDINATEURS

Écrit par :  Pierre MOUNIER-KUHN

  *En Grande-Bretagne, une grande machine développée à l'université de Manchester, M.A.D.M. (Manchester Automatic Digital Machine), sert de prototype au Mark-1, ordinateur mis au point par la firme Ferranti et commercialisé dès 1951. En même temps, aux États-Unis, John P. Eckert et John W. Mauchly, qui avaient achevé la… Lire la suite
CORÉE DU SUD

Écrit par :  Valérie GELÉZEAUJin-Mieung LI Universalis

Dans le chapitre "Un espace industriel né de l'aménagement volontariste du territoire"  : …  de l'industrie lourde (acier, chantiers navals), mais aussi dans des secteurs de pointe comme *l'électronique – le chaebŏl Samsung est le 2e producteur mondial de semi-conducteurs. L'espace industriel sud-coréen s'organise à petite échelle autour de deux grandes régions principales (la région de Séoul et la… Lire la suite
ÉCONOMIE MONDIALE - 1990 : de l'euphorie à la crainte

Écrit par :  Régis PARANQUE

Dans le chapitre "Le risque d'un Pearl Harbour industriel"  : …  confirmait par là que la véritable guerre que se livrent Américains et Japonais dans le domaine de *l'électronique devait se jouer sur le continent européen. Jusqu'à la fin des années 1980, les Japonais avançaient cachés (par le biais d'accords de technologie et de la vente de gros ordinateurs). Ils ne craignent plus à présent de s'affirmer à… Lire la suite
ÉCONOMIE MONDIALE - 2001 : état de choc

Écrit par :  Jacques ADDA

Dans le chapitre "...tandis que l'Asie replongeait dans la crise"  : …  *Devenue, au fil des années, l'atelier industriel de la nouvelle économie américaine, l'Asie émergente a subi de plein fouet le retournement du cycle de l'électronique mondiale à partir de la mi-2000. Avec la Chine et le Japon, cette région fournit à elle seule près de 40  p. 100 de la production électronique mondiale et abrite par conséquent une… Lire la suite
ÉCONOMIE MONDIALE - 2003 : une économie mondiale dans la tourmente

Écrit par :  Nicolas SAGNES

Dans le chapitre "Les pays émergents ont fortement pâti du SRAS en début d'année"  : …  tourisme. Dans beaucoup de pays de la zone, l'activité s'est contractée au printemps. Par ailleurs,* le maintien de la forte demande américaine en ordinateurs n'a pas stimulé autant que l'année précédente les ventes d'ordinateurs des entreprises asiatiques : de ce fait, la reprise du cycle électronique est apparue plus tardivement dans les pays… Lire la suite
ÉTATS-UNIS D'AMÉRIQUE (Le territoire et les hommes) - Géographie

Écrit par :  Jacqueline BEAUJEU-GARNIERCatherine LEFORTLaurent VERMEERSCH

Dans le chapitre "Une géographie industrielle en recomposition"  : …  de Seattle à San Diego en passant par la Silicon Valley, à proximité de San Francisco. *Troisième facteur d'évolution, l'apparition de nouvelles productions (électronique, informatique) et donc de nouveaux modèles industriels : désormais, ce n'est plus la proximité des matières premières ou des bassins de main-d'œuvre nombreuse qui… Lire la suite
FINLANDE

Écrit par :  Régis BOYERMaurice CARREZLucien MUSSETYvette VEYRET-MEKDJIAN

Dans le chapitre "Entre tradition et innovations"  : …  de montage automobile travaillant pour Saab, Opel et Lada. Une autre branche importante est celle de* l'électrotechnique et de l'électronique. On connaît dans le monde entier le groupe Kone, troisième constructeur mondial d'ascenseurs, l'ex-groupe Strömberg de machines électriques ou bien la marque Nokia, groupe aux racines séculaires qui a d'abord… Lire la suite
FRANCE (Le territoire et les hommes) - Données humaines et économiques

Écrit par :  Estelle DUCOMSophie LIGNON-DARMAILLAC

Dans le chapitre "Une croissance soutenue qui s'essouffle"  : …  dominé par le groupe L.V.M.H. (Louis Vuitton-Moët-Hennessy), repreneur de l'empire Boussac. Les* industries de l'informatique, de l'électronique, des technologies et de la communications (T.I.C.) se différencient de ces secteurs traditionnels à la fois par leur développement plus récent et leurs localisations souvent plus méridionales. Les T.I.… Lire la suite
HORLOGERIE

Écrit par :  Claude ATTINGERAndré BEYNER

Dans le chapitre "Horloges et montres électroniques"  : …  L'électricité d'abord, l'*électronique ensuite ont joué, dès leur apparition, un rôle déterminant dans la mesure du temps : en chronométrie de haute précision comme en horlogerie courante. L'électronique, en particulier, a permis d'accéder aux fréquences très élevées et très stables liées aux transitions des niveaux d'énergie d'atomes et de… Lire la suite
INVENTION DE LA CARTE À PUCE

Écrit par :  Pierre MOUNIER-KUHN

… transports publics et parcmètres urbains, radiotéléphonie G.S.M., porte-monnaie électronique, etc. *Elle a suscité le développement d'une nouvelle industrie : Innovatron, Gemplus, Bull-CP8, divisions ou filiales spécialisées de Schlumberger, Sligos et plus de 200 licenciés dans le monde, où trois milliards de cartes à puce étaient utilisées au… Lire la suite
JAPON (Le territoire et les hommes) - L'économie

Écrit par :  Evelyne DOURILLE-FEER

Dans le chapitre "L'atonie de la demande"  : …  effectuée à l'étranger bondit de 3 p. 100 en 1985 à 6 p. 100 en 1991, puis à 14,3 p. 100 en 2001. *Des secteurs, longtemps fers de lance des exportations, comme l'électronique grand public ou l'automobile, sont délocalisés massivement (72 p. 100 de la production de téléviseurs couleurs est effectuée à l'étranger en 1993 et 31 p. 100 de celle des… Lire la suite
KIHARA NOBUTOSHI (1926-2011)

Écrit par :  Karen SPARKS

… Ingénieur *japonais ayant fait toute sa carrière chez Sony Corporation (appelée de 1946 à 1958 Tōkyō Tsushin Kogyo K.K. [Corporation d'ingénierie en télécommunications de Tōkyō]), Nobutoshi Kihara a contribué aux principales innovations de cette société en matière de miniaturisation. Il a déposé quelque sept cents brevets d'invention. Nobutoshi… Lire la suite
LIPMANN FRED (1905-1996)

Écrit par :  Philippe DENOIX

…  prend les rênes de Lip, installant à Besançon la première chaîne de montage de montres en France. *Sa mise au point, en 1952, d'Electronic, la montre qu'on ne remonte plus, est alors jugée par le président de l'Académie des sciences comme la plus grande découverte en horlogerie depuis « l'invention de l'échappement à ancre au xviiieLire la suite
MALAISIE

Écrit par :  Philippe DEVILLERSNathalie FAUDenys LOMBARD Universalis

Dans le chapitre "Une industrialisation rapide reposant sur l'insertion dans la division internationale du travail"  : …  industrielles, essentiellement ouvertes sur la côte ouest de la péninsule et spécialisées dans *le secteur de l'électronique. Le pays est ainsi désormais parmi les premiers exportateurs mondiaux de semi-conducteurs. Face à la concurrence de plus en plus vive de ses voisins immédiats et de la Chine et de l'Inde, le gouvernement promeut depuis… Lire la suite
MÉMOIRES NUMÉRIQUES

Écrit par :  François PÊCHEUX

Dans le chapitre "Histoire des mémoires"  : …  ou les tores de ferrite ont disparu, remplacés par des dispositifs beaucoup plus efficaces. D'un *point de vue économique, les mémoires numériques représentent environ 30 p. 100 du marché mondial des semi-conducteurs : un composant électronique vendu sur trois est une mémoire. Il n'est donc pas étonnant que les mémoires soient un indicateur… Lire la suite
MICRAL N

Écrit par :  Pierre MOUNIER-KUHN

  *Dans une jeune entreprise de la banlieue parisienne, la société R2E (Réalisations Études électroniques), dirigée par André Truong, le Français François Gernelle construit, autour du microprocesseur Intel 8008, un petit ordinateur, en réponse à un appel d'offres de l'Institut national de la recherche agronomique. Deux… Lire la suite
MICROÉLECTRONIQUE

Écrit par :  Claude WEISBUCH

…  de nouveaux appareils par an et l'accès à Internet est possible sur pratiquement toute la planète. *Déjà première industrie mondiale en volume d'activité devant l'automobile depuis 1990, l'électronique connaît une croissance de 10 p. 100 par an depuis le début du xxie siècle, alors que les autres industries (à l'exception des… Lire la suite
MICRO-INFORMATIQUE - (repères chronologiques)

Écrit par :  Pierre MOUNIER-KUHN

… * I.B.M. (International Business Machines Corporation) met au point le système SABREC Semi-Automatic Business Research Environment) de réservation des places d'avion, première application transactionnelle commerciale, d'un type aujourd'hui généralisé sur tous les ordinateurs. Au Stanford Research Institute, l'Américain Douglas C. Engelbart fonde un… Lire la suite
MILITAIRE INDUSTRIE

Écrit par :  Pascal LE PAUTREMAT

Dans le chapitre " Nouvelles technologies et nouvelles perspectives"  : …  focalisé sur les impératifs militaires avant d'être partiellement ouvert au milieu civil. L'*électronique est largement majoritaire dans la composition des systèmes d'armes, en particulier dans les secteurs de l'aéronautique, via les avions de combat et les divers missiles, et de l'espace, avec les satellites et les lanceurs. Au point même… Lire la suite
MOORE GORDON EARLE (1929- )

Écrit par :  René WALLSTEIN

… *Cofondateur et premier dirigeant du groupe Intel, première compagnie mondiale de fabrication de microprocesseurs, Gordon Earle Moore est connu pour avoir prédit en 1965 que le nombre de transistors intégrés sur une même pastille de silicium doublerait environ tous les deux ans, attachant ainsi son nom à une « loi » qui s'est depuis vérifiée avec… Lire la suite
MOORE LOI DE

Écrit par :  Christophe LÉCUYER

…  circuits intégrés, qui a été formulé par Gordon Earle Moore, chimiste et entrepreneur américain. *Moore est aussi connu pour avoir cofondé deux sociétés de semi-conducteurs dans la Silicon Valley : Fairchild Semiconductor et Intel (aujourd’hui le grand fabricant de microprocesseurs). Les conjectures de Moore ont guidé le développement de la… Lire la suite
MORITA AKIO (1921-1999)

Écrit par :  Serge AIRAUDI

… *Morita incarne le mythe fondateur de Sony et le rêve d'une nouvelle génération de consommateurs dans le monde. Les rôles joués par Akio Morita et par Sony dans l'industrie électronique et culturelle (musique, cinéma) peuvent être rapprochés de ceux de Bill Gates et de Microsoft dans l'industrie du software. Né le 26 janvier 1921 à Nagoya, Akio… Lire la suite
OHGA NORIO (1930-2011)

Écrit par :  Barbara A. SCHREIBER

… Homme *d'affaires japonais, Norio Ohga a joué un rôle clé dans le développement du disque compact, commercialisé en 1982, et a propulsé la société Sony Corporation parmi les premiers fabricants mondiaux de produits électroniques. Norio Ohga naît le 29 janvier 1930 à Numazu, au Japon. Après des études musicales, il entre en 1948 à l'Université… Lire la suite
ORGUE ÉLECTRONIQUE

Écrit par :  André-Pierre BOESWILLWALD

… *Si la plupart des inventions fondées sur divers principes électromécaniques appliqués à des instruments traditionnels sont restées sans lendemain, il faut faire une exception pour celles qui concernent l'orgue à tuyaux. Cet instrument, cher et difficile à construire, était certainement le plus prédestiné à être électrifié, puis à utiliser toutes… Lire la suite
PACKARD DAVID (1912-1996)

Écrit par :  Nicolas STIEL

…  1934, David Packard commence à travailler chez General Electric, à Schenectady (État de New York). *Cinq ans plus tard, Bill Hewlett lui propose de créer une entreprise. Ce dernier a développé un générateur de signaux électriques et cherche à le commercialiser. Les deux compères décident de s'associer et tirent au sort pour savoir lequel de leurs… Lire la suite
PHOTOVOLTAÏQUE

Écrit par :  Jean-Claude MULLER

Dans le chapitre "Élaboration du matériau"  : …  de la croûte terrestre sous forme de silice (sable, quartz, etc.), et il est à la base de toute *l'industrie électronique moderne, puisque diodes, transistors, circuits intégrés en font un large usage sous forme de plaquettes découpées dans des monocristaux de qualité électronique, c'est-à-dire dans lesquels la concentration en impuretés est… Lire la suite
PLATINE ET PLATINOÏDES

Écrit par :  Jean-Paul GUERLETRoger LACROIX UniversalisJean-Louis VIGNES

Dans le chapitre "Applications"  : …  tout particulièrement en ce qui concerne les alliances de mariage. Dans le domaine électrique *et électronique, parmi les usages du platine et de ses alliages, il convient de citer les thermomètres à résistance et les thermocouples, qui permettent de mesurer des températures extrêmes du verre, de l’acier et des semi-conducteurs comme les… Lire la suite
PREMIERS BREVETS DE CIRCUITS INTÉGRÉS

Écrit par :  Pierre MOUNIER-KUHN

  *À partir du milieu des années 1950, les semiconducteurs (diodes et transistors) sont venus progressivement remplacer les tubes électroniques. De plus faible dimension, ils sont très supérieurs en termes de rendement énergétique, de longévité, de fiabilité (problème crucial dans un ordinateur) et aussi de potentiel… Lire la suite
RHÔNE-ALPES

Écrit par :  Franck SCHERRER

Dans le chapitre " La révolution industrielle, creuset de l'identité régionale"  : …  poids lourds à Lyon, bus à Annonay) est devenue une quasi-exclusivité rhônalpine (Renault Trucks). *L'histoire des composants et équipements électriques et électroniques est inséparable de celle de la success story grenobloise. La première étape fut celle des développements induits par l'hydroélectricité dans les années 1920,… Lire la suite
ROYAUME-UNI - Géographie

Écrit par :  Jacqueline BEAUJEU-GARNIERCatherine LEFORTFrédéric RICHARD

Dans le chapitre "Les mutations de l'outil industriel"  : …  central et collectivités locales) et d'acteurs parapublics tels que les universités. En 2003, *le secteur des matériels électriques, électroniques, informatiques et de précision intervenait à hauteur de 11 p. 100 dans la valeur de la production industrielle totale. Certaines zones de concentration de ces productions de pointe, structurées… Lire la suite
SAN FRANCISCO

Écrit par :  Cynthia GHORRA-GOBIN Universalis

Dans le chapitre "Un passé dynamique"  : …  peut être qualifiée de metropolitan-military complex. *Après l'industrie aéronautique, les industries électroniques ont représenté le noyau dur du secteur de la défense, qui s'est principalement localisé dans la Silicon Valley. Berceau de la contre-culture dans les années 1960, San Francisco fut la… Lire la suite
SERVICES ÉCONOMIE DE

Écrit par :  Jean-Charles ASSELAIN

Dans le chapitre "Les services au cœur de l'innovation. La société informationnelle : une nouvelle économie ?"  : …   Week, dans un article vedette de décembre 1996, annonce « l'émergence d'une nouvelle économie *fondée sur les marchés globaux et la révolution électronique ». En 1999, les plus hautes autorités américaines, de Bill Clinton au président de la Fed, Alan Greenspan, n'hésitent pas à évoquer le début d'un âge d'or fondé sur les N.T.I.C. La même… Lire la suite
SILICIUM

Écrit par :  Jacques DUNOGUÈSMichel POUCHARD

Dans le chapitre "Le corps simple silicium"  : …  (ppb) et d'une quasi-perfection cristalline pour les besoins automatisés et de grande fiabilité de* l'industrie électronique (diodes, transistors, circuits intégrés, microprocesseurs, etc.) dont le degré d'intégration (nombre de composants par unité de surface) a crû très rapidement au cours des vingt dernières années (de l'ordre de 106Lire la suite
SYSTÈMES D'EXPLOITATION - (repères chronologiques)

Écrit par :  Pierre MOUNIER-KUHN

… et du langage Basic (Beginner's all-purpose symbolic instruction code) qui les accompagne. * L'OS/360, système d'exploitation (operating system) de la nouvelle gamme 360 d'I.B.M. (International Business Machines Corporation), nécessaire au fonctionnement et à la compatibilité des six ordinateurs qui composent cette gamme, se révèle… Lire la suite
TAÏWAN [T'AI-WAN] (FORMOSE)

Écrit par :  Philippe CHEVALÉRIASÉvelyne COHENJean DELVERTFrançois GODEMENTFrank MUYARDAngel PINOPierre SIGWALTCharles TESSON Universalis

Dans le chapitre "Une croissance tirée par les exportations"  : …  qui profitent d'une main-d'œuvre abondante, peu onéreuse et possédant un bon niveau d'instruction. *L'industrie électronique démarre : radios, téléviseurs dans les années 1960, calculatrices, téléphones dans les années 1970. L'État favorise l'innovation avec la création de l'Institut de recherche sur la technologie industrielle en 1973. Les… Lire la suite
TRAITEMENT AUTOMATIQUE DES LANGUES

Écrit par :  Anne ABEILLÉ

Dans le chapitre "Les principaux types d'applications"  : …  *Toutes les activités mettant en jeu de la parole ou du texte peuvent donner lieu à des produits ou services de type T.A.L. Le T.A.L. permet soit le développement de produits ou de services entièrement nouveaux tels que le téléphone traducteur ou les clés vocales (dispositif d'accès qui s'ouvre en reconnaissant la voix des locuteurs autorisés), soit… Lire la suite
WATSON-WATT sir ROBERT ALEXANDER (1892-1973)

Écrit par :  Pierre GOUJON

… *Physicien écossais, spécialiste de la radio-électricité. Après des études à l'université de Dundee et à l'université St. Andrews, Watson-Watt entreprend une carrière de météorologue, puis il occupe de 1915 à 1952 différents postes dans l'administration britannique : services météorologiques, département de la recherche scientifique et industrielle… Lire la suite
ZWORYKIN VLADIMIR KOSMA (1889-1982)

Écrit par :  Pierre GOUJON

… *Ingénieur américain, d'origine russe, spécialiste de la radio-électricité. Dès 1910, à l'Institut de technologie de Saint-Pétersbourg, Vladimir Kosma Zworykin étudie, sous la direction de B. Rosing, une méthode de télévision électronique. Après un court séjour en France, au cours duquel il fréquente le Collège de France, il se fixe définitivement… Lire la suite

Afficher la liste complète (44 références)

Retour en haut

Thématique

Classification thématique de cet article :

Retour en haut

Bibliographie

E. Antebi, The Electronic Epoch, Van Nostrand Reinhold Company, New York, 1982

M. H. Carpentier, « Où s'arrêtera l'évolution des circuits intégrés ? », in Revue de l'électricité et de l'électronique, mai 2002

Le Radar, coll. Que sais-je ?, P.U.F., 2e éd., 1992

M. Chauvière, « Qui a inventé la télévision », in La Liaison des transmissions, nos 127 et 128, 1977

Électronique, Innovation 128, Paris, 1992

L'Électronique dans le monde, E.I.C. (Electronics International Corporation), New York, 1987

O. Marteil, Les Industries électroniques européennes, G.E.R.D.I.C., Rennes, 1988

The Microwave Engeneering Handbook, B. L. Smith & M.-H. Carpentier éd., Chapmann & Hall, Londres-Glasgow-New York, 3 vol., 1993.

Retour en haut

Voir aussi

ALBERT WALLACE HULL    ALLUMAGE mécanique    APPAREILS PHOTOGRAPHIQUES NUMÉRIQUES    ARSÉNIURE DE GALLIUM    ARSÉNIURES    AVIONIQUE    AVIONS    C.C.D.    CALCULATEURS NUMÉRIQUES    COMPOSANTS ÉLECTRONIQUES    CONCENTRATION ÉCONOMIQUE    CONCEPTION ASSISTÉE PAR ORDINATEUR    CONDENSATEUR électricité    CONTRÔLE DU TRAFIC    DIODE    DISQUE COMPACT    DSP ou PROCESSEUR DE TRAITEMENT DU SIGNAL NUMÉRIQUE    DVD    DÉTECTION acoustique    DÉTECTION radioélectricité    ENIAC    FAISCEAUX HERTZIENS    FIBRES OPTIQUES    FOND D'ŒIL    GÉNIE BIOLOGIQUE & MÉDICAL    HISTOIRE DES SCIENCES XIXe s.    HISTOIRE DES SCIENCES XXe s.    HISTOIRE DES TECHNIQUES XIXe s.    HISTOIRE DES TECHNIQUES XXe s.    IMPURETÉS    KLYSTRON    LANGAGE informatique    MAGNÉTOSCOPE    MAGNÉTRON    MICRO-ORDINATEUR    MICROPROCESSEUR    NUMÉRISATION    ONDE ou RAYONNEMENT ÉLECTROMAGNÉTIQUE    ONDES RADIOÉLECTRIQUES ou ONDES HERTZIENNES    PACEMAKERS    PC    PHOTOGRAPHIE NUMÉRIQUE    PHOTOGRAVURE    PUCE électronique    PUISSANCE DE CALCUL informatique    R.M.N. ou I.R.M.    RADIODIFFUSION    RADIOLOGIE    RADIOTÉLÉPHONIE    RÉSEAU télécommunications    SCANNER médecine    SIGNAL NUMÉRIQUE    SYSTÈME CASELLI    TRAITEMENT DU SIGNAL    TRANSISTORS & THYRISTORS    TRIODE    TUBE CATHODIQUE    TUBE À CHAMPS CROISÉS    TUBE À ONDES PROGRESSIVES    TUBE À VIDE    TUBES ÉLECTRONIQUES    TÉLÉPHONE MOBILE    TÉTRODE    VIDÉODISQUE    WEB ou WORLD WIDE WEB    ÉCRAN DE VISUALISATION    ÉLECTRON    ÉLECTRONIQUE science et technique    ÉQUIPEMENTS MILITAIRES

Retour en haut

Accueil - Contact - Mentions légales
Consulter les articles d'Encyclopædia Universalis : 0-9 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
Consulter le dictionnaire de l'Encyclopædia Universalis
© 2015, Encyclopædia Universalis France. Tous droits de propriété industrielle et intellectuelle réservés.