INFORMATIQUEHistoire

Carte mentale

Élargissez votre recherche dans Universalis

Un usage bien établi associe le mot « informatique » à l'ensemble des opérations de traitement de l'information effectuées à l'aide de machines électroniques perfectionnées conçues par essence pour aider l'être humain à surmonter au mieux l'opposition classique qui sépare dans ses activités la compétence de la performance. Les premières machines ont eu effectivement pour mission de pallier les insuffisances humaines en matière de performance de calcul : il s'agissait, par exemple, de résoudre des équations différentielles complexes pour la météorologie, de calculer les paramètres permettant la fabrication de la première bombe atomique, de procéder au recensement des citoyens américains en manipulant d'énormes quantités de données en un temps relativement bref. Ce qu'on savait imaginer naturellement (compétence) mais pas vraiment réaliser (performance). Ces machines, qui n'étaient alors que des calculatrices électromécaniques puis électroniques (computers), ont été ensuite détournées de leur but initial et sollicitées pour accroître la performance du couple homme-machine dans le domaine plus vaste des données non numériques. Dès le début des années 1950, le traitement de l'information acquiert droit de cité. Et le calculateur devient data processing machine, littéralement « machine à traiter les données » (qu'on baptisera bientôt « ordinateur » en France), sans aucune restriction sur la nature des données manipulées.

E.N.I.A.C.

Photographie : E.N.I.A.C.

Photographie

Le premier calculateur numérique électronique programmable connu, l'E.N.I.A.C. (Electronic Numerical Integrator and Computer) a été mis au point durant la Seconde Guerre mondiale, à l'université de Pennsylvanie, par les Américains John P. Eckert et John W. Mauchly. Programmer l'E.N.I.A.C.... 

Crédits : AKG

Afficher

L'informatique à la conquête de l'entreprise

À peine sorti des laboratoires de recherche, et immédiatement installé dans les grandes universités, pour la plupart américaines et britanniques (la technologie informatique se développera à ses débuts sans la France), le calculateur électronique est vite dirigé vers les grandes administrations. Cela signifie que, très tôt (dès 1951, avec l'Univac), son champ d'application se dédouble, faisant apparaître deux grandes classes d'activités : scientifiques, d'une part, administratives et commerciales, d'autre part. Les machines sont alors énormes, elles consomment une énergie phénoménale et occupent une salle spéc [...]


1  2  3  4  5
pour nos abonnés,
l’article se compose de 8 pages

Médias de l’article

E.N.I.A.C.

E.N.I.A.C.
Crédits : AKG

photographie

Premier ordinateur personnel d'I.B.M.

Premier ordinateur personnel d'I.B.M.
Crédits : IBM Archives

photographie

Afficher les 2 médias de l'article


Écrit par :

  • : président de l'Institut des hautes études puériles honnêtes et inspirées on-line

Classification

Autres références

«  INFORMATIQUE  » est également traité dans :

INFORMATIQUE - Vue d'ensemble

  • Écrit par 
  • Jean-Paul DELAHAYE
  •  • 1 162 mots

Le mot informatique – contraction de information et automatique – semble avoir été créé en Allemagne par Karl Steinbuch qui utilisa le terme Informatik dans un article publié en 1957 intitulé « Informatik : Automatische Informationsverarbeitung » (Informatique : traitement automatique de l'information). En mars 1962, Philippe Dreyfus, […] Lire la suite

INFORMATIQUE - Principes

  • Écrit par 
  • Jacques HEBENSTREIT
  •  • 3 097 mots
  •  • 2 médias

Le traitement de l'information, au sens large, forme une part importante de l'activité humaine et elle est aussi ancienne que l'homme lui-même. L'analyse de cette activité, qui est l'objet de l'informatique, a conduit à distinguer la manipulation des connaissances, ou syntaxe, du contenu des connaissances, ou […] Lire la suite

INFORMATIQUE - Ordres de grandeur

  • Écrit par 
  • Jean-Paul DELAHAYE
  •  • 2 645 mots
  •  • 2 médias

Dans son énoncé le plus général, la loi de Gordon E. Moore (né en 1929), cofondateur d'Intel en 1968, indique que la capacité de calcul et de stockage d'informations d'un dispositif informatique d'un coût donné double tous les dix-huit mois, ce qui revient à affirmer que cette capacité est multipliée par dix tous les cinq ans. Dans cinq ans, votre ordinateur devrait ainsi disposer d'un disque dur […] Lire la suite

PHYSIQUE - Physique et informatique

  • Écrit par 
  • Claude ROIESNEL
  •  • 6 728 mots

La révolution informatique est de nature technologique. Les physiciens sont associés à toutes les étapes de son développement. Les technologies incorporées dans les premiers ordinateurs avaient été inventées pour les besoins de la recherche en physique nucléaire. Le convertisseur analogue-digital, les systèmes de stockage de l'information ou les premiers […] Lire la suite

AFFICHE

  • Écrit par 
  • Michel WLASSIKOFF
  •  • 6 815 mots
  •  • 12 médias

Dans le chapitre « L'avènement du numérique »  : […] Dans les années 1990, l'affiche est de plus en plus souvent conçue sur écran, la publication assistée par ordinateur (P.A.O.) permettant l'association des textes et des images. La mise au point du langage Postscript conduit à la création de caractères haute résolution et le dessin de lettres connaît un formidable engouement. Autour de la revue Emigre , en Californie, surgit une New typography […] Lire la suite

AIKEN HOWARD HATHAWAY (1900-1973)

  • Écrit par 
  • Bernard PIRE
  •  • 498 mots

Un des pionniers de l'informatique, concepteur de l'I.B.M. Automatic Sequence Controlled Calculator (A.S.C.C.) encore appelé Harvard Mark I. Après avoir suivi les cours d'une école technique tout en travaillant la nuit, Howard Hathaway Aiken, né le 9 mars 1900 à Hoboken (New Jersey), est engagé à la compagnie du gaz de Madison, ce qui lui permet de suivre une formation d'ingénieur électricien à l' […] Lire la suite

APPLE

  • Écrit par 
  • Pierre MOUNIER-KUHN
  •  • 2 539 mots
  •  • 2 médias

Archétype des start-up de la Silicon Valley, la société américaine Apple, fondée en 1976, a gagné fortune et célébrité par ses innovations de rupture, de l’ordinateur Macintosh au téléphone portable iPhone et à la tablette numérique iPad. Associée au talent visionnaire de son président historique, Steve Jobs (1955-2011), elle est devenue une entreprise de taille mondiale, l’une des plus importante […] Lire la suite

ARCHÉOLOGIE (Traitement et interprétation) - La photogrammétrie architecturale

  • Écrit par 
  • Jean-Paul SAINT AUBIN
  •  • 5 210 mots
  •  • 1 média

Dans le chapitre « L'analyse du couple photogrammétrique : la restitution »  : […] Dans l'appareil de restitution, les photographies sont observées en couple, en « stéréoscopie ». Le phénomène physiologique de la stéréoscopie renvoie à la vision naturelle de l'homme qui enregistre, avec ses yeux, deux images que le cerveau fusionne pour lui permettre d'avoir une vision en relief. Artificiellement, deux photographies prises de deux points de vue différents, et observées l'une pa […] Lire la suite

ARCHITECTURE CONTEMPORAINE - Construire aujourd'hui

  • Écrit par 
  • Antoine PICON
  •  • 6 516 mots
  •  • 3 médias

Dans le chapitre « Un outil d'aide à la conception »  : […] Quoique limitée, du moins pour l'instant, la généralisation de l'outil informatique influence l'évolution de l'architecture. Elle tend à promouvoir des formes mouvementées que certains critiques n'hésitent pas à comparer à un nouveau baroque. Sans forcément souscrire à cette analyse, des théoriciens et des praticiens de l'architecture comme l'Américain Greg Lynn se sont fait les hérauts d'une nou […] Lire la suite

ARCHIVAGE NUMÉRIQUE

  • Écrit par 
  • Claude HUC
  •  • 4 763 mots
  •  • 2 médias

Les outils informatiques ne cessent d'évoluer : les ordinateurs changent et leur puissance augmente, les systèmes d'exploitation et les logiciels se renouvellent sans cesse et sont à chaque fois différents, les supports de stockage existants disparaissent au profit de technologies nouvelles. Ainsi, de multiples documents sont incompatibles avec les moyens techniques qui se sont développés postéri […] Lire la suite

Voir aussi

Les derniers événements

États-Unis – Corée du Sud. Condamnation de Samsung pour violation de brevets d'Apple. 20-24 août 2012

Le 20, le groupe informatique américain Apple bat le record de la plus grande capitalisation boursière de l'histoire aux États-Unis, à plus de 623,5 milliards de dollars (502,4 milliards d'euros). Le précédent record était détenu par son concurrent américain Microsoft et datait de 1999. Le 24 […] Lire la suite

Pour citer l’article

Pierre GOUJON, « INFORMATIQUE - Histoire », Encyclopædia Universalis [en ligne], consulté le 24 novembre 2020. URL : https://www.universalis.fr/encyclopedie/informatique-histoire/