De l’Antiquité à Internet : les grandes dates

icône de pdf
Signaler
Dans cette leçon, tu explores les grandes étapes de l’histoire de l’informatique, depuis les algorithmes antiques et les premières machines mécaniques jusqu’à l’avènement des microprocesseurs et d’Internet. Tu comprends comment chaque innovation, de Babbage à Turing puis au Web, a façonné notre monde numérique actuel. Mots-clés : histoire informatique, Babbage, Turing, von Neumann, microprocesseur, Internet.

Introduction

L’informatique que nous connaissons aujourd’hui n’est pas née d’un seul coup : elle est le résultat d’une longue histoire, faite de découvertes mathématiques, d’inventions mécaniques, de percées électroniques et de révolutions numériques. Depuis les premiers algorithmes de l’Antiquité jusqu’à l’émergence d’Internet, chaque étape a contribué à transformer notre rapport à l’information et à la communication. Retracer ces grandes dates permet de comprendre que l’informatique est à la fois une science ancienne et une technologie très récente.

Des origines antiques aux premières machines

Dès l’Antiquité, les mathématiciens ont imaginé des procédures systématiques pour résoudre des problèmes, que l’on peut déjà qualifier d’algorithmes.

  • Vers 300 av. J.-C. : Euclide formalise l’algorithme d’Euclide pour calculer le plus grand commun diviseur.

  • Vers 800 : le mathématicien perse Al-Khwarizmi publie des traités qui donnent leur nom aux « algorithmes ».

Sur le plan matériel, des dispositifs simples comme l’abaque ou l’astrolabe permettent déjà de faciliter les calculs.

À l’époque moderne, on assiste à l’apparition des premières machines à calculer :

  • 1642 : Blaise Pascal invente la Pascaline, une machine mécanique capable d’additionner et de soustraire.

  • 1673 : Gottfried Wilhelm Leibniz conçoit une machine à calculer plus polyvalente, capable de multiplier et de diviser.

À retenir

L’idée d’algorithme est ancienne, mais dès le XVIIᵉ siècle apparaissent les premières machines mécaniques qui automatisent certains calculs.

XIXᵉ siècle : le rêve d’une machine universelle

Le XIXᵉ siècle marque un tournant, avec la volonté de créer des machines capables d’exécuter tout type de calcul.

  • 1801 : Joseph-Marie Jacquard invente le métier à tisser programmable par cartes perforées.

  • 1837 : Charles Babbage imagine la « machine analytique », un projet de calculateur mécanique programmable.

  • 1843 : Ada Lovelace rédige ce que l’on considère comme le premier programme informatique, destiné à la machine de Babbage.

Ces innovations posent les bases conceptuelles de l’ordinateur moderne : séparation entre données et instructions, et idée d’un programme.

À retenir

Au XIXᵉ siècle, Babbage et Lovelace formalisent l’idée d’une machine programmable, annonçant l’ordinateur.

XXᵉ siècle : l’ère de l’électronique et de la théorie

Le XXᵉ siècle est celui de la concrétisation.

  • 1936 : Alan Turing décrit la machine de Turing, modèle théorique universel capable d’exécuter tout algorithme.

  • 1937-1941 : Konrad Zuse construit les premiers calculateurs électromécaniques programmables (Z3).

  • 1943-1945 : l’ENIAC, premier grand ordinateur électronique, est conçu aux États-Unis.

  • 1948 : John von Neumann formalise l’architecture qui porte son nom, où programme et données coexistent dans la même mémoire.

  • 1950-1960 : les ordinateurs se diffusent dans les grandes entreprises et administrations, grâce aux transistors qui remplacent les tubes à vide.

  • 1971 : Intel commercialise le premier microprocesseur, qui condense l’unité de calcul dans une seule puce.

  • 1980 : diffusion des micro-ordinateurs (Apple II, IBM PC), qui démocratisent l’informatique personnelle.

À retenir

Au XXᵉ siècle, l’informatique passe du stade théorique (Turing, von Neumann) à la réalité industrielle, avec le microprocesseur qui ouvre la voie aux ordinateurs personnels.

L’avènement des réseaux et d’Internet

L’informatique change d’échelle quand les ordinateurs cessent d’être isolés.

  • 1969 : naissance d’ARPANET, premier réseau à commutation de paquets, ancêtre d’Internet.

  • 1970-1980 : standardisation des protocoles TCP/IP, qui deviennent la base technique d’Internet.

  • 1989 : Tim Berners-Lee invente le World Wide Web, qui permet de naviguer entre des pages reliées par des hyperliens.

  • 1990-2000 : Internet se diffuse dans les foyers et les entreprises, transformant en profondeur la communication et l’économie.

  • 2007 : l’arrivée du smartphone connecte massivement les individus au réseau en permanence.

Aujourd’hui, Internet est devenu une infrastructure mondiale qui relie des milliards de machines et d’objets connectés.

À retenir

Internet est né du besoin de relier les ordinateurs entre eux. Du réseau ARPANET au Web et aux smartphones, il est devenu le socle de la société numérique.

Conclusion

De l’algorithme d’Euclide à l’Internet global, l’histoire de l’informatique montre une progression continue : d’abord théorique, puis mécanique, électronique et enfin universellement connectée. Chaque étape a élargi le champ des possibles, jusqu’à transformer nos vies quotidiennes. Comprendre ces grandes dates, c’est voir que l’informatique est à la fois une science millénaire et une technologie en perpétuelle évolution, appelée à continuer de marquer l’histoire.