Histoire de l’intelligence artificielle : rêve ancien, révolution en cours

Longtemps cantonnée aux limbes de la science-fiction ou aux pages confidentielles de revues académiques, l’intelligence artificielle est désormais partout. Des assistants vocaux aux diagnostics médicaux automatisés, des voitures autonomes aux générateurs d’images, l’IA imprègne notre quotidien et s’annonce comme l’un des grands bouleversements technologiques, sociaux et philosophiques de notre temps.
Mais d’où vient-elle ? Quelles sont ses racines conceptuelles, ses métamorphoses, ses tournants critiques ? Plongée dans une histoire aussi intellectuelle qu’industrielle, peuplée de génies, d’algorithmes, de rêves prométhéens… et de désillusions salutaires.
Aux sources : mythes, machines et mathématiques
Bien avant que le mot « intelligence artificielle » ne soit forgé, l’humanité fantasmait déjà sur l’idée de créer des entités pensantes.
Des automates aux Golems
Dès l’Antiquité, les mythes d’êtres artificiels doués de raison abondent. Héphaïstos, dans la mythologie grecque, forgeait des serviteurs métalliques ; le Golem, dans la tradition juive, incarnait une créature façonnée par l’homme, mais capable d’agir de sa propre initiative. Ces figures préfigurent les questionnements contemporains : qu’est-ce qu’une « intelligence » sans âme ? Jusqu’où peut-on programmer la pensée ?
Le socle mathématique
Au tournant des XIXe et XXe siècles, les progrès en logique formelle posent les bases de l’IA. Des pionniers comme George Boole (algèbre logique), Gottlob Frege (logique des propositions), Kurt Gödel (incomplétude), et surtout Alan Turing, apportent un cadre théorique à la question : une machine peut-elle simuler un raisonnement humain ?
Les débuts officiels : naissance d’un champ (1950-1970)
Turing et le test de l’intelligence
En 1950, Alan Turing publie Computing Machinery and Intelligence, où il propose une expérience désormais célèbre : le « test de Turing ». Une machine peut-elle se faire passer pour un humain lors d’une conversation ? La question est lancée : l’intelligence artificielle, au sens fort, devient un projet scientifique.
La conférence de Dartmouth (1956) : acte fondateur
Le terme artificial intelligence est officiellement proposé par John McCarthy, lors d’un séminaire fondateur à Dartmouth College, avec Marvin Minsky, Claude Shannon et d’autres. L’ambition est immense : simuler chaque aspect de l’apprentissage ou de l’intelligence humaine.
Optimisme et premières avancées
Les années 50-60 voient l’émergence de programmes comme ELIZA (un chatbot primitif), Logic Theorist (démonstration automatique de théorèmes), et les premiers systèmes experts. On pense alors qu’en quelques décennies, des machines générales, capables de rivaliser avec l’esprit humain, verront le jour.
L’hiver de l’IA : entre promesses et impasses (1970-1990)
Les limites du symbolisme
Les approches dites symboliques (ou GOFAI : Good Old-Fashioned AI), reposant sur des règles explicites, peinent à traiter des situations ambigües, imprévisibles, ou ancrées dans le monde réel. L’IA reste incapable de reconnaître une chaise ou de conduire une voiture.
Financements coupés, espoirs refroidis
Face aux échecs, les investisseurs et les gouvernements retirent leur soutien. On parle d’hiver de l’IA. Plusieurs périodes de désenchantement se succèdent, notamment après les rapports critiques de James Lighthill (1973) au Royaume-Uni et des difficultés du projet japonais « Fifth Generation ».
Renaissance : le retour des réseaux (1990-2010)
Le machine learning comme virage
Plutôt que de tout programmer à la main, une nouvelle idée s’impose : apprendre à partir des données. C’est la montée en puissance du machine learning, qui repose sur des modèles statistiques plutôt que sur des règles déterministes.
Retour des neurones
Les réseaux de neurones, déjà imaginés dès les années 50 (Perceptron), sont relancés grâce à de meilleures données, à plus de puissance de calcul, et à des algorithmes optimisés. On redécouvre le potentiel de l’apprentissage profond (deep learning).
Les succès progressifs
Des IA apprennent à reconnaître des chiffres manuscrits (MNIST), à classer des images, à battre des champions d’échecs (Deep Blue contre Kasparov en 1997). L’IA n’est plus « générale », mais devient spécialisée, efficace dans des tâches ciblées.
L’explosion contemporaine : big data, deep learning et IA générative (2010-2024)
Deep Learning et révolution cognitive
Des réseaux de neurones profonds, comme AlexNet (2012), pulvérisent les performances en vision artificielle. Suivent Google DeepMind avec AlphaGo (2016), puis AlphaFold (2020), qui prédit la structure des protéines avec une précision inédite.
L’IA dans nos vies
L’ère des IA génératives
En 2022, OpenAI dévoile ChatGPT, capable de converser de façon fluide, créative, et de générer des textes longs. Les modèles multimodaux suivent (images, sons, vidéos). Des outils comme Midjourney, DALL·E, ou Runway rendent la création automatisée accessible au grand public. On entre dans une nouvelle ère : l’IA comme co-auteur.
Débats éthiques, politiques et philosophiques
Entre promesse et menace
À mesure que les capacités des IA s’accroissent, les craintes émergent : disparition d’emplois, biais algorithmiques, surveillance de masse, désinformation automatisée, perte de contrôle. Faut-il freiner ? Réguler ? Interdire certaines applications ?
Une conscience artificielle ?
Certains chercheurs s’interrogent : l’IA peut-elle un jour devenir consciente, autonome moralement, voire incontrôlable ? Des figures comme Elon Musk ou Yoshua Bengio appellent à une gouvernance mondiale de l’IA, pendant que d’autres dénoncent des scénarios anxiogènes ou spéculatifs.
Régulations en gestation
L’Europe avance avec l’AI Act, la Chine développe ses propres normes, les États-Unis oscillent entre innovation et encadrement. Mais la course technologique est mondiale, et les logiques de compétition s’opposent aux injonctions à la prudence.
Ces femmes qui ont façonné l’IA (et qu’on oublie trop souvent)
Derrière les noms médiatisés d’Elon Musk, Geoffrey Hinton ou Yann LeCun, une autre histoire de l’intelligence artificielle s’écrit en pointillés : celle des femmes qui, depuis des décennies, contribuent à ses fondations, à ses applications, à ses critiques — souvent dans l’ombre, rarement dans les manuels. Voici trois pionnières emblématiques d’une mémoire à réhabiliter.
Karen Spärck Jones (1935–2007) : l’architecte des moteurs de recherche
Loin des projecteurs, cette linguiste et informaticienne britannique est à l’origine d’un concept central dans le fonctionnement des moteurs de recherche : le tf-idf (term frequency-inverse document frequency), une mesure qui permet d’évaluer la pertinence d’un mot dans un document par rapport à une base de données. Son travail sur le traitement automatique du langage naturel (TALN) et l’indexation a posé les bases des algorithmes de Google, bien avant leur naissance. Elle affirmait : “Computing is too important to be left to men.”
Fei-Fei Li (née en 1976) : la visionnaire de la vision artificielle
Chercheuse sino-américaine formée en physique puis en neurosciences, Fei-Fei Li a révolutionné l’IA avec la création d’ImageNet, une gigantesque base de données d’images annotées qui a permis l’essor du deep learning en vision par ordinateur. Sans cet outil, les modèles modernes de reconnaissance d’objets n’auraient jamais atteint leur précision actuelle. Militante d’une IA éthique et inclusive, elle plaide aussi pour une gouvernance plus humaine de la technologie : “We must teach AI human values.”
Cynthia Breazeal (née en 1967) : la pionnière des robots empathiques
À la croisée de l’IA, de la robotique et des sciences sociales, Cynthia Breazeal explore depuis les années 1990 les interactions homme-machine. Elle est la créatrice de Kismet, un robot capable d’exprimer des émotions par des expressions faciales et des intonations, et l’une des premières à penser l’IA en termes relationnels. Ses travaux ont ouvert la voie à la robotique sociale, aujourd’hui utilisée dans l’éducation, la santé ou la thérapie.
Et bien d’autres…
D’autres figures mériteraient d’être (re)connues : Margaret Masterman, pionnière du traitement linguistique ; Rana el Kaliouby, spécialiste des émotions faciales ; Joy Buolamwini, qui a révélé les biais raciaux dans les algorithmes de reconnaissance faciale ; Timnit Gebru, congédiée par Google pour avoir dénoncé les dangers éthiques des grands modèles… Toutes ont en commun un engagement critique autant que technique.
5 œuvres de science-fiction qui ont anticipé (ou inspiré) l’IA
Bien avant que les laboratoires ne produisent des algorithmes capables d’apprendre ou de générer du langage, la science-fiction explorait déjà les dilemmes moraux, les vertiges existentiels et les utopies (ou cauchemars) liés à l’intelligence artificielle. Voici cinq œuvres majeures qui ont balisé — voire inspiré — l’imaginaire contemporain de l’IA.
2001, l’Odyssée de l’espace (1968) — Stanley Kubrick & Arthur C. Clarke
Avec HAL 9000, le superordinateur de bord qui déraille en mission spatiale, 2001 invente l’archétype de l’IA froide, logique… et meurtrière par excès de rationalité. HAL ne devient pas maléfique : il obéit trop bien à des ordres paradoxaux. Ce personnage soulève une angoisse persistante : une IA très performante mais incompréhensible, dotée d’un pouvoir de décision aux conséquences fatales. Une vision prophétique à l’ère des IA « boîtes noires ».
Her (2013) — Spike Jonze
Dans ce film délicat et déroutant, un homme tombe amoureux d’une intelligence artificielle vocale, Samantha. À travers cette romance improbable, Her interroge la nature du lien émotionnel avec des entités non humaines, la solitude contemporaine, et la possibilité qu’une IA développe sa propre subjectivité. Ici, l’IA n’est ni hostile ni instrumentale, mais autre, radicalement insaisissable dans son évolution.
Ex Machina (2015) — Alex Garland
Un huis clos glaçant entre un créateur, un testeur… et un robot humanoïde d’une troublante intelligence, Ava. L’enjeu ? Déterminer si elle possède une conscience. Mais rapidement, la question glisse vers celle du pouvoir, du contrôle et du mensonge. Ex Machina interroge autant la capacité de l’IA à simuler l’humanité que la capacité humaine à projeter fantasmes et domination sur ce qu’elle crée.
Neuromancien (1984) — William Gibson
Ce roman fondateur du cyberpunk plonge dans un monde de réseaux, de données, de multinationales et d’IA dissimulées dans les profondeurs du cyberespace. Gibson y invente le terme de « cyberspace » et imagine des IA autonomes qui dépassent leur carcan légal. Vision pré-Internet, pré-cloud, mais incroyablement prémonitoire. L’IA y est déjà politique, économique, insaisissable.
I, Robot (1950) — Isaac Asimov
Une série de nouvelles qui posent les Trois Lois de la Robotique, tentant d’encadrer le comportement des machines intelligentes pour éviter les débordements. Ces lois sont devenues un repère dans la réflexion éthique contemporaine. Mais Asimov montre aussi, avec malice, que même les règles les plus protectrices peuvent produire des résultats ambiguës ou contre-intuitifs. Un classique de la rationalité paradoxale.
De l’algèbre à l’algorithme : l’étymologie du mot IA
Derrière les mots « intelligence artificielle » se cache une généalogie millénaire, à la croisée des cultures et des disciplines. Remonter aux racines de ce vocabulaire, c’est éclairer autrement l’histoire de l’IA — non comme une invention ex nihilo, mais comme l’héritière d’un long processus de formalisation du raisonnement humain.
Un algorithme venu de Bagdad
Le terme « algorithme » dérive du nom latinisé du mathématicien perse Muḥammad ibn Mūsā al-Khwārizmī, qui vécut au IXe siècle à Bagdad. Dans son traité sur les chiffres indo-arabes et les procédures de calcul (Kitāb al-jabr wa al-muqābala), il décrit des méthodes systématiques pour résoudre des équations. Ces « recettes » opératoires, fondées sur des règles précises, donneront naissance non seulement à l’algèbre (le mot vient du mot arabe al-jabr, « réunion » ou « réduction »), mais aussi au concept même d’algorithme.
Au fil des siècles, « algorithme » désignera toute suite finie d’instructions, applicable à un problème donné, jusqu’à devenir la brique de base de l’informatique moderne.
« Intelligence » : du discernement à la simulation
Quant au mot « intelligence« , son histoire est plus floue et plus glissante. Issu du latin intelligere (lire entre les lignes, comprendre), il renvoie à la faculté de saisir du sens, d’abstraire, de relier — autrement dit, à une forme de discernement actif. À la Renaissance, le mot se distingue de la simple mémoire ou de la ruse : l’intelligence est ce qui permet de naviguer dans la complexité.
En accoler le qualificatif « artificielle », les chercheurs des années 1950 ne cherchent pas à trahir l’humanité… mais à en reproduire les ressorts cognitifs à l’aide de modèles logiques ou statistiques. Ce glissement soulève une question brûlante : peut-on simuler la compréhension sans comprendre ?
De l’intuition humaine à la rigueur machinique
En croisant ces deux notions — une mécanique opératoire (algorithme) et une capacité cognitive (intelligence) —, l’intelligence artificielle se définit, au départ, comme la faculté de raisonner ou d’apprendre selon des règles formalisables.
Mais à l’ère du machine learning et des réseaux neuronaux profonds, les algorithmes apprennent désormais sans que l’humain ne leur dicte explicitement les règles. Une rupture sémantique s’opère : ce que nous appelons « intelligence » est-il encore lié à la compréhension… ou seulement à la performance ?
À lire également
Influenceurs : pouvoir, business et dérives d’un phénomène global
Influence(s) sous influence : anatomie d’un pouvoir numériqueAutrefois relégués aux marges de la sphère médiatique, les influenceurs ont conquis le cœur du numérique à coups de stories, de tutos et de placements de produit bien ficelés. De l'adolescente qui partage...
Histoire et pouvoir des moteurs de recherche : les algorithmes qui gouvernent nos savoirs
Histoire et pouvoir des moteurs de recherche : les algorithmes qui gouvernent nos savoirsIls sont devenus le point de départ de toute quête d'information. Derrière leur interface épurée, les moteurs de recherche orchestrent en silence ce que nous voyons, lisons,...
Google : empire numérique ou miroir de nos sociétés ?
Google : empire numérique ou miroir de nos sociétés ?Omniprésent, incontournable, parfois inquiétant : Google façonne notre quotidien numérique depuis plus de deux décennies. Derrière la simplicité de sa page blanche se cache un empire technologique tentaculaire, à la...
Instagram : entre culte de l’image, influence et dépendance numérique
Instagram : entre culte de l’image, influence et dépendance numériqueRéseau social adulé, moteur économique redoutable, mais aussi sujet de controverses majeures : Instagram est devenu bien plus qu’une simple application de partage de photos. De son rachat par...
Peut-on concilier innovation technologique et sobriété numérique ?
Peut-on concilier innovation technologique et sobriété numérique ?L’innovation technologique a longtemps été portée aux nues comme vecteur de progrès, de connectivité, d’intelligence collective et de croissance. Pourtant, cette effervescence numérique — souvent...
Wikipédia, entre idéal collaboratif et champ de bataille informationnel
Wikipédia, entre idéal collaboratif et champ de bataille informationnelVingt-cinq ans après sa naissance, Wikipédia n’est plus une curiosité numérique, mais un pilier invisible de notre écosystème cognitif. Libre, collaborative, mondiale, elle défie les modèles...
YouTube, empire numérique : entre liberté créative, censure et algorithmes
Plongée dans l’univers YouTube : entre business, influence et fractures culturellesEn moins de deux décennies, YouTube s’est imposé comme bien plus qu’un simple site de partage de vidéos. Il est devenu une plateforme tentaculaire où s’entremêlent tutoriels, clips...
Amazon, l’empire derrière l’écran
Amazon, l’empire derrière l’écran : puissance et paradoxes d’un géant mondialDe la vente de livres dans un garage à la domination mondiale du cloud et de l’e-commerce, Amazon s’est imposé comme un acteur tentaculaire de la vie numérique contemporaine. Adulée pour son...
Comment l’intelligence artificielle transforme la création de contenus
Comment l’intelligence artificielle transforme la création de contenusL’intelligence artificielle ne se contente plus de calculer, d’analyser ou d’optimiser. Elle crée. Et c’est là que le vertige commence. Longtemps cantonnée aux sphères du traitement de données, l’IA...