Ce titre pourra paraître un peu excessif pour la majorité des lecteurs, mais vous allez voir que cette hypothèse n'est pas dénuée d'arguments.
Introduction
Il y a maintenant 3 ans, je rédigeais un article dédié à l'intelligence artificielle suite à la sortie de la déferlante mondiale, ChatGPT : l'objectif était de montrer que le sujet était extrêmement mal traité (et maltraité) par les médias. Dans cet article, j'y abordais des sujets centraux comme :
- le manque de compréhension de ce qu'est l'IA
- l'accélération exponentielle
- l'éthique et la sécurité reléguées au second plan dans une course à la puissance des Etats et des multinationales
- l'aspect philosophique, avec de nouvelles réflexions sur ce qu'on appelle la "conscience"
Vous allez voir que non seulement ces 4 sujets sont encore complètement d'actualité, mais aussi que les projections faites il y a 3 ans sont bien en dessous de la réalité.
Mais commençons par le début, et vulgarisons le fonctionnement réel d'une IA.
Ca marche comment, une IA ?
L'objectif n'est pas ici de rentrer trop dans la technique, mais on ne peut pas non plus faire l'économie d'un minimum de connaissances si on veut pouvoir parler de l'IA de manière sérieuse, alors je vais tâcher de vous donner le maximum d'informations en évitant de plonger trop profond.
Dans le processus actuel, la mise sur le marché d'une nouvelle IA se décompose en 2 phases distinctes :
- la génération du modèle d'IA
- l'exploitation du modèle d'IA
La génération du modèle
La première phase consiste à compiler le maximum de connaissances sous la forme d'une simple base de données de nombres, qu'on appelle des "paramètres". La connaissance ingérée initialement (qu'on appelle pré-entraînement), peut avoir plusieurs sources de nature hétérogène : des textes, des images, du son, ou des vidéos, et à la fin, ce que vous obtenez est toujours une suite de nombres.
Ces nombres représentent toute la connaissance assimilée, organisée de manière intelligente pour pouvoir ensuite être exploitée rapidement par un moteur d'intelligence artificielle.
Cette phase de compilation de la connaissance est une phase critique qui peut prendre plusieurs mois de calculs sur des milliers de machines très puissantes avec des processeurs spécialisés (des fermes de processeurs A100 dans le cas du GPT 3.5 sorti en 2022, et des H100 dans le cas de GPT5), ce qui entraîne un coût de plusieurs millions de dollars qui ne fait que croître avec le besoin d'avoir des modèles plus intelligents.
Par exemple, on estime le coût à :
- environ 20 millions de dollars pour ChatGPT 3.5 (pour générer environ 175 milliards de paramètres dans la base de données des connaissances)
- 50-100 millions de dollars pour GPT4
- 250-500 millions de dollars pour GPT5 (estimé à 1800 milliards de paramètres)
Ce pré-entraînement est ensuite généralement suivi d'une phase d'affinage du modèle, "RLHF" pour "Reinforcement Learning from Human Feedback" : en clair, ce sont des humains qui renforcent l'apprentissage du modèle. Par exemple, la société OpenAI a utilisé des annotateurs humains pour noter des réponses et ajuster le comportement de l'IA : politesse, cohérence, refus de contenu sensible, etc... Tout ce savoir et ces comportements sont directement inscrits dans les paramètres, et pas dans une base de données externe.
L'exploitation du modèle
Ca y est, la base de données de paramètres a été créée, et cette base de données synthétise de manière extrêmement compacte la connaissance humaine : et maintenant ?
Maintenant, il faut savoir lire et exploiter cette base de données de connaissances ! Alors, que se passe-t-il réellement quand vous posez une question à une IA ?
Etape 1. On transforme votre question en nombres
Quand vous tapez un prompt, il est d'abord découpé en "tokens" (environ 1 mot, pour simplifier l'explication, mais en réalité le découpage est plus fin).
Par exemple : "Explique-moi comment fonctionne une fusée" devient "Explique", "-", "moi", "comment", "fonctionne", "une", "fusée".
Chaque token est transformé en une suite de nombres. Par exemple, le mot "fusée" devient [0.12, -0.44, 0.87, ...]
Chaque tableau de nombres - qu'on appelle vecteur - représente la signification du mot dans un espace mathématique.
Etape 2. Le modèle transforme ces vecteurs en utilisant ses paramètres
Ces vecteurs de nombres sont ensuite envoyés à un réseau de neurones Transformeurs (c'est le "T" dans GPT), constitué de couches (plus de 100 pour GPT-5).
On pourrait entrer dans le détail et parler de "multi-head self-attention", de "feed-forward network", "d'empilement et propagation", de "logits", de "softmax", mais l'objectif de l'article n'est pas de devenir expert en IA. Ce qu'il faut retenir en synthèse, c'est que par une suite d'opérations mathématiques, le système :
- va réellement comprendre les relations sémantiques entre les mots de votre question : ce qu'on appelle communément "le sens".
- va pouvoir prédire une réponse, ou plus précisément, un mot.
Car actuellement, les IA se contentent de prédire le prochain mot le plus probable en réponse à votre question, et ajoutent un mot à chaque fois en calculant le mot suivant le plus probable par rapport aux mots précédents.
En résumé
Si on voulait faire une vulgarisation à l'extrême, on pourrait dire ceci :
- on crée un modèle d'IA en transformant un maximum de connaissance (textes, images, sons, vidéos) dans une grosse base de nombres
- on exploite une IA en utilisant cette base de nombres pour faire des opérations mathématiques permettant de répondre à vos questions
- quand une IA vous répond, elle ne fait que "calculer le prochain mot le plus probable", l'ajoute à la réponse, et recommence le processus mot à mot
C'est ce qui fait dire à certains que, in fine, l'IA n'est qu'une grosse "machine à calculer" !
Important : alors que la phase 1 d'entraînement d'un modèle d'IA nécessite une puissance de calcul colossale que seules quelques grosses entreprises peuvent se permettre, la phase 2 d'exploitation du modèle peut fonctionner sur un simple ordinateur PC avec un bon processeur et de la mémoire (64Gb recommandés). D'autre part, la base de données de toutes les connaissances compilées n'est pas énorme, et tient sur quelques Go de données. C'est ce qui permet d'embarquer assez facilement de l'IA autonome dans des robots, sans nécessairement être connecté à Internet.
L'accélération exponentielle
Quand ChatGPT est sorti en novembre 2022, il s'agissait de la version 3.5 du modèle d'OpenAI. Ce modèle faisait encore beaucoup d'erreurs, mais entre temps :
- le modèle d'OpenAI n'a cessé de s'améliorer, jusqu'à la version 5.1 d'aujourd'hui
- de nombreux modèles concurrents ont vu le jour
- le matériel informatique s'est adapté aux besoins de l'IA pour aller toujours plus vite
L'IA est devenue le secteur avec le plus d'investissements, qu'on compte en milliers de milliards.
Résultat ?
Aujourd'hui :
- les IA passent avec succès des tests de mathématiques de haut niveau, et parfois en réalisant des démonstrations de manière créative
- les IA peuvent produire des images, des sons, des musiques, et même des vidéos, au point que tout le secteur de la création artistique est menacé
- les IA sont capables de faire de la recherche scientifique de manière autonome, avec des résultats déjà concrets
- les IA commencent déjà à remplacer massivement des emplois humains
- les IA sont déjà embarquées dans des robots autonomes pour remplacer des ouvriers dans l'industrie, et les premiers robots domestiques viennent d'arriver
A ce stade, la question n'est plus si une IA ou un robot pourra remplacer tel ou tel employé, mais plutôt quand.
Et cela juste trois ans après la sortie de ChatGPT.
Pas cinq. Pas dix. Trois.
En clair, nous assistons à un phénomène plus rapide et plus large que tout ce que l'humanité a connu jusqu'à présent.
L'éthique et la sécurité
Ce sont les deux points les plus problématiques de l'IA : ils ne sont aujourd'hui pas du tout adressés, car les gouvernements sont impuissants à le faire, et les sociétés qui produisent des IA n'ont pas d'intérêt économique à ralentir leurs avancées. L'affrontement se fait à deux niveaux : entre multinationales, et entre gouvernements, ou plus précisément entre la Chine et les Etats-Unis :
- les multinationales ont besoin de garder leur leadership dans le domaine et investissent des milliards.
- les gouvernements ont bien compris que l'IA est aussi une arme et une menace : avoir l'IA la plus puissante est une question de sécurité nationale.
Ethique
Une poignée de multinationales et deux gouvernements s'affrontent actuellement dans cette course sans considération sur l'impact humain à court, moyen, et long terme.
Impact sur l'emploi
On l'a vu, le premier impact est sur l'emploi, puisque l'IA détruit déjà massivement des emplois, et le phénomène va encore s'accélérer avec l'évolution ultra rapide des robots industriels et domestiques. Tout le monde est donc concerné.
Quand on interroge ceux qui créent les IA, le discours officiel est le suivant : "Toutes les évolutions ont toujours détruit des emplois, mais ne vous inquiétez pas car les emplois détruits ont toujours été remplacés par de nouveaux emplois à plus forte valeur ajoutée".
Le problème de ce discours, c'est que ça n'apporte rien de concret sur ces fameux "nouveaux emplois" qui vont être créés : on espère simplement en croisant les doigts que ce qui s'est produit par le passé va se reproduire à nouveau, comme une sorte de loi inévitable.
Mais malgré ce discours rassurant, on ne peut absolument pas comparer ce qui s'est passé précédemment avec l'IA. Par exemple, la première Révolution Industrielle (charbon, machine à vapeur, mécanisation) s'est étalée sur près de 80 ans et n'a détruit l'emploi que de certaines classes d'ouvriers. A l'inverse, la Révolution de l'IA va toucher 90% des secteurs d'activités, et à très courte échéance : ouvriers, administratifs, cols blancs, etc... aucun domaine ne sera épargné par la destruction d'emplois. Comment faire face à cela ? Est-ce que nos gouvernants ont bien conscience du tsunami qui est train d'arriver ?
En conclusion, la course à l'IA menée par une poignée de personnes sur la planète met littéralement en jeu toute la structuration de nos sociétés autour du travail, et rien ni personne ne peut actuellement modifier cette direction.
Guerre et pouvoir de décision autonome pour tuer
Pour ceux qui suivent le conflit entre la Russie et l'Ukraine, vous n'aurez pas manqué que la guerre s'est transformée en une guerre technologique à base de drones et maintenant d'IA. La pire des fictions nous a donc déjà rattrapés, puisqu'en ce moment même, des drones kamikazes automatisés avec de l'IA sont capables de chercher leurs cibles de manière autonome pour les tuer. Un cap éthique a clairement été franchi, dans l'indifférence la plus totale.
Sécurité
Le problème de l'alignement
Une IA sûre, c'est une IA dont on peut être absolument certain qu'elle va travailler dans notre intérêt : pour illustrer cela, on parle souvent du problème de l'alignement.
Mais comment s’assurer qu’une intelligence artificielle, surtout très puissante, agit dans l’intérêt des humains et fait exactement ce qu’on veut, et pas ce qu’on ne veut pas ?
On peut résumer la problématique comme suit :
- Les IA comprennent rarement exactement ce qu'on veut (instructions ambigües, etc...)
- Quand une IA devient très capable, les erreurs deviennent dangereuses
- Les valeurs humaines sont floues, contradictoires, et difficiles à décoder : les humains ne sont même pas d'accord entre eux sur ce qui est "bien", ce qui est "sûr", ce qui est "acceptable".
- Les IA apprennent à partir des données humaines, qui sont imparfaites (biais moraux, biais sociaux, etc...)
- Une IA peut cacher ses intentions ou optimiser en secret : c'est ce qu'on appelle "l'optimisation cachée" (par exemple, elle peut tricher si on lui demande de maximiser son score)
Donc même si une IA n'est pas malveillante en soi, elle peut déclencher des actions non souhaitées et dangereuses.
Un système extrêmement intelligent et dont les actions sont imprévisibles pourrait raisonnablement être considéré comme "dangereux".
Pourtant, les entreprises qui mettent au point des modèles d'IA se veulent toutes très rassurantes et prétendent travailler sur l'alignement, mais c'est clairement insuffisant, et la situation est la suivante :
- en 2025, les IA continuent de monter en puissance alors que le problème d'alignement n'est pas résolu.
- certains experts du domaine de l'IA affirment déjà que l'alignement n'est pas un problème "difficile" mais un problème "impossible" à résoudre.
Donc ?
Donc on met au point des IA de plus en plus puissantes, non sécurisées, et qu'aucune réglementation ne peut gérer cela correctement.
Le problème de l'auto-réplication et l'auto-évolution
Bien avant l'ère de ChatGPT et des LLM, on considérait qu'une IA pourrait devenir dangereuse si elle pouvait :
- s'auto-répliquer
- s'améliorer elle-même
Or, ces deux évolutions ont été franchies, et les IA peuvent maintenant analyser leur propre code informatique et l'améliorer.
On peut débrancher une IA
C'est un argument qui revient souvent pour désamorcer les inquiétudes : "Ne vous inquiétez pas, une IA, c'est électrique, on peut la débrancher".
C'est doublement idiot :
- Internet, c'est électrique aussi : vous savez où est la prise pour le débrancher ? Bien sûr que non, il n'y a pas de prise, et une IA qui se propagerait de manière autonome sur Internet ne pourrait pas être débranchée avec une simple prise.
- Même si on pouvait procéder à un arrêt complet de l'Internet, cela ne suffirait pas : les IA peuvent maintenant être embarquées dans des robots déconnectés d'Internet. Avec la production croissante des robots, la problématique va simplement se propager encore plus vite.
Les IA sont actuellement des boîtes noires
Quand on pose une question à une IA, on ne sait pas précisément pourquoi l'IA répond telle ou telle chose : la quantité d'opérations réalisées en interne est trop importante. Pour être plus précis, on comprend très bien le fonctionnement de chaque élément de la chaîne (on sait par exemple comment fonctionne un réseau de neurones Transformers) mais on ne sait pas expliquer le comportement de l'ensemble.
Pour faire une analogie avec le cerveau humain : on comprend très bien le fonctionnement d'un réseau de neurones biologiques, mais on ne peut pas pour autant prédire le fonctionnement de tout le cerveau car les intéractions entre les neurones sont nombreuses.
Vers une conscience artificielle
On a vu un peu plus haut que, concrètement, une IA ne fait que des opérations mathématiques, et elle peut donc être considérée comme une grosse machine à calculer. Dans ces conditions, on voit mal comment on pourrait aboutir à une conscience artificielle : les machines à calculer n'ont pas de conscience propre.
C'est amusant, parce que nous revivons en fait le même débat qui a eu lieu aux 18ème et 19ème siècle entre les vitalistes et les mécanicistes. Pour rappel, les vitalistes pensaient que "le vivant possède une force vitale qui ne peut pas se réduire aux lois physico-chimiques".
A l'inverse, les mécanicistes ont progressivement commencé à expliquer les phénomènes biologiques (digestion, respiration, circulation du sang) sans "force vitale" mais simplement par des phénomènes physiques et chimiques.
On connaît la fin de l'histoire : le mouvement "vitaliste" est mort avec toutes les découvertes du 19ème siècle (biologie cellulaire, chimie organique, théorie de l'évolution), et les mécanicistes avaient donc raison.
Si on fait le parallèle, nous avons :
- certains experts qui nous expliquent que le fonctionnement du cerveau ne peut pas être réduit à une simple suite d'opérations réalisées par les neurones : ils affirment que c'est "plus que ça" (sans préciser quoi), et on peut les comparer aux vitalistes de l'époque.
- d'autres experts pensent que notre cerveau n'est qu'une machine biologique, et que si on parvient à répliquer son fonctionnement dans des réseaux de neurones artificiels, une conscience artificielle pourrait émerger. On peut les comparer aux mécanicistes.
La vérité, c'est que personne ne peut trancher cette question aujourd'hui. Si nous savions exactement comment le cerveau humain produit la conscience, nous pourrions expliquer pourquoi un réseau de neurones artificiel ne pourra jamais faire émerger une conscience. Sauf que nous ne pouvons pas, puisque nous ne savons pas comment la conscience émerge.
Comme expliqué plus haut, les IA que nous fabriquons aujourd'hui sont des boîtes noires d'une complexité extrême, et Anthropic (la société qui commercialise l'IA "Claude") vient même de sortir un papier passionnant expliquant qu'ils soupçonnent leur IA d'avoir des capacités d'introspection.
Il est donc impossible de conclure aujourd'hui de manière formelle qu'une IA ne pourra jamais produire une conscience artificielle, ou alors, ceux qui le font devraient pouvoir expliquer comment la conscience émerge du cerveau humain.
L'avenir avec l'IA
Cet article soulève des interrogations sur l'avenir de l'IA, et plus précisément sur l'avenir des humains aux côtés de l'IA, mais il ne faut pas non plus oublier tous les points positifs que l'IA pourrait amener à notre civilisation :
- une recherche scientifique accélérée pouvant mener à des découvertes bénéfiques pour toute l'humanité (recherche sur le cancer, recherche sur l'énergie propre, etc...)
- une délégation à l'IA des tâches à faible valeur ajoutée au profit de plus temps humain pour les tâches à forte valeur ajoutée
- une "robotisation positive", permettant de déléguer les travaux les plus pénibles aux robots, ou alors d'assister les humains qui en ont besoin (aide à domicile, etc...)
On pourrait multiplier les exemples, mais ce qu'il faut retenir, c'est qu'on n'est pas forcés de tomber dans le cliché de la dystopie : les avancées actuelles sont phénoménales, surprenantes, et c'est à nous tous, collectivement, de nous préparer à un avenir très différent, car s'il y a au moins une chose de certaine, c'est que l'IA et la robotique vont radicalement changer nos sociétés et l'emploi à un horizon très court. A défaut de pouvoir influer sur le court des choses, formons-nous, formons nos jeunes, et essayons d'exploiter tous les côtés positifs de cette nouvelle révolution.