La singularité technologique et l’intelligence artificielle : pourquoi cette promesse de progrès infini nous mène dans l’impasse
L’intelligence artificielle progresse à une vitesse fulgurante, nos smartphones deviennent chaque année plus puissants, et Silicon Valley nous promet un futur où la technologie dépassera l’intelligence humaine. Cette vision séduisante de la singularité technologique fascine autant qu’elle inquiète. Pourtant, derrière ces promesses de progrès exponentiel se cachent des limites physiques et économiques que même les géants de la tech préfèrent ignorer.
Bienvenue dans le monde fascinant mais trompeur de la croissance technologique infinie, cette théorie selon laquelle nous fonçons vers un point de non-retour où les machines créeront des machines encore plus intelligentes, à l’infini. Sauf que la réalité, elle, a d’autres projets pour nous.
Gordon Moore et Intel : quand une simple observation devient une fausse prophétie
Tout commence en 1965 avec Gordon Moore, cofondateur d’Intel, qui observe que le nombre de transistors sur une puce double environ tous les deux ans. Cette observation statistique se transforme rapidement en bible technologique pour toute Silicon Valley. Le problème ? Cette « loi de Moore » n’a rien d’une loi physique universelle.
Aujourd’hui, les ingénieurs d’Intel, AMD et TSMC se heurtent à un mur : on ne peut pas miniaturiser les transistors indéfiniment. Quand un transistor atteint la taille de quelques atomes, les électrons commencent à « fuir » par effet tunnel quantique, rendant les composants instables. C’est ce que les physiciens appellent la fin du scaling, et nous y voilà déjà.
TSMC investit désormais des dizaines de milliards de dollars pour passer d’une génération de puces à la suivante, souvent pour seulement 10 à 15% de performance supplémentaire. Les rendements décroissent de manière implacable.
Rolf Landauer et les limites thermodynamiques : la physique contre-attaque
En 1961, le physicien Rolf Landauer découvre une limite fondamentale qui devrait faire trembler tous les prophètes du progrès infini. Sa découverte, connue sous le nom de limite de Landauer, établit qu’il existe une quantité minimale d’énergie nécessaire pour effacer ne serait-ce qu’un seul bit d’information.
Cette contrainte thermodynamique signifie que même des ordinateurs parfaitement efficaces ne pourraient jamais descendre sous ce seuil énergétique. Plus de puissance de calcul égale inévitablement plus de consommation d’énergie. Les data centers de Google, Amazon et Microsoft l’illustrent parfaitement : ces géants dépensent des fortunes astronomiques uniquement pour refroidir leurs serveurs.
Imaginez multiplier cette puissance par un million, comme le promettent les adeptes de la singularité : il faudrait des centrales nucléaires entières juste pour éviter que nos superordinateurs ne fondent !
Jean-Gabriel Ganascia et la psychologie des exponentielles : pourquoi notre cerveau nous trompe
Pourquoi tant de gens croient-ils encore à ces histoires de croissance technologique infinie ? Jean-Gabriel Ganascia, informaticien et philosophe français, explique dans son livre « Le Mythe de la Singularité » que cette fascination relève plus du conte de fées moderne que de l’analyse scientifique.
Notre cerveau est programmé pour comprendre les progressions linéaires, pas les exponentielles. Une étude de 1975 publiée dans Perception & Psychophysics démontre que nous sous-estimons systématiquement les croissances exponentielles au début, puis les surestimions quand elles ralentissent. C’est exactement ce qui se passe avec la technologie : nous projetons dans le futur une courbe qui ne peut pas continuer éternellement.
Nous plaquons sur la technologie nos fantasmes d’omnipotence, en oubliant que la réalité physique résiste toujours.
L’aviation et Jonathan Huebner : quand l’histoire nous donne tort
L’histoire des innovations ressemble à une succession de courbes en S : démarrage lent, accélération fulgurante, puis plateau. L’aviation l’illustre parfaitement. Entre 1903 et 1970, les progrès ont été spectaculaires, des premiers vols des frères Wright au Concorde supersonique. Depuis cinquante ans ? Les avions commerciaux volent à peu près à la même vitesse qu’un Boeing 707 de 1958.
Jonathan Huebner, physicien au Naval Air Warfare Center américain, a analysé cette tendance dans une étude marquante de 2005. En passant au crible 150 ans d’innovations majeures, il découvre que le taux d’innovation par habitant avait atteint son pic vers 1873. Depuis, c’est la descente.
Ses conclusions font froid dans le dos : nous vivons peut-être déjà dans une époque de ralentissement technologique relatif, masqué par l’amélioration continue de technologies existantes. Autrement dit, on peaufine l’existant au lieu de révolutionner.
Windows et la dette technique : quand la complexité tue l’innovation
Plus un système devient sophistiqué, plus il accumule ce que les ingénieurs appellent la « dette technique ». Windows 95 contenait environ 15 millions de lignes de code. Windows 10 ? Plus de 50 millions. Cette explosion de complexité fait que les développeurs passent désormais plus de temps à maintenir l’existant qu’à innover.
Chaque nouvelle fonctionnalité doit cohabiter avec toutes les précédentes, créant une complexité qui explose littéralement. Chaque mise à jour devient un parcours du combattant où un bug peut en cacher mille autres. Les géants comme Microsoft ou Google consacrent des équipes entières uniquement à gérer cette complexité croissante.
GPT-4 et le mur de données : l’intelligence artificielle face à ses limites
L’IA moderne semble donner raison aux optimistes. ChatGPT, GPT-4 et leurs successeurs impressionnent par leurs prouesses apparentes. Mais les limites se profilent déjà à l’horizon. Entraîner GPT-4 a nécessité des mois de calcul sur des milliers de processeurs graphiques, pour un coût estimé à plusieurs dizaines de millions de dollars.
Pour créer un modèle dix fois plus puissant, il faudrait théoriquement des ressources dix fois supérieures. En réalité, les besoins croissent de manière super-linéaire : dix fois plus cher pour deux fois plus de performance. Plus préoccupant encore, ces modèles engloutissent des quantités astronomiques de données d’entraînement, et nous commençons à épuiser les corpus de textes de qualité disponibles sur Internet.
Bitcoin et la contrainte énergétique : notre planète n’est pas extensible
Nous vivons sur une planète finie, avec des ressources limitées. Chaque smartphone contient des dizaines de métaux rares, extraits dans des conditions souvent catastrophiques. Chaque data center engloutit l’électricité d’une ville moyenne. Le Bitcoin consomme désormais plus d’électricité que l’Argentine entière, uniquement pour sécuriser des transactions numériques.
Si cette technologie devait remplacer tout le système financier mondial, elle nécessiterait une part substantielle de la production électrique planétaire. Cette contrainte énergétique impose des choix de société fondamentaux : voulons-nous consacrer une part croissante de nos ressources à faire tourner des algorithmes toujours plus gourmands ?
La médecine et SpaceX : des secteurs qui stagnent malgré les milliards
Les rendements décroissants se voient particulièrement dans des secteurs pourtant cruciaux. En médecine, développer un nouveau médicament coûte désormais en moyenne 2,6 milliards de dollars et prend plus de dix ans, selon le Journal of Health Economics. Les « fruits faciles à cueillir » ont été cueillis.
Même dans le spatial, secteur symbolique du progrès, nous utilisons toujours des fusées chimiques dont le principe remonte à la Seconde Guerre mondiale. SpaceX a certes révolutionné la réutilisation, mais la physique de la propulsion reste identique depuis des décennies.
L’informatique quantique et les processeurs neuromorphiques : l’innovation change de nature
Critiquer l’illusion du progrès technologique infini ne signifie pas sombrer dans le pessimisme. L’innovation continue, mais elle change de nature. Au lieu de chercher éternellement « plus vite, plus fort », les ingénieurs du futur optimisent « plus efficace, plus durable, plus intelligent ».
L’informatique post-Moore explore déjà des voies alternatives :
- Le calcul quantique pour des problèmes spécifiques
- Les processeurs neuromorphiques inspirés du cerveau
- Les architectures optimisées pour l’intelligence artificielle
- Les systèmes de récupération et recyclage d’énergie
Ces approches ne promettent pas des gains exponentiels infinis, mais ouvrent des possibilités nouvelles pour résoudre des problèmes spécifiques avec une efficacité redoutable.
L’industrie automobile électrique : la révolution par petits pas
Cette transition est déjà visible dans l’automobile électrique, qui progresse moins par révolutions spectaculaires que par milliers de micro-améliorations : meilleure chimie des batteries, aérodynamisme optimisé, récupération d’énergie plus efficace. Ces progrès incrémentaux transforment concrètement notre quotidien sans faire de bruit.
Tesla, BMW et les constructeurs chinois comme BYD excellent dans cette approche pragmatique. Ils intègrent dès la conception les contraintes environnementales et économiques, créant des véhicules plus efficaces sans promettre l’impossible.
Vers une technologie mature qui respecte les limites planétaires
Accepter les limites du progrès technologique, c’est grandir collectivement. C’est abandonner les fantasmes de toute-puissance pour embrasser une approche plus mature de l’innovation. Une technologie qui se soucie autant d’efficacité que de performance brute, qui intègre les contraintes environnementales et sociales dès sa conception.
Les défis du 21ème siècle – réchauffement climatique, épuisement des ressources, inégalités croissantes – ne seront pas résolus par une hypothétique superintelligence artificielle surgissant de nulle part. Ils demandent des solutions concrètes, pragmatiques, qui tiennent compte des limites physiques de notre monde.
La vraie révolution technologique de demain ne sera peut-être pas celle qu’on attend. Au lieu de machines infiniment puissantes, nous aurons probablement des systèmes optimisés qui font mieux avec moins. Des technologies qui améliorent la vie humaine sans épuiser la planète. C’est moins vendeur que les promesses de singularité, mais infiniment plus réaliste et utile pour notre survie collective.
Sommaire