Pages

jeudi 16 octobre 2025

Superintelligence : les apprentis sorciers de la tech crient au feu après avoir allumé la mèche

Plus de 700 scientifiques, politiciens, milliardaires de la tech et vedettes en mal de buzz ont signé le 22 octobre 2025 un appel solennel pour arrêter le développement d’une intelligence artificielle plus intelligente que l’humain. Apparemment, il aura fallu attendre que la machine commence à leur piquer leur boulot pour qu’ils se réveillent.

Le texte, pondu par le Future of Life Institute, un organisme américain qui passe son temps à jouer les prophètes de malheur de la technologie, demande gentiment qu’on stoppe tout tant qu’on n’aura pas trouvé comment fabriquer une IA « contrôlée et sécurisée » et, cerise sur le gâteau, avec « le soutien de la population ». En clair, on construit Frankenstein, mais on demande d’abord l’avis du voisin.

Parmi les signataires, on retrouve les papas de l’intelligence artificielle moderne : Geoffrey Hinton, prix Nobel de physique 2024 (parce qu’on donne maintenant des Nobels à ceux qui regrettent leurs inventions), Stuart Russell de l’université de Berkeley, Yoshua Bengio de Montréal, et tout le gratin qui a passé vingt ans à nous expliquer que les robots allaient sauver le monde.

La fête ne s’arrête pas là. On y croise Richard Branson (Virgin), Steve Wozniak (Apple), Steve Bannon (l’ombre de Trump), Susan Rice (ex-Obama), le conseiller du pape Paolo Benanti (parce que Dieu n’a pas encore codé sa version 2.0), et même les stars will.i.am et le couple princier Harry et Meghan, toujours là quand il s’agit d’expliquer au monde comment il doit vivre depuis leur villa californienne.

Pendant ce temps, les géants de l’IA continuent leur course vers la « superintelligence », cette étape où la machine dépassera enfin son créateur. Sam Altman, le boss d’OpenAI et père de ChatGPT, prédit qu’on atteindra ce stade dans cinq ans. À ce rythme, il va bientôt falloir demander à nos grille-pains de voter.

Mais certains trouvent ça inacceptable. Max Tegmark, président du Future of Life Institute, affirme qu’on ne peut pas laisser les entreprises jouer avec le feu sans cadre légal. On veut bien des IA pour guérir le cancer, dit-il, mais pas des IA capables de se dire : « Tiens, si j’éliminais les cancéreux directement, ce serait plus rapide. »

Cette belle déclaration fait écho à une lettre déjà signée à l’ONU, où les mêmes cerveaux réclamaient des « lignes rouges » pour éviter que l’IA ne transforme la planète en terrain de jeu pour algorithmes fous.

Et là, on ne peut que rire. Tous ces grands de ce monde qui, hier encore, finançaient joyeusement les labos d’IA en arrosant de milliards des startups à moitié folles, découvrent soudain la morale. Ils nous jouent les vierges effarouchées, jurant qu’ils ne savaient pas que la bête qu’ils ont nourrie finirait par leur mordre la main. Depuis 1943 que l’intelligence artificielle existe, ils ont tout fait pour accélérer le processus. Et maintenant, les voilà à crier « stop » parce qu’ils ont peur de perdre le contrôle.

Qu’ils se rassurent : l’humanité a toujours su s’autodétruire sans aide. L’IA ne fera que rendre le processus plus rapide, plus propre, et sans pause café.
 

 

Aucun commentaire:

Enregistrer un commentaire

Articles les plus consultés