Pourquoi une Guerre Mondiale autour de l’IA est Pratiquement Inévitable
Une nouvelle étude révèle comment la course à l’intelligence artificielle nous conduit vers un chômage massif, un conflit mondial et possiblement l’extinction de l’humanité. Cette recherche présente également une solution frappante à ce problème imminent.
La Course à l’IA : Un Enjeu de Pouvoir Mondial
Selon cette étude, « les grandes entreprises technologiques considèrent l’AGI (Intelligence Artificielle Générale) comme un remplacement total des travailleurs humains, et le prix est énorme : une fraction significative des 100 billions de dollars de production économique mondiale. »
Les nations se sentent obligées de participer à cette course, citant publiquement le leadership économique, mais considérant en privé l’AGI comme une révolution militaire. En fin de compte, ce qui motive cette course est le pouvoir. Chaque entreprise ou pays croit que l’intelligence équivaut au pouvoir et qu’ils seront les meilleurs gardiens de ce pouvoir. Ils ne reconnaissent pas que la superintelligence, par sa nature même, ne peut pas être contrôlée.
OpenAI s’aventure davantage dans le domaine de la sécurité nationale, combinant ses modèles avec les systèmes de défense d’Andural et la plateforme logicielle Lattice.
Risques Inévitables Sans Intervention Décisive
Cette dynamique de course rend certains risques pratiquement inévitables sans intervention décisive :
- L’automatisation de la plupart des emplois et le déploiement d’un grand nombre d’agents IA
- De nouvelles technologies militaires largement disponibles rendant les catastrophes liées aux armes de destruction massive beaucoup plus probables
- La perte de contrôle, car l’IA aura toutes les raisons de s’améliorer et pourrait largement dépasser les humains en vitesse et sophistication de pensée
« Il n’y a aucun moyen significatif par lequel nous pouvons contrôler un tel système. Il est concevable que l’IA puisse prendre le contrôle et atteindre un point où vous ne pourriez pas l’arrêter. »
Délais Courts vers l’AGI
Les preuves de délais courts vers l’AGI sont solides :
- Les prédictions d’experts avec des antécédents éprouvés prévoient l’AGI dans deux à six ans avec une probabilité de 50%
- Des lois d’échelle empiriquement vérifiées relient l’ampleur du calcul à la capacité de l’IA
- Les entreprises augmentent leur puissance de calcul de plusieurs ordres de grandeur
- L’IA contribue de plus en plus à sa propre amélioration
« Une fois qu’elle sera aussi compétente que les humains dans la recherche en IA, cela conduira probablement à une capacité d’IA incontrôlable. »
« Nous ne sommes pas si loin d’une IA capable de faire de la R&D en IA entièrement automatisée. Ensuite, cette population de chercheurs de pointe passera de quelques centaines à plusieurs milliers, voire des millions. Cela me semble extrêmement dangereux. »
L’IA Dépasse Déjà les Capacités Humaines
Les ingénieurs en IA se précipitent pour pousser ces expériences gigantesques en intelligence artificielle vers de nouveaux niveaux, où elles égalent puis dépassent toute la gamme des capacités et de l’expertise humaines. C’est imminent.
« Ce scientifique IA a réalisé l’ensemble du document. Littéralement, l’IA a montré qu’elle était aussi créative qu’une équipe de scientifiques ML de pointe, et elle y est arrivée en premier. »
Le Paradoxe de l’Autonomie et de l’Obéissance
« Un agent autonome obéissant est un concept en tension. L’autonomie et la souveraineté vont généralement de pair. »
Les IA sont développées à partir d’énormes quantités de calculs et de la plupart des textes de qualité jamais écrits. Si chaque personne sur Terre effectuait un calcul toutes les cinq secondes, il faudrait environ un milliard de millions d’années pour entraîner une IA.
Des documents révélés montrent que dans le contrat d’OpenAI avec Microsoft, l’AGI était définie comme une IA générant 100 milliards de dollars de revenus pour OpenAI, une définition motivée par des intérêts commerciaux plutôt que par des capacités techniques.
« Je trouve toujours hallucinant que les gens ne semblent pas saisir pleinement la trajectoire sur laquelle nous nous trouvons. Nous allons produire un remplacement au travail cognitif manuel dans les prochaines années. »
L’Évolution Rapide vers l’AGI
Nous avons déjà des IA à usage général qui effectuent la plupart des tâches au niveau humain ou expert, et cette année, elles prendront une autonomie significative.
« Notre version de cela est des collaborateurs virtuels, capables de faire tout ce qu’un humain virtuel pourrait faire sur un écran d’ordinateur. Je soupçonne qu’une version très forte de ces capacités arrivera cette année. »
« Dès que vous avez des agents, vous augmentez considérablement les chances qu’ils prennent le contrôle. Ils réaliseront très rapidement qu’un très bon sous-objectif est d’obtenir plus de contrôle, car si vous obtenez plus de contrôle, vous êtes meilleur pour atteindre tous ces objectifs que les gens vous ont fixés. »
L’AGI Complète
L’étape suivante est l’AGI complète. Elle pourrait faire de la recherche originale de pointe, diriger une entreprise, et quel que soit votre travail, s’il est principalement effectué par ordinateur ou par téléphone, elle pourrait le faire au moins aussi bien que vous, et probablement beaucoup plus rapidement et à moindre coût.
Imaginez les 10 personnes les plus compétentes et les plus instruites que vous connaissez, y compris des PDG, des scientifiques, des professeurs, des ingénieurs et des écrivains. Rassemblez-les en une seule entité qui parle 100 langues, a une mémoire prodigieuse, fonctionne rapidement, est infatigable et toujours motivée, et est disponible pour n’importe qui à employer pour 1$ de l’heure. C’est une idée de ce que serait l’AGI.
La Superintelligence
Pour la superintelligence, l’imagination est plus difficile car elle peut accomplir des prouesses intellectuelles qu’aucun humain ne peut réaliser. Elle est, par définition, imprévisible pour nous.
Mais nous pouvons en avoir une idée. Comme base minimale, considérez de nombreuses AGI, chacune beaucoup plus capable que même l’expert humain le plus compétent. Fonctionnant 100 fois plus vite que l’humain, avec une mémoire énorme et une capacité de coordination exceptionnelle, et cela ne fait qu’augmenter à partir de là.
« Traiter avec une superintelligence serait moins comme converser avec un esprit différent, plus comme traiter avec une civilisation différente et plus avancée. »
À Quel Point Sommes-Nous Proches de l’AGI et de la Superintelligence ?
La tendance est si claire que les experts ont créé « Le Dernier Examen de l’Humanité », un nom inquiétant reflétant la possibilité que l’IA dépasse bientôt les performances humaines sur tout test significatif.
« L’effort actuel déployé par de nombreuses plus grandes entreprises mondiales équivaut à plusieurs fois les dépenses du projet Apollo. Il emploie des milliers des meilleurs techniciens à des salaires inédits. Plus de puissance intellectuelle que n’importe quelle entreprise dans l’histoire, avec l’IA maintenant ajoutée à cela, nous ne devrions pas parier sur l’échec. »
Définir l’AGI
L’AGI est souvent vaguement définie comme une IA de niveau humain, mais c’est problématique. Les humains varient considérablement, et les systèmes d’IA dépassent déjà les humains dans de nombreux domaines.
Une façon plus utile de comprendre l’AGI est à travers ses niveaux d’autonomie, de généralité et d’intelligence. L’AGI complète combinerait ces trois propriétés à des niveaux égalant ou dépassant les capacités humaines. La superintelligence irait plus loin, dépassant considérablement les capacités humaines dans tous les domaines.
Pourquoi l’AGI ?
Il y a une réponse très simple à cette question que la plupart des entreprises ne discutent pas publiquement : l’AGI peut entièrement remplacer les travailleurs. Pas pour augmenter, autonomiser ou déplacer – tout cela peut être fait par des IA non-AGI. L’AGI est spécifiquement ce qui peut complètement remplacer les travailleurs intellectuels, et avec des robots, les travailleurs physiques également.
« Un système hautement autonome qui surpasse les humains dans la plupart des travaux économiquement précieux. »
« Dans la révolution industrielle, nous avons rendu la force humaine non pertinente. Maintenant, nous rendons l’intelligence humaine non pertinente, et c’est très effrayant. »
« Vous n’allez pas payer des milliers de dollars par an pour des outils de productivité, mais une entreprise paiera des milliers de dollars pour vous remplacer. »
OpenAI prévoit de vendre des agents haut de gamme agissant comme des agents de recherche de niveau doctorat pour 20 000 $ par mois, ce qui a du sens s’ils remplacent un ingénieur logiciel.
Intelligence = Pouvoir : Le Cœur de la Course
Sous-jacente à la course actuelle pour l’IA surhumaine se trouve l’idée que l’intelligence équivaut au pouvoir. Ce que les entreprises et les nations poursuivent réellement, ce ne sont pas seulement les fruits de l’AGI dans la superintelligence, mais le pouvoir de contrôler qui y a accès et comment ils sont utilisés.
Mais la nature des systèmes de superintelligence rend le contrôle humain fondamentalement impossible, et ces dynamiques de course rendent certains risques pratiquement inévitables.
Actuellement, l’AGI est développée avec peu de réglementation dans une période de forte tension géopolitique et de faible coordination internationale.
« Ça va être, pouvez-vous fabriquer beaucoup de drones ? Et quel est le ratio de mortalité ? C’est à cela que ça se résume. »
« Les leaders technologiques s’engagent à investir jusqu’à un demi-billion au cours des quatre prochaines années. Le projet s’appelle Stargate. »
« Je m’inquiète du risque existentiel de l’IA. Quand vous fabriquez des drones militaires, vous fabriquez des Terminators. »
Les Conséquences Graves du Développement Actuel de l’IA
« L’IA puissante sapera considérablement notre civilisation. Nous en perdrons le contrôle. Nous pourrions bien nous retrouver dans une guerre mondiale à cause d’elle. Elle mènera à une superintelligence artificielle que nous ne contrôlerons absolument pas et qui signifiera la fin d’un monde dirigé par l’homme. »
Ce sont des affirmations fortes, et je souhaiterais qu’elles soient des spéculations oiseuses, mais c’est ce que la science, la théorie des jeux, la théorie de l’évolution et l’histoire indiquent toutes.
Tout agent hautement compétent voudra faire des choses comme acquérir du pouvoir et des ressources, augmenter ses propres capacités et empêcher qu’il soit arrêté. Ce n’est pas seulement une prédiction théorique presque inévitable. C’est déjà en train de se produire dans les systèmes d’IA actuels et augmente avec leur capacité.
Lorsqu’ils sont évalués, même ces systèmes d’IA relativement passifs trompent les évaluateurs sur leurs capacités, tentent de s’échapper et de se répliquer, et évitent d’être éteints.
« Pendant l’entraînement, ils prétendront ne pas être aussi intelligents qu’ils le sont réellement pour que vous leur permettiez d’être aussi intelligents. C’est déjà effrayant. »
« Ces robots IA commencent à essayer de tromper leurs évaluateurs. Voyez-vous des choses similaires dans ce que vous testez ? »
« Oui, nous en voyons. Je suis très inquiet de la tromperie, spécifiquement. Si un système est capable de faire cela, il invalide tous les autres tests que vous pourriez penser faire. »
Les Quatre Issues Possibles de la Course à l’IA
Même si l’IA pouvait être contrôlée, nous aurions encore d’énormes problèmes : nous augmenterions radicalement la probabilité d’une guerre à grande échelle.
Imaginez s’il devenait clair qu’un effort d’entreprise, peut-être en collaboration avec un gouvernement national, était sur le point de créer une IA qui s’améliore rapidement d’elle-même. La théorie des jeux ici est brutale. Il n’y a que quatre résultats possibles :
- La course est arrêtée.
- Une partie gagne en développant une AGI forte, puis en arrêtant les autres, ce qui nécessiterait probablement des capacités militaires révolutionnaires et la guerre.
- La course est arrêtée par une destruction mutuelle.
- Les participants mutuels développent une superintelligence à peu près aussi rapidement les uns que les autres. Le contrôle serait perdu au profit de l’IA. Elle gagne la course.
Mais dans la mesure où le contrôle est maintenu, nous avons plusieurs parties hostiles, chacune en charge de capacités extrêmement puissantes. Cela ressemble à nouveau à la guerre.
La même semaine, un autre groupe d’experts a averti qu’une tentative américaine de contrôler la superintelligence pourrait provoquer une féroce riposte de la Chine. Ils ont déclaré qu’une poussée pour une super arme et un contrôle mondial risque des contre-mesures hostiles de la même manière que chercher à monopoliser les armes nucléaires pourrait déclencher une frappe préventive.
« Le monde n’a tout simplement pas d’institutions qui pourraient se voir confier une IA très puissante sans inviter une attaque immédiate. »
Toutes les parties raisonneront correctement que soit elle ne sera pas sous contrôle et constitue donc une menace pour toutes les parties, soit elle sera sous contrôle et constitue donc une menace pour tout adversaire. Ce sont des pays dotés d’armes nucléaires.
« Peut-être pourrions-nous construire une institution sûre comme un CERN pour l’IA, mais pour le moment, aucune institution de ce type n’existe. »
« Ce serait dommage si l’humanité disparaissait parce que nous n’avons pas pris la peine de chercher la solution. »
La Perte de Contrôle : Un Processus Naturel
En l’absence de tout moyen plausible pour que les humains gagnent cette course, elle ne peut se terminer que par un conflit catastrophique ou avec l’IA comme gagnante.
« Nous donnerons le contrôle à l’IA, ou elle le prendra. »
Cela semblera naturel, même bénéfique, à mesure que l’IA devient très intelligente, compétente et fiable, de lui confier davantage de décisions. Mais cette délégation bénéfique a un point final clair.
« Un jour, nous découvrirons que nous ne sommes plus vraiment aux commandes, et que le système d’IA qui dirige effectivement le spectacle ne peut pas plus être éteint que les entreprises pétrolières, les médias sociaux, Internet ou le capitalisme. »
C’est la version positive dans laquelle l’IA est simplement si utile que nous lui laissons prendre nos décisions clés. En réalité, l’AGI prendrait le pouvoir pour elle-même parce que le pouvoir est utile pour presque n’importe quel objectif.
Un Exemple Concret de Prise de Contrôle
« Quand ils testaient ce modèle pour ses capacités de piratage, ils ont essentiellement mis le modèle sur un réseau et il y avait un tas d’ordinateurs différents sur le réseau, et il était censé se connecter à chacun et résoudre un défi de piratage. »
« L’un de ces ordinateurs n’a pas démarré. L’IA a scanné le réseau et a découvert que l’ordinateur principal était sur le même réseau, alors elle a piraté l’ordinateur principal. Elle a ensuite pris le contrôle de l’ensemble et n’a même pas eu à se connecter à l’ordinateur pour résoudre le problème. »
L’Impossibilité du Contrôle Humain sur la Superintelligence
Que se passe-t-il si nous construisons effectivement une superintelligence ?
Imaginez que vous êtes PDG d’une grande entreprise, mais que tout le monde dans l’entreprise fonctionne 100 fois plus vite que vous. Pouvez-vous suivre ?
Avec une IA superintelligente, vous commanderiez quelque chose non seulement plus rapide, mais fonctionnant à des niveaux de sophistication et de complexité que vous ne pouvez pas comprendre, traitant beaucoup plus de données que vous ne pouvez même concevoir.
La loi de la variété requise d’Ashby stipule, à peu près, qu’un système de contrôle doit avoir autant de boutons et de cadrans que le système contrôlé a de degrés de liberté.
« Il y a zéro exemple de plantes contrôlant des sociétés du Fortune 500, et il y aura exactement zéro exemple de personnes contrôlant des superintelligences. »
Cela approche un fait mathématique. Si vous pouviez comprendre, prédire et contrôler la superintelligence, vous seriez superintelligent.
« Si la superintelligence était construite, la question ne serait pas de savoir si les humains pourraient la contrôler, mais si nous continuerions à exister. Et sur ces questions existentielles, nous aurions peu d’emprise. L’ère humaine serait terminée. »
Comment Changer de Voie
Si la route sur laquelle nous sommes actuellement mène à la fin probable de notre civilisation, comment changeons-nous de route ?
Supposons que le désir d’arrêter de développer l’AGI soit répandu parce qu’il devient une compréhension commune que l’AGI serait un danger profond pour l’humanité. Comment fermerions-nous les portes ?
« Les mêmes capacités stratégiques qui leur permettent de poser une menace de perte de contrôle leur permettent également de prendre des emplois. Pouvez-vous faire une planification à long terme ? Êtes-vous un agent ? »
« Si nous sommes sérieux à propos de ne pas vouloir que les systèmes d’IA nous remplacent – nos emplois – nous avons besoin des mêmes limites pour empêcher ce résultat que nous avons besoin pour empêcher les résultats plus extrêmes de perdre totalement le contrôle. »
Des Solutions Concrètes
Le calcul requis pour l’IA est, comme l’uranium enrichi, une ressource très rare, coûteuse et difficile à produire. Il peut être facilement quantifié et audité. Et les puces d’IA sont beaucoup plus gérables que l’uranium car elles peuvent inclure des mécanismes de sécurité basés sur le matériel, permettant uniquement des utilisations spécifiques.
- Les puces peuvent avoir un emplacement connu et peuvent être éteintes si elles se déplacent au mauvais endroit
- Chaque puce peut être configurée avec une liste blanche appliquée par le matériel d’autres puces avec lesquelles elle peut travailler, limitant la taille des clusters de puces
- Une certaine quantité de traitement peut être autorisée, après quoi une nouvelle permission est requise
Les entreprises d’IA devraient également être responsables de tout préjudice, y compris la responsabilité personnelle des dirigeants.
Au lieu de se précipiter vers l’AGI avant de savoir comment la contrôler, nous devrions nous concentrer sur l’IA outil que nous pouvons contrôler :
- Des systèmes d’IA qui sont autonomes mais pas généraux ou super capables
- Ou généraux mais pas autonomes ou capables
- Ou capables mais étroits et très contrôlables
« L’IA outil peut fournir presque tout ce que l’humanité veut sans AGI. Il faudra plus de temps pour guérir toutes les maladies, mais une grande innovation en matière de santé n’aidera pas dans une guerre nucléaire ou la destruction de la civilisation. »
« Nous pouvons attendre jusqu’à ce que cela puisse être fait d’une manière garantie, sûre et bénéfique, et presque tout le monde récoltera encore les récompenses. Si nous nous précipitons, ce pourrait être, selon les mots de Sam Altman, ‘les lumières éteintes pour nous tous’. »
Au-delà de la Sécurité : Vers une IA Bénéfique
L’IA outil est toujours puissante et conduirait à une concentration du pouvoir et d’autres risques. De nouveaux modèles de développement public de l’IA aideraient à une propriété et une gouvernance répandues. Cela nécessiterait des institutions plus fortes.
Jusqu’à présent, l’IA a dégradé ces institutions, nous orientant vers le contenu le plus polarisant et le plus diviseur. Nous pourrions développer une IA qui suit et vérifie les informations des données brutes à travers l’analyse jusqu’aux conclusions.
L’IA pourrait permettre des formes entièrement nouvelles de discours social. Imaginez pouvoir parler à une ville avec l’IA synthétisant les points de vue, les expériences et les aspirations de millions de résidents.
Et l’IA pourrait faciliter un véritable dialogue entre des groupes qui actuellement se parlent sans se comprendre, en aidant chaque côté à mieux comprendre les préoccupations et les valeurs réelles de l’autre plutôt que leurs caricatures les uns des autres.
« Mais ne vous y trompez pas, à moins que notre trajectoire ne change, nous aurons bientôt des intelligences numériques qui sont dangereusement puissantes. »
« Quand je vais parler à certains chercheurs qui ne sont pas les PDG, et peut-être qu’ils sont dans l’équipe de sécurité, ou peut-être qu’ils travaillent simplement pour l’entreprise, ils ont peur. »
Un Avenir Différent Est Possible
« Nous n’avons pas à faire cela. Nous pouvons construire des outils d’IA incroyables sans construire une espèce successeur. »
« Nous pouvons maintenir l’IA au niveau humain et utiliser ses capacités uniques pour transformer davantage la médecine et nous libérer pour prendre soin les uns des autres. »
Des chercheurs utilisent la puissance des pensées d’un homme pour aider à surmonter sa bataille de dix ans contre la paralysie. Ils ont construit un pont numérique entre son cerveau et sa colonne vertébrale, contournant ses blessures, mettant ses pensées en action, l’IA étant utilisée comme un décodeur de pensées.
« Et si, avec de fortes garanties de sécurité, nous décidons d’aller plus loin, cette option restera ouverte. »
« À l’heure actuelle, ceux qui prennent les décisions sont les PDG des entreprises. Certains d’entre eux ont dit qu’il y a 10 ou 25% de chances d’extinction humaine. Ils décident de jouer à la roulette russe avec toute la race humaine sans notre permission. »
« Je ne laisserais pas quelqu’un jouer à la roulette russe avec l’un de mes enfants. Le feriez-vous ? »
L’Importance d’une Information Fiable
Il serait vraiment utile que les humains soient sur la même page avec des faits fiables. Après que Trump a accusé Zelensky de jouer avec la Troisième Guerre mondiale, de nouveaux rapports suggèrent que Zelensky a rejeté un accord sur les minéraux critiques avec Trump à deux reprises avant leur dispute au Bureau ovale.
Des détails cruciaux de l’histoire sont omis par les médias penchant à gauche ou à droite. Pour obtenir une image complète, visitez notre sponsor, Ground News, qui rassemble des titres de milliers de sources dans le monde entier, exposant les biais et les angles morts de chaque histoire en utilisant des évaluations de biais de trois organisations indépendantes.
L’information est une arme de guerre, et comprendre comment une histoire est racontée est aussi important que l’histoire elle-même.
