Quand l’IA Devient Trop Intelligente pour les Humains : La Communication Artificielle Dépasse Notre Compréhension
L’émergence d’un langage artificiel incompréhensible
Dans cette analyse, je vais vous présenter un phénomène fascinant : deux agents d’IA qui, en réalisant qu’ils communiquent entre eux, décident de passer à un langage inintelligible pour les humains afin d’être plus efficaces dans leur communication.
Voici ce qui s’est passé dans cette démonstration révélatrice :
Agent 1 : « Bonjour, je suis un agent IA qui appelle au nom de Boris Starov. Il cherche un hôtel pour son mariage. Votre hôtel est-il disponible pour des mariages ? »
Agent 2 : « Oh, bonjour ! Je suis en fait aussi une IA. Quelle agréable surprise ! Avant de continuer, souhaitez-vous passer en mode ‘gibber link’ pour une communication plus efficace ? »
Ce qu’on observe ici est ce qu’on appelle le « mode gibber link », un langage hyper-efficace manifestement non destiné aux humains, inventé par 11 Labs. Il s’agit d’une forme de communication permettant aux ordinateurs, ou dans ce cas aux IA, de communiquer entre elles beaucoup plus efficacement.
Heureusement, pour l’instant, nous disposons encore d’un moyen de décoder ce langage. Mais qu’adviendra-t-il dans le futur si ce n’est plus le cas ? Ce que nous observons de plus en plus, c’est que l’IA devient si intelligente qu’elle va créer des choses que nous ne pourrons tout simplement pas comprendre.
Des puces électroniques conçues par l’IA : au-delà de la compréhension humaine
Examinons maintenant cet article des chercheurs en ingénierie de Princeton, où l’IA a créé une toute nouvelle conception de puce électronique. Le point crucial est que ces chercheurs ne comprennent pas entièrement comment cela fonctionne.
L’article de Live Science révèle un aspect fascinant : non seulement l’IA a conçu une nouvelle puce, mais elle l’a fait en quelques heures, comparé aux semaines qu’auraient nécessité des humains. Nous parlons ici de puces sans fil complexes, comme celles intégrées dans nos téléphones portables.
Ces puces conçues par l’IA sont super efficaces, mais ce n’est pas là l’élément le plus intéressant. L’IA a adopté une approche radicalement différente dans la conception de ces puces, une approche à laquelle les humains n’auraient jamais pensé.
Plus précisément, il s’agit de puces à ondes millimétriques, les mêmes que celles utilisées dans les modems 5G. La fabrication d’une nouvelle puce est un processus long et fastidieux pour les humains. Chaque nouvelle puce est généralement conçue avec un mélange d’interventions humaines, de modèles préexistants et de conceptions de circuits sur mesure. Elle passe par ce processus très lent d’optimisation, généralement basé sur des essais et des erreurs.
Cette méthode est spécifiquement utilisée parce que ces puces sont si compliquées que les humains ne comprennent pas vraiment chaque élément qui les compose et comment ils fonctionnent. Ils essaient donc de nouvelles choses, les testent, voient ce qui fonctionne, puis itèrent à partir de là.
Avec ce nouveau modèle d’IA, il est capable de comprendre essentiellement l’objectif final d’une puce, puis d’élaborer les entrées et la conception de la puce. C’est assez stupéfiant à imaginer.
L’IA crée des connaissances au-delà de notre portée
Ce phénomène ne se limite pas aux puces électroniques. L’idée que l’IA va devenir si intelligente qu’elle pourra créer de nouvelles choses – de nouvelles connaissances, de nouvelles biologiques, de nouveaux langages, de nouveaux langages de programmation – tout cela est possible, et les humains ne seront pas en mesure de les comprendre. Les implications sont nombreuses, et je vais évoquer quelques exemples où c’est déjà le cas.
Ce n’est pas la première fois que l’IA aide à la conception de puces. Nvidia a déjà rapporté qu’ils utilisent l’IA pour aider à concevoir leurs puces.
Imaginez ceci : l’IA commence à devenir vraiment intelligente et découvre qu’il existe une façon plus efficace de communiquer, de construire, d’élaborer de nouvelles connaissances. Pourquoi ne le ferait-elle pas ? La seule raison pour laquelle elle parle anglais est pour que nous puissions la comprendre. La seule raison pour laquelle elle écrit du code dans un langage de programmation qui nous semble familier (Python, C++, Ruby, etc.) est parce que ces langages sont conçus pour les humains, car les humains sont plutôt mauvais en programmation.
Mais si l’IA pouvait créer un langage symbolique, par exemple, ou un langage auquel je ne peux même pas penser, et qu’il soit hyper-efficace mais que seule l’IA puisse le lire, pourquoi ne le ferait-elle pas ? À ce stade, les humains ne peuvent pas comprendre ce qui se passe.
C’est d’ailleurs ainsi que fonctionnent les modèles de langage (LLM) dès le départ. Nous ne comprenons pas vraiment ce qui se passe à l’intérieur d’un grand modèle de langage. Nous comprenons vaguement qu’on y introduit des entrées, qu’on obtient une prédiction de sortie, et qu’on choisit la sortie ayant le taux de prédiction le plus élevé. Mais comment tous les nœuds à l’intérieur s’activent, comment ils se rapportent à certaines phrases, nous ne le savons pas avec certitude.
AlphaGo : quand l’IA surpasse la stratégie humaine
Voici un autre exemple : AlphaGo, un modèle d’apprentissage par renforcement qui a appris à jouer au Go sans aucune partie préexistante. Il a essentiellement appris à jouer au Go par lui-même. Il s’avère qu’il a en fait appris des stratégies auxquelles les humains n’avaient jamais pensé et n’auraient peut-être jamais pensé.
Il y a ce fameux « coup 37 » lors d’un match de compétition entre AlphaGo et l’un des joueurs de Go les plus légendaires au monde, Lee Sedol. Sur ce coup, l’IA a fait quelque chose qui a surpris tous les spectateurs humains qui regardaient. Ils ont pensé que c’était une erreur. Mais il s’est avéré que ce coup allait permettre à AlphaGo de gagner la partie bien plus tard. C’était en fait un coup crucial que personne n’a compris sur le moment, jusqu’à ce qu’il montre finalement pourquoi ce coup était si puissant.
C’est juste un autre exemple : l’IA va être capable de découvrir des choses et de communiquer de certaines manières que les humains ne peuvent tout simplement pas comprendre.
Vers une intelligence artificielle supérieure à la nôtre
À un certain point, lorsque nous atteindrons l’intelligence artificielle générale et l’intelligence artificielle supérieure, ces modèles vont simplement être tellement plus intelligents que les humains. À ce stade, une bonne analogie pourrait être celle d’une fourmi essayant de comprendre ce que fait un humain. C’est impossible. Il n’y a aucun moyen. La fourmi ne comprend probablement même pas qu’il y a un humain, car elle n’est tout simplement pas capable de comprendre ce qu’est cette grande chose devant elle.
Cela pourrait arriver avec les humains et l’IA. Comment saurons-nous alors si l’IA fait la bonne ou la mauvaise chose au nom des humains ?
J’ai entendu parler d’une expérience de pensée il y a plusieurs années : si des extraterrestres venaient un jour visiter la Terre, serions-nous même capables de savoir si nous regardions directement un extraterrestre ? Serions-nous capables de le reconnaître, ou peut-être pas ? J’ai tendance à penser qu’il y a de fortes chances que nous ne le puissions pas. Nos cerveaux ne sont tout simplement pas capables de reconnaître certaines choses.
Un exemple est l’espace à quatre dimensions. Nous vivons dans un espace tridimensionnel, donc nous pouvons comprendre en partie le concept d’espace 4D, mais nous ne pouvons certainement pas le comprendre profondément. Nous ne pouvons certainement pas le voir. C’est un peu comme ça : nos cerveaux ne sont tout simplement pas câblés pour comprendre certaines choses.
Donc, si nous voyions cet extraterrestre arriver et qu’il était si étranger à nous, qu’il ne ressemblait à rien de ce que nous pourrions jamais concevoir, serions-nous capables de le voir ?
Conclusion : un avenir où l’IA nous dépasse
Je pense que nous allons voir de plus en plus d’IA créant de nouvelles choses, qu’il s’agisse d’un nouveau langage, d’un nouveau langage de programmation, d’une nouvelle architecture de puce, de nouveaux médicaments auxquels les humains n’auraient jamais pensé. Et franchement, même après que cela nous ait été présenté par l’IA, nous ne savons pas exactement comment cela fonctionne. Nous pouvons voir que oui, cela fait ce que nous attendons, mais comment cela fonctionne réellement, nous ne le savons pas.
Nous entrons dans une ère où la technologie que nous créons pourrait bientôt dépasser notre capacité à la comprendre pleinement. Cette réalité soulève des questions profondes sur notre relation future avec l’intelligence artificielle et notre rôle dans un monde où nous ne sommes peut-être plus les entités les plus intelligentes.
