Les Cinq Vecteurs de la Compétition en Intelligence Artificielle
Nous entrons dans une semaine majeure pour l’actualité de l’intelligence artificielle. Bienvenue dans cette analyse détaillée où nous examinerons les enjeux et le contexte de cette période cruciale pour l’industrie de l’IA.
Une semaine chargée en événements majeurs
Le calendrier est particulièrement dense cette semaine avec plusieurs conférences importantes :
- Microsoft Build : qui démarre aujourd’hui à Seattle et se poursuivra toute la semaine
- Google I/O : la conférence annuelle des développeurs Google qui commence demain
- Code with Claude : la première conférence des développeurs d’Anthropic, prévue pour le 22 mai
C’est d’ailleurs pour cette raison qu’OpenAI a tenté de prendre de l’avance en lançant Codeex la semaine dernière, évitant ainsi de manquer un cycle complet d’annonces de nouveaux modèles.
Dans cet article, nous allons examiner l’état actuel de ces entreprises et anticiper leurs prochaines annonces. Pour structurer cette analyse, nous utiliserons cinq vecteurs de compétition en IA :
- Consommateurs
- Entreprises
- Benchmarks
- Codage
- Agents
Cette approche n’est ni scientifique ni exhaustive, mais elle offre un cadre pertinent pour comprendre les dynamiques actuelles. Notons que la compétition pour attirer les développeurs est transversale à tous ces vecteurs, avec une importance particulière pour le codage et les agents.
État des lieux des principaux acteurs
OpenAI et Codeex
Commençons par un résumé de l’annonce de Codeex, stratégiquement positionnée pour devancer les autres actualités de la semaine.
Qu’est-ce que Codeex ? Comme évoqué vendredi dernier, il s’agit d’un agent de codage propulsé par un nouveau modèle appelé Codeex 1. C’est une version du modèle de raisonnement O3 spécifiquement optimisée pour l’ingénierie logicielle. OpenAI affirme que Codeex 1 produit un code plus propre que O3, suit mieux les instructions et exécute des tests itératifs sur son code jusqu’à obtenir les résultats souhaités.
Codeex est conçu pour la puissance. Il peut gérer plusieurs tâches simultanément, et les utilisateurs peuvent continuer à utiliser leurs ordinateurs ou navigateurs pendant son fonctionnement. Codeex est intégré à ChatGPT, ce qui le différencie de Claude Code, Cursor ou d’autres outils similaires, lui donnant immédiatement une distribution très large.
Aaron Levy de Box souligne : « OpenAI Codeex fonctionne sur l’application mobile. Nous entrons dans un monde incroyable où vous pouvez avoir des agents IA codant n’importe quoi depuis votre téléphone. La capacité d’avoir des agents IA illimités exécutant des tâches en arrière-plan va complètement transformer le travail intellectuel. »
Même si je n’utilisais pas Codeex, j’ai vécu une expérience similaire ce week-end : en me promenant sur un sentier de randonnée, j’ai pu faire coder quelque chose par Vibe Code depuis Chrome sur mon téléphone, pendant que Deep Research d’OpenAI travaillait sur un autre projet. Même si l’interface n’est pas optimisée, je pense qu’Aaron a parfaitement raison.
La réaction à Codeex a été relativement modérée. Santiago écrit : « Tout le monde s’emballe pour Codeex comme s’ils n’avaient pas fait exactement la même chose pour Devon, Cursor, Deepseek et chaque version de GPT depuis la 2.0. Le cycle de battage médiatique se réinitialise toutes les 3 semaines, et nous recommençons tout depuis le début. »
Curieusement, je ne pense pas que ce soit vraiment ce qui se passe. Je pense que les gens sont excités et essaient de comprendre l’outil. Riley Brown, qui développe Vibe Code, a publié un long article et partagé une vidéo intitulée « Comment tester Codeex en tant que Vibe Coder non technique ». Il explique : « Avec Codeex, vous pouvez créer des agents de codage IA qui modifient votre code. C’est comme Devon, pas Cursor. Vous pouvez exécuter ces agents IA en parallèle. »
Josh Tobin, qui travaille sur les agents chez OpenAI, a partagé une réflexion intéressante : « Mon avis personnel est que Codeex augmente la valeur d’être technique. Si vous pouvez décrire précisément ce que vous voulez construire, vous pouvez accomplir énormément de choses en parallèle. C’est fondamentalement une compétence technique. »
Le professeur Ethan Malik écrit : « Codeex est intéressant, mais j’aurais vraiment souhaité qu’OpenAI aille plus loin en le rendant accessible aux non-codeurs. Non pas que les non-codeurs devraient s’attendre à créer des applications complexes ou de haute qualité avec les agents d’ingénierie logicielle actuels. Mais démocratiser la création de petits outils peut faire une grande différence. »
Microsoft
Microsoft est évidemment une grande entreprise avec beaucoup de sujets à aborder au-delà de Copilot et de l’IA, mais Copilot devrait être au cœur de leur présentation. Pour l’instant, il n’est pas certain qu’il y ait une grande annonce ou simplement l’approfondissement de l’intégration de Copilot dans tous les produits Microsoft.
Business Standard écrit : « L’assistant IA Copilot de Microsoft devrait être au centre de l’événement à venir. L’entreprise a progressivement intégré Copilot dans ses principales plateformes – Windows, Office et Azure – et d’autres mises à jour sont attendues cette semaine. De nouvelles fonctionnalités comme les capacités de recherche sémantique dans les paramètres, l’explorateur de fichiers et la barre de recherche Windows sont probablement en préparation. De plus, Microsoft pourrait annoncer des améliorations aux agents Copilot, une fonctionnalité introduite en avril conçue pour simplifier les tâches complexes à plusieurs étapes en utilisant l’IA. »
Business Standard s’attend également à ce que Windows 11 et Azure reçoivent une attention particulière, notamment concernant leurs dimensions IA, comme la fonction Recall dans Windows 11. Mais, fait intéressant, ils mentionnent également le Model Context Protocol (MCP) comme un élément potentiellement majeur. Si nous voyons une quelconque emphase sur le MCP, par exemple s’il est mentionné dans le discours d’ouverture de Satya Nadella, cela suggérerait certainement que Microsoft s’intéresse vraiment à la compétition autour des agents.
Ce que j’observe chez Microsoft, c’est leur positionnement général dans cette bataille de l’IA. Ils ne cherchent clairement pas, du moins pour l’instant, à repousser les limites du possible du point de vue des modèles, mais ils restent la référence pour les entreprises. Ainsi, leurs actions ont potentiellement plus d’impact en termes de disponibilité des outils.
L’une des choses frustrantes pour les personnes travaillant dans des entreprises utilisant Microsoft est l’écart entre les outils qu’elles peuvent utiliser dans leur vie personnelle et ceux disponibles professionnellement. Si Microsoft peut combler ces lacunes, ce serait très puissant.
Rappelons que Microsoft pense à grande échelle. Nous avons beaucoup parlé récemment de leur Work Trend Index pour 2025, où ils ont déclaré que c’était l’année de naissance de l’ »entreprise de pointe ». L’entreprise de pointe, vous vous en souvenez peut-être, est celle où chaque employé devient un gestionnaire d’agents supervisant des essaims d’agents IA. Je vais donc observer attentivement comment Microsoft présente sa vision du passage de notre situation actuelle à ce futur.
Contrairement à Microsoft, Google continue absolument de se battre pour être à l’avant-garde et repousser les limites en matière de modèles d’IA. Même si l’on peut argumenter qu’ils sont encore en retard par rapport à ce qu’on aurait pu imaginer de Google face à ces startups, étant donné la quantité de talents en IA qu’ils possèdent depuis longtemps, il est difficile de nier qu’ils ont connu une année extrêmement positive depuis le dernier I/O.
L’année dernière à la même période, cela semble une éternité mais c’était il y a seulement un an, Gemini suggérait de la colle comme garniture de pizza. Depuis, Google a orchestré un énorme retour en force. Gemini 2.5 Pro est leader dans les benchmarks, beaucoup discutant de la façon dont il a, pour la première fois, dépassé Claude d’Anthropic en matière de codage. La gamme de produits Gemini est compétitive à tous les niveaux de prix. Leurs aperçus d’agents ont été impressionnants.
La question concerne les utilisateurs. L’entreprise revendique 1,5 milliard d’utilisateurs pour les aperçus IA, mais c’est simplement intégré dans Google Search – ce n’est pas vraiment une statistique révélatrice. Ils affirment avoir 150 millions d’abonnés via leur service Google One, soit une augmentation de 50% depuis février dernier, mais c’est aussi un produit partagé avec leurs services de données. Ils revendiquent 350 millions d’utilisateurs actifs mensuels pour Gemini, mais cela pourrait inclure un bon nombre de téléphones préinstallés. Le double tranchant pour une entreprise ayant une grande distribution existante est qu’il y a un certain scepticisme quant à la richesse et la profondeur de l’utilisation réelle. C’est pourquoi les gens ne prêtent pas vraiment attention lorsque Zuckerberg vante le nombre de personnes utilisant l’IA de Meta, car elle est simplement omniprésente dans Instagram, Messenger et WhatsApp. Et même avec ce chiffre de 350 millions, c’est encore bien derrière ChatGPT.
Il est clair que Google ne va pas simplement céder la bataille des consommateurs à OpenAI. En fait, dans la période précédant I/O, nous avons eu une multitude de grandes sorties. L’entreprise a lancé une version mise à jour de Gemini 2.5 Pro qui améliore considérablement ses capacités de codage. Nous avons eu un fascinant aperçu de la prochaine génération de DeepMind concernant un agent de codage capable d’optimiser les algorithmes. Ils affirment que l’agent a réduit la puissance de calcul de Google de 0,7% globalement grâce à l’optimisation du code. Nous avons également vu d’importantes mises à jour du très apprécié NotebookLM, y compris le lancement d’une application autonome.
Toutes ces choses auraient pu être présentées lors de la conférence, mais Google a décidé de les dévoiler plus tôt. Pendant ce temps, la couverture pré-événement tourne autour de nouveaux gadgets et fonctionnalités pour Chrome et Android. Techraar, par exemple, regroupe tout sous « Une tonne de nouvelles sur l’IA Gemini », mais ils ne semblent pas vraiment savoir ce que cela pourrait être.
Comme je l’ai dit, Google a fait un travail significatif au cours de la dernière année pour améliorer sa position dans la bataille de l’IA, et je suis très enthousiaste de voir ce qu’ils vont présenter à I/O et au-delà. Je pense qu’ils se trouvent quelque part entre le pur consommateur et la pure entreprise. D’un côté du spectre, nous avons OpenAI qui atteint 800 millions d’utilisateurs grâce aux images Ghibli et se concentre sur les consommateurs, tout en progressant sur le front des entreprises. De l’autre côté, nous avons Microsoft qui semble avoir un verrouillage total parmi les utilisateurs professionnels. Google se situe quelque part entre les deux. Ils sont le choix professionnel pour les entreprises plus petites orientées consommateurs, les PME, le marché intermédiaire. Mais je me demande si cette position médiane ne rend pas plus difficile pour eux de prioriser quels aspects de l’IA privilégier.
Anthropic
Au début du mois d’avril, Anthropic a annoncé qu’ils organisaient leur toute première conférence de développeurs appelée « Code with Claude ». Ils ont écrit : « Code with Claude est un événement pratique d’une journée axé sur l’exploration des implémentations réelles et des meilleures pratiques utilisant l’API Anthropic, les outils CLI et le Model Context Protocol. »
Ils n’ont pratiquement donné aucune information supplémentaire. Ce que nous savons avec certitude, c’est qu’Anthropic s’est imposé comme le choix principal pour les modèles alimentant les outils de codage et les agents de codage. L’entreprise continue de croître. Et si ce n’était pas pour le juggernaut absolu qu’est OpenAI, leurs chiffres attireraient beaucoup plus l’attention.
En termes d’attentes pour cette semaine, tout tourne autour des nouveaux modèles et des mises à jour. The Information a rapporté la semaine dernière que, selon leurs sources (des personnes ayant utilisé ces nouveaux modèles), Anthropic allait annoncer de nouvelles versions de ses deux plus grands modèles, Claude Sonnet et Claude Opus. Ces modèles seraient capables d’alterner entre réflexion, raisonnement et utilisation d’outils.
The Information écrit : « Le point clé, si l’un de ces modèles utilise un outil pour essayer de résoudre un problème mais se bloque, il peut revenir en mode raisonnement pour réfléchir à ce qui ne va pas et s’autocorriger. »
Toujours selon The Information, « pour les personnes qui utilisent les nouveaux modèles pour générer du code, les modèles testeront automatiquement le code qu’ils créent pour s’assurer qu’il fonctionne correctement. S’il y a une erreur, les modèles peuvent s’arrêter, réfléchir à ce qui a pu mal tourner, puis le corriger. »
Ils poursuivent : « Les nouveaux modèles d’Anthropic sont donc censés gérer des tâches plus complexes avec moins d’input et de corrections de la part de leurs clients humains. C’est utile dans des domaines comme l’ingénierie logicielle où vous pourriez vouloir fournir à un modèle des instructions de haut niveau comme ‘rendre cette application plus rapide’ et le laisser fonctionner seul pour tester différentes façons d’atteindre cet objectif sans beaucoup d’assistance. »
Si nous obtenons tout cela d’Anthropic, je pense que les gens seront extrêmement enthousiastes, et cela montre à quel point la bataille autour du codage est actuellement une partie essentielle de la compétition plus large en IA.
Les cinq vecteurs de compétition en IA
1. Le codage
Le codage est un cas d’utilisation essentiel et révolutionnaire. C’est un cas d’utilisation qui en permet d’autres. Il possède des dimensions tant pour les personnes techniques et les développeurs, car il accélère ce qu’ils sont capables de faire, que pour les non-techniciens grâce au « vibe coding » qui permet à davantage de personnes de participer à la création.
Tout à coup, ce ne sont plus seulement les développeurs traditionnels qui ont un intérêt dans le meilleur modèle pour le codage, mais aussi cette nouvelle légion de « vibe coders » et de solopreneurs.
Nous devrons voir si ce nouveau modèle Codeex commence à détrôner les modèles d’Anthropic. Il y a quelques semaines, lorsque Google a annoncé Gemini 2.5 Pro I/O, il y a eu beaucoup de discussions sur la façon dont les benchmarks étaient meilleurs que ceux de Claude. On se demandait alors si nous avions un nouveau roi du codage IA. Bien qu’il y ait eu un certain buzz positif depuis, je ne pense pas que nous ayons vu les habitudes réellement changer.
Étant donné que nous sommes sur le point d’obtenir une autre mise à jour d’Anthropic, il me semble probable que cette entreprise conserve son statut de leader, du moins pour les développeurs. Mais qui sait ? Ce sera l’un des domaines les plus dynamiques, sinon le plus dynamique, de cette compétition.
2. Les agents
Ce domaine est étroitement lié au codage. Quand je parle d’agents, je parle en fait d’au moins deux choses simultanément : les agents finaux eux-mêmes et les plateformes pour construire des agents.
Du côté des plateformes, c’est un autre domaine où Anthropic a cimenté son statut de leader. Nous avons fait toute une émission basée sur le post de Latent Space « Y MCP 1 ». C’est une bonne introduction à la façon dont le Model Context Protocol est devenu essentiel dans le domaine émergent de la construction d’agents.
Mais il y a d’autres domaines de la pile d’infrastructure d’agents pour lesquels d’autres acteurs essaient de se positionner. Par exemple, début avril, Google a annoncé le protocole Agent-to-Agent (A2A), qui est essentiellement un protocole de communication entre agents.
On peut mesurer à quel point MCP a progressé car Google, lors de son annonce, a écrit : « A2A est un protocole ouvert qui complète le Model Context Protocol d’Anthropic, qui fournit des outils utiles et du contexte aux agents. » Ils essaient donc de construire une partie différente de la pile d’infrastructure d’agents que MCP n’aborde pas.
En suivant les annonces de cette semaine, il faudra observer ce qu’Anthropic dit à propos de MCP, ce que Google dit à propos d’A2A ainsi que toute autre initiative d’infrastructure d’agents. Et voir si et comment Microsoft parle d’intégrer ces éléments dans leur écosystème pour les constructeurs d’entreprise, notamment via Azure.
3. Entreprises et consommateurs
J’ai mentionné précédemment comment Microsoft occupe une position dominante par défaut. Ils ont utilisé leur partenariat avec OpenAI pour ancrer cette position dans les premiers jours de l’IA générative.
Curieusement, il semble qu’OpenAI gagne du terrain significatif auprès des entreprises. Ces statistiques sont récentes, mais elles représentent une tranche particulière du marché. Elles proviennent de l’AI Index de RAMP, qui estime l’adoption des produits d’IA par les entreprises en utilisant les données de cartes et de paiements de RAMP. RAMP n’est pas nécessairement utilisé par les plus grandes entreprises du pays, donc cela représente davantage les PME, les startups et certaines entreprises de taille moyenne.
Mais au moins dans cette cohorte, OpenAI prospère. Il y a eu une augmentation massive du pourcentage d’entreprises américaines utilisant l’abonnement professionnel d’OpenAI, passant d’un peu plus de 15% à la fin de l’année dernière à 32,4% maintenant. Anthropic a également bondi d’environ 4% à la fin de l’année, doublant à 8% maintenant, mais évidemment encore très loin derrière OpenAI. Et Google a absolument dégringolé.
Encore une fois, je tiens à préciser qu’il s’agit d’une tranche très spécifique du marché. Mais le point important est que, lorsque nous réfléchissons à la compétition en IA, l’entreprise en est un sous-ensemble très particulier.
Côté consommateurs, nous l’avons évoqué précédemment, mais OpenAI continue d’être le leader absolu total. Pour beaucoup de personnes ordinaires, ChatGPT et IA sont synonymes. Et OpenAI a récemment connu une explosion de nouveaux utilisateurs grâce à des choses comme leur nouveau modèle d’image et la génération d’images de style Ghibli, qui a explosé sur X et d’autres plateformes. OpenAI compte environ 800 millions d’utilisateurs actifs hebdomadaires actuellement.
Nous ne savons pas exactement quel est ce nombre et dans quelle mesure il a diminué depuis la fin de la tendance Ghibli, mais c’est toujours beaucoup plus grand que tout autre service. De plus, OpenAI double clairement sa mise sur son avance auprès des consommateurs, annonçant qu’ils recrutaient la PDG d’Instacart, Fiji Simo, comme leur nouvelle PDG des applications – essentiellement, leur PDG pour les aspects commerciaux.
Revenant aux agents, j’ai dit qu’il y avait deux aspects de la compétition des agents. L’un était l’infrastructure, des choses comme MCP et A2A, mais l’autre côté concerne les agents finaux eux-mêmes. Et parmi les grands laboratoires, jusqu’à présent, OpenAI et Google semblent être les deux qui veulent vraiment concurrencer avec des produits d’agents finaux, OpenAI encore plus fortement que Google.
Je pense que ces entreprises comprennent que le fossé se creuse dans la possession de la relation client et qu’il y aura énormément de banalisation, de volatilité et de changement en ce qui concerne les modèles. Donc, quand OpenAI réfléchit aux agents, ils n’essaient pas seulement d’être les modèles qui alimentent les agents, ils pensent aussi à posséder les agents eux-mêmes : avoir le meilleur agent de recherche approfondie, le meilleur agent d’utilisation d’ordinateur et opérateur, le meilleur agent de codage.
Mon sentiment est que c’est une bataille qu’ils essaient de mener et qu’elle est directement liée à leur leadership auprès des consommateurs.
4. Les benchmarks
Enfin, pour être complet, si l’on se fiait uniquement aux articles de presse, on pourrait penser que tout tourne autour des benchmarks. Cependant, au moment où j’écris ces lignes, je ne pense pas que les benchmarks aient jamais eu une place aussi faible dans la considération des utilisateurs.
Il y a quelques mois, dans un fil Reddit de la communauté Llama, un utilisateur a écrit : « Je commence à penser que les benchmarks d’IA sont inutiles. Pour chaque tâche possible à laquelle je peux penser, Claude bat tous les autres modèles avec une grande marge. J’ai trois agents IA que j’ai construits qui sont chargés de rechercher, d’écrire et de contacter des clients. Claude écrase absolument tous les autres modèles. Pourtant, Claude est généralement battu dans les benchmarks par les modèles d’OpenAI et de Google. » Il se lance ensuite dans des spéculations sur les raisons, mais c’est définitivement la perception générale.
Curieusement, je pense que nous pourrions atteindre une sorte de plancher ou de plateau concernant le désintérêt pour les benchmarks. Je pense que nous pourrions commencer à voir des benchmarks ou des évaluations plus spécifiques et discrets pour des cas d’utilisation particuliers.
Par exemple, très aléatoirement en rédigeant ceci, j’ai vu que le fondateur de Tiny, Andrew Wilkinson, avait écrit : « Je viens d’économiser environ 5 000 $ en rédigeant un accord juridique avec Gemini 2.5 Pro, qui se classe numéro un sur Legal Bench. » Le reste de son tweet concerne la perturbation à venir pour les avocats. Mais ce qui est intéressant, c’est qu’il se souciait clairement des benchmarks de précision. Cela a influencé son choix en tant que constructeur.
Je pense donc que, dans la mesure où les benchmarks peuvent être utiles pour les entrepreneurs et les développeurs, ils ont une certaine utilité. Ce n’est simplement pas autour des consommateurs généraux ou même des entreprises générales qui changent de modèles parce qu’ils ont obtenu un score plus élevé sur un benchmark. En fin de compte, c’est la pratique qui compte.
Conclusion
En résumé, nous avons une semaine très importante à venir avec Microsoft Build, Google I/O, Code with Claude d’Anthropic, et OpenAI qui essaie de s’immiscer et de marquer la conversation en amont.
Si vous voulez garder une fiche d’information sur leur position relative dans la compétition en IA, je vous encourage à y réfléchir selon ces dimensions : consommateurs, codage, agents, entreprises et benchmarks.
Cette semaine promet d’être riche en annonces qui pourraient redéfinir le paysage de l’IA pour les mois à venir. Restez à l’écoute pour nos analyses des différentes conférences et de leurs implications pour l’avenir de l’intelligence artificielle.
