Comment la relation complexe entre OpenAI et Microsoft façonne le développement de l’IA
La dynamique changeante d’un partenariat fondamental
Le site The Information a récemment publié un rapport sur les dernières tensions entre Microsoft et OpenAI. Examinons comment ces potentielles frictions et rivalités internes influencent en réalité le développement dans l’espace plus large de l’intelligence artificielle.
L’une des relations les plus fondamentales qui a façonné l’IA ces dernières années est sans aucun doute celle entre Microsoft et OpenAI. Microsoft a investi un capital considérable dans OpenAI, tant avant qu’après le lancement de ChatGPT, une initiative qui a inspiré de nombreuses relations non traditionnelles entre les laboratoires à la frontière de l’innovation et leurs homologues fortunés de la Big Tech.
Ce type de relation a été particulièrement important car il a créé une source de capital qui dépassait les capacités traditionnelles du capital-risque. De plus, cette alliance a placé les modèles d’IA les plus avancés directement dans le champ de vision des entreprises grâce à l’intégration avec Azure. Pourtant, il s’agit d’une relation complexe, que l’on pourrait qualifier d’ »amis-ennemis » (frenemy).
Les tensions récentes et la quête d’indépendance
The Information a récemment publié un long article sur les dernières évolutions de cette relation ambivalente, qui semble devenir potentiellement encore plus tendue. Ce qui rend cette mise à jour d’autant plus intéressante, c’est qu’elle suggère également que Microsoft progresse dans sa quête d’indépendance.
Pour contextualiser, il est important de reconnaître comment le moment charnière du licenciement puis de la réembauche de Sam Altman a façonné tous les événements ultérieurs. À l’époque, l’une des façons dont Sam Altman a pu retrouver son pouvoir était que Microsoft allait créer une nouvelle division où il pourrait effectivement recréer OpenAI au sein de Microsoft. La majorité des employés d’OpenAI prévoyaient de le suivre, ce qui a finalement forcé le conseil d’administration à revenir sur sa décision.
Tout au long de cette procédure, Satya Nadella a déclaré que Microsoft était agnostique quant à l’issue de la situation – qu’ils seraient heureux de continuer à travailler avec OpenAI comme avant ou avec cette nouvelle entité reconstituée en interne. Cependant, cela a clairement été un signal d’alarme pour Microsoft concernant la volatilité potentielle d’une telle dépendance envers OpenAI en tant que partenaire.
À l’époque, une partie du défi résidait dans les termes de leur accord qui comportait une disposition étrange et assez vague stipulant que l’accord serait rompu et que Microsoft n’aurait plus d’accès préférentiel aux modèles d’OpenAI une fois l’AGI (Intelligence Artificielle Générale) atteinte. Bien sûr, la définition même de l’AGI restait floue, cette décision étant laissée au conseil d’administration d’OpenAI. Cependant, après cette période où le conseil d’OpenAI semblait si capricieux, il est très clair que Microsoft a senti qu’ils devaient commencer à affirmer leur indépendance plus rapidement.
L’embauche stratégique de Mustafa Suleyman
Cela a ensuite conduit à l’embauche de Mustafa Suleyman et d’une grande partie de l’équipe d’Inflection. Suleyman, qui avait également cofondé Google DeepMind avant de quitter Google et de fonder Inflection, a été chargé de faire exactement ce qu’Altman aurait fait s’il était effectivement venu : construire une nouvelle division au sein de Microsoft qui non seulement gérerait la relation avec OpenAI (bien que cela en fasse partie), mais qui construirait également leurs propres modèles.
Beaucoup a été dit sur les défis que Mustafa Suleyman a rencontrés pour réorganiser les équipes internes de Microsoft, déplaçant des personnes de différentes divisions de l’entreprise. Il y a eu des départs très médiatisés et des critiques publiques, bien qu’il ne soit pas clair qu’il y ait particulièrement plus de ces événements que dans n’importe lequel de ces grands laboratoires d’IA avec leur porte tournante effective de talents.
Une escalade des tensions
La nouvelle partie de ce rapport de The Information révèle d’abord que la relation s’est tendue davantage après qu’OpenAI a présenté à Microsoft son premier modèle de raisonnement, O1. Satya Nadella voulait apparemment plus d’informations sur le fonctionnement d’OpenAI, mais OpenAI ne voulait pas les lui donner. The Information écrit : « Élevant la voix, Satya a dit aux employés d’OpenAI, y compris Mira Murati, alors directrice technique d’OpenAI, que la startup d’IA ne respectait pas sa part de l’accord étendu qu’elle a avec Microsoft. L’appel s’est alors terminé brusquement. »
Cette tension est bien plus forte que ce qui a été rapporté précédemment. C’est une chose de voir que chaque partie fait des mouvements pour exprimer une certaine indépendance l’une envers l’autre, c’en est une autre d’entendre parler d’une dispute interne où OpenAI refusait activement de révéler à Microsoft les détails techniques clés de ses dernières innovations.
Microsoft développe ses propres modèles
L’autre partie de la mise à jour de The Information révèle cependant que les chercheurs en IA de cette division Microsoft ont maintenant terminé l’entraînement d’une famille de modèles Microsoft qui, selon eux, fonctionnent « presque aussi bien que les modèles leaders d’OpenAI et d’Anthropic ». L’équipe entraîne également apparemment des modèles de raisonnement qui pourraient concurrencer directement O1 et O3.
La nouvelle famille de modèles s’appelle MAII, probablement l’abréviation de Microsoft AI, et selon ce rapport, l’équipe de Microsoft expérimente déjà le remplacement des modèles OpenAI actuellement dans Microsoft Copilot par leurs modèles MAII. Ce serait un énorme changement pour Microsoft. Jusqu’à présent, les seuls modèles qu’ils ont publiés sont la série de modèles Phi, qui étaient des modèles beaucoup plus petits conçus pour une utilisation sur appareil et qui ne concurrençaient pas directement OpenAI.
Après que The Information a commencé à rapporter cela, Bloomberg l’a également repris, amenant un porte-parole de Microsoft à donner une réponse évasive : « Comme nous l’avons déjà dit, nous utilisons un mélange de modèles qui inclut la poursuite de notre partenariat profond avec OpenAI ainsi que des modèles de Microsoft AI et des modèles open source. »
Que se passe-t-il réellement ?
Tout d’abord, il y a clairement une poussée vers l’indépendance et plus spécifiquement une poussée vers l’autonomie. Comme je l’ai dit depuis le licenciement d’Altman, cela a tout simplement du sens du point de vue de Microsoft. Ce serait, à mon avis, un manquement à la responsabilité fiduciaire pour eux de ne pas réfléchir à la façon d’obtenir plus d’indépendance. C’est pourquoi je n’ai jamais pensé qu’ils tenaient réellement un double discours lorsque ce genre de choses se produit en privé, mais qu’ils affirment publiquement que la relation est toujours importante. Je pense que ces deux éléments peuvent être vrais en même temps.
Le défi pour Microsoft, bien sûr, est que même s’il est formidable qu’ils aient enfin des modèles internes qui commencent à atteindre le niveau des modèles publiquement disponibles d’OpenAI, cela les place encore fondamentalement derrière. Cela ne rend pas viable, de manière réaliste, le remplacement des modèles d’OpenAI. En fait, dans la mesure où Microsoft essaie de tracer une voie vers l’autonomie, ils ont encore beaucoup de travail devant eux.
Une divergence de priorités
Une note supplémentaire intéressante est que je me demande un peu si cette divergence ne concerne pas le fait que l’une ou l’autre partie ne fait pas confiance à l’autre, ou qu’il y a quelque chose de fondamentalement erroné dans la relation commerciale telle qu’elle est constituée maintenant, mais plutôt s’il n’y a pas, dans une certaine mesure, également une évaluation distincte des priorités.
Sur cette note, la semaine dernière, Satya a posté sur Twitter : « Le futur est conversationnel. Vous parlerez avec des sites, vous ne les ferez pas défiler ou ne les rechercherez pas. Communication bidirectionnelle, pas consommation unidirectionnelle. » Il a ensuite partagé un billet de blog à ce sujet intitulé « Transformer l’avenir de l’engagement du public ».
Cet article donne l’impression que Satya s’intéresse à la construction de l’interface d’agent vocal sous-tendant un nouvel ensemble de produits à l’avenir, alors qu’il me semble qu’OpenAI se dirige davantage vers la construction de produits de consommation spécifiques qui leur permettent effectivement de conserver la relation avec le client.
Par exemple, il me semble que tous les indices que nous recevons indiquent qu’OpenAI va se déplacer assez agressivement dans l’espace des agents, non seulement en ayant des modèles qui sous-tendent d’autres agents, mais en délivrant spécifiquement des expériences pour les consommateurs et pour les entreprises autour d’agents spécifiques, comme les agents de vente.
En d’autres termes, prenez quelque chose comme la recherche approfondie, mais rendez-le pour un cas d’utilisation très spécifique, une fonction très spécifique au sein de l’entreprise, et possédez effectivement le client de cette manière. Il y a toute une conversation distincte à avoir sur les raisons pour lesquelles cela pourrait être une stratégie intéressante pour OpenAI, étant donné la commoditisation qui se produit au niveau du modèle de fondation, mais dans tous les cas, je pense qu’il est important de garder un œil sur le fait qu’il ne s’agit peut-être pas seulement de deux entreprises qui ne se font plus confiance, mais de deux entreprises dont les objectifs étaient totalement alignés pendant un certain temps, mais dont les priorités changent de la manière dont les priorités changent parfois.
Implications pour l’industrie
Je pense qu’il y a des implications pour l’industrie. En bref, ces deux entreprises étant liées l’une à l’autre signifie qu’elles ont plus d’incitation et plus de latitude pour s’impliquer avec d’autres, et étant donné la taille de ces deux entreprises, le fait qu’elles aient plus d’espace pour s’impliquer avec d’autres entreprises peut avoir des impacts assez dramatiques.
Prenez par exemple cette nouvelle selon laquelle OpenAI conclut un accord avec CoreWeave. CoreWeave est bien sûr un fournisseur de cloud IA très médiatisé qui se prépare à entrer en bourse, et Reuters rapporte qu’OpenAI a signé un accord de services cloud de 5 ans d’un milliard de dollars qui impliquera non seulement qu’OpenAI achète de la puissance de calcul auprès d’eux, mais qu’ils reçoivent également 350 millions de dollars d’actions dans un placement privé autour de l’introduction en bourse de l’entreprise.
Pour CoreWeave, c’est une excellente affaire car, dans la mesure où ils ont un talon d’Achille pendant cette introduction en bourse, c’est que leur base de clients est extrêmement concentrée. En 2024, Microsoft représentait 62% des revenus de CoreWeave.
TechCrunch semblait voir cela comme un jeu d’échecs en 5D, soulignant qu’OpenAI possédera désormais une part décente de l’un des principaux fournisseurs de puissance de calcul IA de Microsoft. Je ne suis pas totalement sûr que ce soit la bonne lecture de la situation. Microsoft a signalé un ralentissement des contrats de location de centres de données, ce qui a coïncidé avec la rupture par OpenAI de leur accord cloud exclusif avec Microsoft. Il me semble que cet accord pourrait représenter OpenAI prenant la place de Microsoft en tant que client principal de CoreWeave et éliminant l’intermédiaire désormais de plus en plus désintéressé.
Le projet Stargate et les nouvelles alliances
Un autre ensemble de relations qui se sont ouvertes pour OpenAI en dehors de Microsoft est leur partenariat avec Oracle et SoftBank. Les premiers accords émergent pour la construction du projet Stargate, avec le premier projet de centre de données des trois partenaires déjà en cours sur leur premier site au Texas.
Bloomberg rapporte que le site devrait héberger 64 000 Nvidia GB200s, la version haut de gamme de leur puce Blackwell de nouvelle génération. L’installation se fera par phases, avec 16 000 puces qui devraient être prêtes à être mises en service d’ici l’été. Selon des sources, la construction complète devrait être achevée d’ici la fin de l’année prochaine.
Franchement, certains disent que ces chiffres semblent un peu bas pour ce qui était présenté comme un projet définissant la civilisation, avec Sam Altman parlant de construire des monuments dans le désert. Cela dit, aucun centre de données ne fait fonctionner des puces Blackwell à grande échelle à ce stade, donc nous ne savons pas à quel point elles seront plus puissantes.
Toujours est-il que le centre de données Colossus de xAI fait fonctionner un réseau de 100 000 puces H100 de Nvidia, de la génération précédente, et leurs plans sont de construire ce site pour héberger un million de puces dans un gigantesque super cluster. Meta a des ambitions similaires. En janvier, Mark Zuckerberg a annoncé des plans pour construire un centre de données de 2 gigawatts, assez grand pour « couvrir une partie significative de Manhattan ». L’entreprise a l’intention de terminer l’année avec 1,3 million de GPU dans leur flotte de centres de données.
Bien sûr, le projet Stargate est prévu sur plusieurs sites supplémentaires, donc je pense qu’il est important de ne pas trop interpréter cela pour l’instant.
Conclusion : une indépendance bénéfique pour l’écosystème de l’IA
En fin de compte, le cas de base est que le partenariat Microsoft et OpenAI se poursuivra bien dans un avenir prévisible. Il pourrait évoluer et changer, il est déjà moins exclusif qu’il ne l’était autrefois, mais je pense que ces entreprises vont continuer à s’appuyer l’une sur l’autre, même s’il y a quelques tensions lors des réunions à huis clos.
En même temps, il est assez clair qu’à ce stade, les deux entreprises tracent des voies indépendantes. L’opportunité est simplement trop grande pour qu’elles se limitent l’une à l’autre, et cela aurait toujours été le cas.
En fin de compte, je pense que c’est très positif pour le monde plus large de l’IA que ces deux entreprises opèrent indépendamment. Cela crée plus d’espace pour les opportunités et les partenariats, et la concurrence tend à bénéficier à tout le monde. Je n’irais pas jusqu’à dire que cela devrait nous faire applaudir le drame, mais cela signifie définitivement que je ne m’en inquiète pas.
Cette dynamique changeante entre deux géants technologiques nous rappelle que dans le monde de l’IA, les alliances stratégiques continuent d’évoluer au gré des intérêts commerciaux et des avancées technologiques. L’avenir nous dira comment ces relations complexes façonneront le développement de l’intelligence artificielle dans les années à venir.
