xAI acquiert X.com : Elon Musk fusionne ses entreprises dans une bataille pour la suprématie de l’IA
Dans une manœuvre susceptible de bouleverser la bataille pour la suprématie de l’IA, xAI d’Elon Musk a acquis X.com, également propriété d’Elon Musk. Cette fusion stratégique représente un moment décisif dans l’évolution du paysage de l’intelligence artificielle générative.
Les détails de l’acquisition
L’annonce est tombée tard vendredi, à 17h20 heure de l’Est. xAI, la société mère de Grok et le foyer de toutes les aventures d’Elon Musk dans l’IA générative, a acquis X (anciennement Twitter) dans une transaction entièrement en actions.
La combinaison valorise :
– xAI à 80 milliards de dollars
– X à 33 milliards de dollars (45 milliards moins 12 milliards de dette)
Depuis sa fondation il y a deux ans, xAI est rapidement devenu l’un des laboratoires d’IA les plus importants au monde, construisant des modèles et des centres de données à une vitesse et une échelle sans précédent. X, de son côté, est décrit comme la « place publique numérique » où plus de 600 millions d’utilisateurs actifs vont chercher la « source de vérité en temps réel ».
Selon le communiqué officiel : « L’avenir de xAI et de X sont étroitement liés. Aujourd’hui, nous franchissons officiellement l’étape de combiner les données, les modèles, la puissance de calcul, la distribution et les talents. Cette combinaison débloquera un potentiel immense en mélangeant les capacités avancées d’IA et l’expertise de xAI avec la portée massive de X. »
Une transaction inhabituelle mais logique
Bien que les deux sociétés soient privées et qu’Elon Musk ait probablement le soutien des investisseurs, l’accord est loin d’être conventionnel. Selon le Wall Street Journal, les nouvelles valorisations ont été déterminées lors de négociations entre les deux entités de Musk, qui avaient toutes deux le même conseiller.
La dernière levée de fonds de xAI remonte à décembre, où l’entreprise était valorisée à environ 40 milliards de dollars. Cette transaction implique donc un doublement de sa valeur en seulement trois mois – une accélération impressionnante, mais pas totalement déconnectée du monde de l’IA actuel.
Le Journal souligne que ce n’est pas la première fois qu’Elon procède de cette façon. En 2016, il avait utilisé des actions Tesla pour acheter son entreprise d’énergie solaire, SolarCity. Musk semble être un excellent négociateur… lorsqu’il négocie avec lui-même.
Pourquoi cette fusion a du sens
Au-delà des mécanismes et des valorisations, il est très clair pourquoi cette fusion est logique pour les deux entreprises :
- Musk a déjà reconnu que le modèle Grok était entraîné sur les données de X
- Le chatbot est maintenant intégré à la plateforme comme assistant natif
- Les deux plateformes sont déjà profondément liées dans leur expérience utilisateur, leurs ressources et même une partie de leur personnel
Pour X, la fusion réduit la pression de prospérer exclusivement en tant que plateforme de médias sociaux indépendante. Les revenus publicitaires n’ont pas été sans défis depuis que Musk a pris le contrôle en 2022, et bien qu’il y ait eu des signes de reprise ces derniers mois, X a maintenant la valeur économique supplémentaire de devenir simplement un référentiel de données et un portail pour xAI.
Opinions divisées sur cette acquisition
Les opinions sur cette transaction, comme pour beaucoup de choses dans l’univers d’Elon Musk, dépendent essentiellement de ce que vous pensez d’Elon Musk lui-même.
Les partisans de Musk
Fernando Cow écrit : « Quand Musk a acheté Twitter, tout le monde était confus. Pourquoi un homme concentré sur les véhicules électriques, les voyages spatiaux et les interfaces neurales voudrait-il une plateforme de médias sociaux ? Mais Musk avait une vision qui ne devient claire que maintenant. Il n’achetait pas une entreprise de médias sociaux, il acquérait une mine d’or de données. X possédait quelque chose d’incroyablement précieux dont la plupart des entreprises d’IA ont désespérément besoin : des données diverses générées par l’homme en temps réel, provenant de 600 millions d’utilisateurs actifs. C’est le carburant parfait pour les modèles d’IA, et c’est exactement ce dont xAI a besoin pour rivaliser avec OpenAI et Anthropic. »
L’investisseur Chamath Palihapitiya écrit : « Le modèle d’IA grand public le mieux classé actuellement vient d’acquérir le corpus le plus complet d’informations en temps réel à grande échelle sur Internet. Les données feront partie du pré-entraînement pour rendre les modèles que xAI fabrique encore plus différenciés. C’est un mouvement intelligent à un moment où d’autres fabricants de modèles sont ralentis par des poursuites judiciaires concernant les droits d’auteur comme OpenAI, ou par des problèmes de qualité de pré-entraînement comme Meta. »
Les critiques
Compound 248 écrit : « Il est difficile de savoir quoi penser de l’achat de X par xAI. Mon intuition est que c’est un mélange de désespoir. En surface, l’accord valorise X au même niveau que lors du rachat de Twitter en 2022, malgré des performances financières nettement inférieures. Cela semble être une victoire pour les actionnaires de X, mais c’est une transaction en actions, et les propriétaires de X posséderont maintenant 29% de l’entreprise combinée, passant d’un pari presque pur sur les médias sociaux à un pari sur l’IA. Oui, xAI est un modèle puissant, mais pas exceptionnellement. xAI a des revenus minimes, perd énormément d’argent, et son opportunité commerciale prospective semble très difficile compte tenu de la concurrence pertinente. La dette de 12 milliards de dollars de X ne disparaît pas, l’entreprise sera en mode de levée de fonds perpétuelle jusqu’à ce que cela change. »
Une critique plus sévère vient d’Adam Cochran qui écrit : « En d’autres termes, Musk a utilisé ses actions xAI surévaluées pour payer plusieurs fois la valeur de X, tout en prenant une perte de 11 milliards de dollars sur la transaction, tout en arnaquant les investisseurs de xAI et de X, et pour vendre vos données à sa propre entreprise d’IA. De plus, valoriser Grok à 80 milliards est follement stupide. La seule chose que Grok fait bien est l’accès en temps réel aux données de Twitter, mais autrement, ce n’est pas un modèle révolutionnaire et il est terriblement monétisé. »
L’importance des données et de l’expérience intégrée
La perspective modérée se concentre vraiment sur les données. Raoul Pal de Real Vision écrit : « Il s’agissait toujours des données pour l’IA. J’en ai parlé quand il a acheté X pour la première fois et j’ai dit que c’était une aubaine à l’époque en raison des données d’entraînement pour l’IA. Et l’IA concerne les robots, et les robots concernent Mars, comme tout le reste. »
Je pense que si l’accent mis sur les données a du sens, les gens pourraient sous-estimer la valeur de l’expérience intégrée avec le contenu de Twitter. Dans la mesure où ces entreprises sont toutes en concurrence pour être le portail de recherche de la prochaine génération, Grok offre quelque chose de fondamentalement différent qu’aucun des concurrents (Google, OpenAI, Anthropic, Perplexity, etc.) n’offre : la capacité d’intégrer la méta-conversation dans la recherche approfondie.
J’ai un point de vue particulier sur ce sujet, ayant maintenant créé deux podcasts pour lesquels une proposition de valeur majeure est le fait que nous ne parlons pas seulement des nouvelles, mais aussi des discussions autour des nouvelles. Ce qui prend le plus de temps dans la production de ces podcasts, c’est de comprendre des dizaines, voire des centaines d’opinions différentes sur tout ce qui se passe, afin de pouvoir synthétiser cela en une vision cohérente, non seulement de ce qui s’est réellement passé, mais de ce qui est susceptible de se produire ensuite en fonction de la façon dont les gens reçoivent ces nouvelles.
Je pense que la fusion Grok-Twitter a une valeur au-delà d’un simple jeu de données de pré-entraînement.
Au-delà de Grok : l’état de la bataille des laboratoires d’IA de pointe
Que se passe-t-il au-delà de Grok dans la bataille pour la suprématie de l’IA ? Alors qu’ailleurs dans l’espace de l’IA, les plus grands acteurs semblent se battre pour le leadership dans les principales verticales.
OpenAI vs Anthropic : la bataille du codage
Nous avons largement discuté du nouveau générateur d’images d’OpenAI qui a monopolisé l’attention, mais comme il était si dominant la semaine dernière, beaucoup de gens ont manqué le fait que la domination d’Anthropic dans le codage semble être contestée pour la première fois depuis des mois.
La même mise à jour GPT-4o qui a rendu ChatGPT tellement meilleur en génération d’images a également rendu le modèle bien meilleur en codage. Selon l’indice d’intelligence d’Artificial Analysis, GPT-4o est maintenant le meilleur modèle sans raisonnement, dépassant Claude 3.7 Sonnet d’Anthropic.
Leur indice combine une gamme de différents benchmarks de codage et de connaissances pour obtenir un score d’intelligence mixte, mais en examinant les scores spécifiques au codage, GPT-4o est maintenant en tête du classement.
Google entre dans la course avec Gemini 2.5
En même temps, il y a aussi beaucoup de discussions sur le fait que Gemini 2.5 de Google serait un standard de codage encore meilleur. Lors de la sortie de la semaine dernière, le modèle de raisonnement était clairement un assistant de codage performant selon les benchmarks.
Après l’avoir testé pendant quelques jours, Venture Beat a expliqué pourquoi ce modèle pourrait représenter un grand pas en avant pour les programmeurs. Ils ont noté que, comme les modèles d’OpenAI, Google fournit un accès complet au raisonnement en chaîne pour les programmeurs. Cela signifie que vous pouvez suivre le modèle avec précision et auditer leurs résultats, en détectant et en corrigeant les erreurs en cours de route.
Venture Beat a écrit : « En termes pratiques, c’est une percée pour la confiance et la dirigeabilité. Les utilisateurs d’entreprise évaluant les résultats pour des tâches critiques comme l’examen des implications politiques, la logique de codage ou la synthèse de recherches complexes peuvent désormais voir comment le modèle est arrivé à une réponse. Cela signifie qu’ils peuvent valider, corriger ou rediriger avec plus de confiance. C’est une évolution majeure par rapport au sentiment de ‘boîte noire’ qui afflige encore de nombreuses sorties de LLM. »
De nombreux codeurs ont également découvert que Gemini 2.5 Pro est bien meilleur pour réussir des tâches en une seule fois. Le raisonnement solide est une explication possible : le modèle expose sa conception et sa structure de code avant d’écrire une seule ligne de code.
Cela pourrait aussi être simplement un artefact de l’observabilité permettant aux programmeurs de voir exactement ce que fait le modèle tout au long du processus. Un autre avantage qui pourrait aider est la fenêtre de contexte d’un million de tokens de Gemini. Anthropic ne se prépare que maintenant à publier une fenêtre de contexte de 500 000 tokens pour Claude, une mise à niveau par rapport aux 200 000 tokens qu’ils offrent actuellement. Les grandes fenêtres de contexte permettent de télécharger des bases de code plus importantes et, plus important encore, d’être comprises par le modèle tout en travaillant sur des problèmes de codage.
Le potentiel inexploité des capacités multimodales
Une fonctionnalité qui semble également sous-explorée pour le moment est les nouveaux flux de travail ouverts par les capacités de raisonnement multimodal présentes dans Gemini 2.5 Pro. Comme la nouvelle version de GPT-4o, Gemini 2.5 peut appliquer un raisonnement natif aux entrées d’image.
Ceci est précieux pour plus que permettre à ces modèles de modifier facilement des images. Les développeurs commencent à réaliser qu’il y a beaucoup de fruits à portée de main avec cette fonctionnalité. Yansy Min, un concepteur de plug-in AI Figma, a parcouru une session de bricolage avec GPT-4o. D’abord, il a découvert que le modèle peut prendre du code d’interface et générer une image de l’interface. Ensuite, il a constaté que le modèle peut modifier le code en fonction des modifications visuelles apportées à l’interface. Dans ce cas, Min a brossé un onglet dans l’image et le modèle a changé le code pour déplacer l’onglet vers le haut de l’écran. Gemini 2.5 Pro prend en charge le même raisonnement multimodal.
En résumé, nous ne faisons qu’effleurer la surface de ce que tout cela peut faire.
L’évolution vers des cas d’utilisation spécifiques
Le PDG de Google, Sundar Pichai, laisse également entendre une mise à jour majeure du support agentique, tweetant : « To mCP or not to mCP, that’s the question. Let me know in the comments. » Comme vous pouvez l’imaginer, les réponses étaient fortement en faveur du soutien de Google au protocole universel pour les outils agentiques.
Pour prendre du recul et résumer tout cela, c’est une évolution vraiment réfléchie de la bataille des modèles de pointe. De plus en plus, la compétition va porter moins sur les performances générales et plus sur des cas d’utilisation spécifiques. Nous évoluons de telle manière que les gens intègrent réellement ces outils au cœur de flux de travail nouveaux et existants, et ils choisissent les meilleurs modèles, les meilleures interfaces, les meilleures expériences et les meilleurs produits pour ce qu’ils essaient de faire.
Le codage est clairement l’un des cas d’utilisation les plus prometteurs, ce qui explique pourquoi il y a tant de concurrence autour de lui. La recherche approfondie de style sera également clairement une expérience fondamentale, et c’est pourquoi la fusion xAI-X est plus qu’une simple ingénierie financière d’Elon.
Finalement, je m’attends à ce qu’au cours de l’année prochaine, nous voyions non seulement des mises à niveau continues des modèles sous-jacents, mais aussi de plus en plus d’accent sur ces domaines spécifiques et ces cas d’utilisation spécifiques où le caoutchouc touche réellement la route en ce qui concerne les applications commerciales de la technologie sous-jacente.

