La Plus Grande Acquisition en IA des 5 Dernières Années : ServiceNow Achète MoveWorks pour 2,85 Milliards de Dollars
La plus importante acquisition dans le domaine de l’IA depuis 5 ans
Aujourd’hui, nous allons parler de la plus grande acquisition dans le domaine de l’intelligence artificielle depuis environ cinq ans. Mais s’agit-il vraiment d’une affaire aussi importante qu’on le prétend ?
Récemment, des rumeurs ont commencé à circuler selon lesquelles ServiceNow était en pourparlers pour acquérir MoveWorks. MoveWorks, fondée en 2016, génère environ 100 millions de dollars par an. Selon les termes qui ont fuité, cette acquisition semblait potentiellement être la plus importante dans le secteur de l’IA depuis un certain temps.
Cette transaction est désormais confirmée : ServiceNow a acheté MoveWorks pour 2,85 milliards de dollars. Pour ceux qui ne connaissent pas ServiceNow, il s’agit d’une entreprise SaaS qui fournit des outils d’automatisation pour les entreprises. MoveWorks apportera son expertise dans l’offre d’assistants IA qui traitent les demandes des employés, comme le support informatique et les ressources humaines.
Dans un communiqué de presse, le directeur des opérations de ServiceNow, Amit Zavery, a déclaré : « Avec l’acquisition de MoveWorks, ServiceNow fera un autre bond de géant dans la transformation des entreprises grâce à l’IA agentique. L’équipe talentueuse de MoveWorks et son expérience élégante axée sur l’IA, combinées à la puissante automatisation des flux de travail basée sur l’IA de ServiceNow, vont stimuler l’adoption de l’IA à l’échelle de l’entreprise et offrir des résultats révolutionnaires pour les employés et leurs clients. »
Selon Zavery, l’acquisition permettra à ServiceNow de construire une plateforme qui « combine les forces de ServiceNow en matière d’IA agentique et d’automatisation avec l’assistant IA et la technologie de recherche d’entreprise de MoveWorks. »
ServiceNow a certainement poussé agressivement dans le domaine de l’IA et a développé une grande partie de sa stratégie par le biais d’acquisitions. Par exemple, en janvier, ils ont acquis Qin, une plateforme d’analyse de données conversationnelles. À la fin de l’année dernière, ServiceNow a déclaré avoir mille clients utilisant ses solutions d’IA, ce qui représente environ 200 millions de dollars en valeur de contrats annuels.
Ce qui est intéressant, c’est que MoveWorks était assez précoce dans ce domaine. Ils ont atteint une valorisation de 2,1 milliards de dollars dès 2021, ce qui semble être une époque ancienne maintenant. Ils ont réussi à naviguer de l’ère de l’automatisation à l’ère agentique.
Ce que cette acquisition révèle pour le secteur, c’est simplement que l’IA d’entreprise est un marché très important et qu’il ne fera que croître davantage.
Les projets vocaux de Meta pour Llama 4
Passons maintenant aux nouvelles concernant ce que Meta développe. Apparemment, leur prochain modèle d’IA sera doté d’un mode vocal. Selon le Financial Times, Meta prévoit d’introduire des fonctionnalités vocales dans leur prochain LLM open source, Llama 4.
Les sources indiquent que le pari explicite est que les utilisateurs voudront interagir avec des agents d’IA avancés par le biais de conversations plutôt que par texte. Les rapports suggèrent un effort important pour garantir que les interactions vocales soient naturelles et fluides, plutôt que robotiques et nécessitant un format rigide de questions-réponses.
L’année dernière, Mark Zuckerberg a fait allusion aux agents Llama, déclarant son désir de construire un assistant de codage agentique capable de reproduire le travail d’un ingénieur de niveau intermédiaire. Le Financial Times rapporte également que Meta envisage des abonnements premium pour Meta AI qui permettraient une gamme de tâches agentiques, citant comme exemples la réservation et le montage vidéo.
Lors d’un récent événement chez Morgan Stanley, le directeur des produits de Meta, Chris Cox, a donné quelques indices supplémentaires. Il a décrit Llama 4 comme un « modèle omni » où la parole serait « native plutôt que de traduire la voix en texte, d’envoyer le texte au LLM, d’obtenir du texte en sortie et de le retransformer en parole ».
Cox a poursuivi : « Je pense que c’est un énorme avantage pour l’interface produit, l’idée que vous pouvez simplement parler à internet et lui demander n’importe quoi. Je pense que nous sommes encore en train de comprendre à quel point cela est puissant. »
Comme vous le verrez dans notre épisode principal plus tard aujourd’hui sur OpenAI et Microsoft, il semble que le responsable de l’IA de Microsoft, Mustafa Suleyman, ait un sentiment assez similaire concernant l’importance de la voix à l’avenir.
Ce qui rend les plans de Meta plus intéressants que ceux d’une autre entreprise qui se lance dans le jeu de l’IA vocale, c’est que Llama 4 sera probablement open source. Avoir un mode vocal à la pointe de la technologie dans un modèle open source serait un grand pas en avant.
Franchement, étant donné ce que nous avons entendu sur Meta ayant été déstabilisé par la sortie des derniers modèles DeepSeek, l’intégration de la voix pourrait être un moyen de se différencier dans le cas improbable où Llama 4 ne serait pas aussi avancé que certaines des innovations que DeepSeek a mises sur le marché.
X (Twitter) étend son infrastructure de centres de données
Sur le front de l’infrastructure, X a acquis une propriété d’un million de pieds carrés dans le sud de Memphis pour étendre son empreinte de centres de données dans la ville. La Chambre de Commerce a annoncé l’acquisition dans un communiqué de presse, avec Brett Mayo, responsable du site xAI, déclarant : « L’acquisition de cette propriété par xAI garantit que nous resterons à l’avant-garde de l’innovation en IA, ici même à Memphis ».
Le terrain se trouve juste à l’extérieur du centre de données Colossus existant et fait donc probablement partie des plans d’expansion prévus pour être achevés d’ici 2026. D’après les images satellites, le terrain semble suffisamment grand pour tripler la taille de l’installation. Colossus héberge actuellement 100 000 GPU et a été construit avec des plans pour doubler cette taille. Cependant, xAI a déclaré qu’ils prévoyaient de mettre à niveau le cluster pour faire fonctionner un million de GPU.
Foxconn développe son propre modèle d’IA
Enfin, une nouvelle intéressante à l’intersection du matériel et du logiciel : le fabricant d’électronique taïwanais Foxconn a construit son propre modèle d’IA pour l’optimisation des entreprises, appelé FoxBrain.
Le modèle possède des capacités de raisonnement et a été entraîné en seulement 4 semaines sur un petit cluster de 120 Nvidia H100. Conçu pour un usage interne, le modèle peut aider à l’analyse de données, au raisonnement mathématique et à la génération de code.
L’entreprise a l’intention de rendre le modèle open source pour les partenaires de l’industrie et envisage qu’il contribuera à faire progresser la fabrication et la gestion de la chaîne d’approvisionnement. Le modèle était basé sur Meta Llama 3.1, mais Foxconn affirme néanmoins qu’il s’agit du premier modèle de raisonnement développé à Taïwan et optimisé pour le chinois traditionnel plutôt que le mandarin.
L’entreprise a déclaré que le modèle était légèrement derrière DeepSeek R1, mais qu’il s’approchait de l’état de l’art en matière de benchmarking.
La grande conclusion ici est que la barrière pour développer son propre modèle, spécifiquement adapté à ses besoins et objectifs, devient de plus en plus basse chaque jour. Cela pourrait avoir des impacts assez importants sur la façon dont le côté commercial de l’industrie évolue.
