L’Ex-Directeur de Google Révèle Ce Qui Nous Attend : Analyse de l’Acquisition de Scale AI par Meta
Dans un monde où la technologie évolue à une vitesse fulgurante, les mouvements stratégiques des géants de la tech nous donnent des indices précieux sur l’avenir qui se dessine. Récemment, une discussion approfondie entre d’anciens dirigeants de Google et des experts en IA a mis en lumière les implications majeures de l’acquisition de Scale AI par Meta, ainsi que les avancées récentes dans le domaine de l’intelligence artificielle. Plongeons dans cette analyse détaillée qui révèle les coulisses de cette industrie en pleine transformation.
Meta X Scale AI : Une Manœuvre Stratégique à 14 Milliards de Dollars
Meta finalise actuellement une transaction de 14 milliards de dollars en espèces contre des actions pour acquérir Scale AI. Il s’agit de la deuxième plus importante opération de fusion-acquisition de Facebook après WhatsApp. Lorsque Facebook avait acquis WhatsApp, l’entreprise avait dépensé environ 10% de sa capitalisation boursière pour cette acquisition.
Cette fois-ci, l’investissement dans Scale AI représente moins de 1% de la capitalisation boursière actuelle de Meta, ce qui en fait un risque calculé avec un potentiel de hausse élevé et un inconvénient minimal. Même si ce projet échouait complètement, il ne s’agirait que d’une erreur d’arrondi pour Facebook.
Alexander Wang, fondateur de Scale AI, est destiné à diriger la nouvelle équipe de « super intelligence » que Mark Zuckerberg est en train de constituer. Zuckerberg recrute activement des ingénieurs en leur offrant des salaires à huit ou neuf chiffres pour rejoindre cette initiative ambitieuse.
Cette acquisition stratégique vise également à remettre Meta dans la course après ce que beaucoup considèrent comme l’échec de Llama 4. Alors que Llama 2 avait suscité beaucoup d’enthousiasme, Llama 4 a été perçu comme une déception majeure. Il semble que l’équipe de Meta ait tenté de battre certains benchmarks publics en s’étirant peut-être un peu trop, voire en « trichant » légèrement. Le modèle a obtenu de bons résultats sur ces benchmarks spécifiques mais n’a pas semblé performant sur d’autres aspects, ce qui a entraîné une réaction négative du public.
Les Différents Types d’Acquisitions dans le Secteur Technologique
Pour mieux comprendre ce qui se passe dans le monde des fusions et acquisitions technologiques, il est important de distinguer trois types majeurs de transactions :
1. Acqui-hire (Acquisition de Talents)
L’acqui-hire est essentiellement un exercice d’embauche glorifié. Lorsque quelqu’un prétend que sa startup a été « acquise » par Google ou Facebook, il est pertinent de demander s’il s’agissait d’un acqui-hire ou d’un achat complet d’actions. Dans un acqui-hire, l’entreprise acquéreuse ne valorise pas réellement l’entreprise ou sa technologie – elle veut simplement embaucher les employés et peut offrir une prime de rétention (les « menottes dorées »).
Dans les années 2010, la plupart des transactions étaient des acqui-hires car la majorité des idées de startups échouent. Dans ce cas, les investisseurs en capital-risque ne récupèrent généralement rien.
2. Licence et Libération
Dans ce type de transaction, l’acquéreur veut l’équipe et une partie de la propriété intellectuelle, mais pas l’entreprise elle-même. Par exemple, une application de reconnaissance d’images pourrait avoir un modèle sous-jacent intéressant que l’acquéreur souhaite réappliquer ailleurs.
Dans ces transactions de licence et libération, les investisseurs peuvent récupérer une partie de leur investissement, peut-être 85 cents par dollar investi, voire parfois leur dollar complet.
Avec l’évolution de l’environnement réglementaire, les licences sont redevenues à la mode, notamment pour les entreprises d’IA qui cherchent à éviter la surveillance réglementaire.
3. Achat Complet d’Actions
C’est le type de transaction où tout le monde est payé généreusement. Lorsque Salesforce a acquis Slack ou lorsque Google achète Wiz pour 32 milliards de dollars, cela signifie qu’ils paient une prime gigantesque sur les actions. Les investisseurs peuvent obtenir des rendements de 100x ou 1000x. Ce sont ces transactions spectaculaires qui font la fortune des entrepreneurs et des investisseurs.
Pourquoi les Accords de Licence Échappent au Radar de la FTC
Les lois antitrust, initialement conçues pour démanteler les monopoles ferroviaires et pétroliers de l’âge doré, sont aujourd’hui appliquées aux géants de la technologie. La Federal Trade Commission (FTC) examine attentivement les acquisitions qui pourraient renforcer une position dominante sur un marché.
Cependant, lorsqu’une entreprise conclut un accord de licence, elle n’achète pas la société elle-même, mais seulement certains actifs intellectuels et talents. L’organisation d’origine continue d’exister, ce qui permet généralement d’éviter l’examen approfondi de la FTC.
Dans le cas de Scale AI, Meta possède 49% de l’entreprise, ce qui ne constitue pas une majorité. Cependant, Alexander Wang reste au conseil d’administration et recevra probablement davantage d’actions Meta pour rester aligné avec les intérêts de Facebook. La FTC pourrait considérer qu’il s’agit d’une acquisition de facto et lancer une enquête, mais cela reste à voir.
Les accords de licence offrent également une voie réglementaire accélérée. Par exemple, l’acquisition de Wiz par Google pour 32 milliards de dollars fait actuellement l’objet d’un examen par la FTC, ce qui pourrait prendre un an. Dans le climat actuel, où ni les républicains ni les démocrates n’apprécient les géants de la tech, ces transactions majeures risquent d’être bloquées, comme ce fut le cas pour l’acquisition de Figma par Adobe.
Lorsque l’accord Adobe-Figma a échoué en raison de l’opposition de l’autorité britannique de la concurrence (CMA), Adobe a dû payer une indemnité de rupture d’un milliard de dollars. Ironiquement, les actionnaires d’Adobe ont été soulagés car beaucoup pensaient que l’entreprise avait surpayé pour cette acquisition.
Un autre avantage des accords de licence est l’absence de responsabilité liée à l’entreprise acquise. Lors d’une acquisition complète, l’acquéreur hérite de tout l’historique juridique et des responsabilités de la cible, ce qui peut représenter un risque significatif.
Le Retour en Grâce des Accords de Licence
Plusieurs transactions récentes illustrent cette tendance :
- Microsoft et Inflection : accord de licence de 650 millions de dollars
- Google et Character AI : 2,7 milliards de dollars, permettant à Google d’acquérir Noam Shazeer et environ 30 chercheurs
- Amazon et Adept : 330 millions de dollars
- Meta et Scale AI : bien qu’il s’agisse techniquement d’un investissement, cette opération ressemble à un accord de licence puisque Meta obtient le PDG et plusieurs employés clés
L’accord Meta-Scale AI présente des similitudes frappantes avec celui de Google-Character AI : dans les deux cas, l’acquéreur extrait le fondateur/PDG et quelques chercheurs clés, structure la transaction pour éviter les régulateurs, et paie une somme considérable pour ce qui ressemble essentiellement à un acqui-hire sophistiqué.
Que Recherche Réellement Meta avec Scale AI ?
Scale AI, fondée en 2016 par Alexander Wang et Lucy Guo, se spécialise dans l’étiquetage de données et l’évaluation. L’entreprise est divisée en deux organisations principales :
-
Une division qui crée des ensembles de données d’entraînement de niveau doctoral pour les fournisseurs de grands modèles de langage comme OpenAI et Google (bien que Google semble se retirer suite à l’accord avec Meta)
-
Une activité similaire à Amazon Mechanical Turk, avec environ 100 000 contractuels qui aident à l’étiquetage des données pour divers types d’ensembles de données
Ce que Meta achète réellement, c’est l’expertise d’Alexander Wang et son énergie pour revitaliser leur organisation d’IA après les difficultés rencontrées avec Llama 4. Ils bénéficieront également de l’accès au pipeline de données de Scale AI pour entraîner leurs modèles.
Cependant, l’émergence des données synthétiques et des nouvelles techniques d’IA comme l’apprentissage par renforcement avec des récompenses vérifiées pourrait avoir des répercussions sur le modèle économique de Scale AI. L’entreprise a manqué son objectif de revenus l’année dernière (870 millions de dollars au lieu du milliard prévu), ce qui suggère que sa croissance pourrait ralentir.
De plus, la valorisation de l’acquisition par Facebook, comparée aux valorisations précédentes de Scale AI, n’a pas connu une augmentation spectaculaire, ce qui pourrait indiquer que l’entreprise approchait de la fin de son cycle de croissance dans ce type d’activité.
Les cycles de vente en entreprise peuvent également révéler des signes avant-coureurs. Lorsque les clients commencent à retarder la signature des contrats, cela peut indiquer qu’ils envisagent d’autres solutions, comme la génération de leurs propres données synthétiques. Si Scale AI constatait un allongement de ses cycles de vente, cela aurait pu inciter les fondateurs à vendre maintenant, au sommet de leur valeur.
Risques et Défis
Plusieurs risques planent sur cette acquisition :
-
Google se retire de son contrat avec Scale AI, bien que cela ne préoccupe probablement pas trop Meta qui est davantage intéressé par l’expertise d’Alexander Wang
-
D’autres clients pourraient suivre l’exemple de Google et quitter Scale AI
-
Meta paie-t-il trop cher ? Le multiple est d’environ 12 à 15 fois les revenus, et nous ne savons pas si Scale AI atteindra son objectif du milliard cette année
-
Incompatibilité culturelle : Alexander Wang, 28 ans, vient d’une petite entreprise agile où il pouvait faire avancer les choses rapidement. Chez Facebook, une organisation massive avec beaucoup de politique interne, il pourrait être difficile de maintenir cette efficacité
Bien qu’Alexander Wang puisse avoir un bon alignement avec Mark Zuckerberg, obtenir ce dont il a besoin du reste de l’organisation pourrait s’avérer aussi difficile que « pousser un coffre-fort dans le sable ».
Le Défi de l’Intégration chez Facebook
L’intégration dans une grande organisation comme Facebook présente toujours des risques. Des équipes existantes travaillent déjà sur l’IA et le ML chez Meta, comme en témoigne la récente publication de l’équipe de Yan LeCun. Les principales questions sont : y aura-t-il des mouvements internes ? Des personnes d’autres équipes rejoindront-elles celle d’Alexander Wang, ou d’autres tenteront-ils de recruter ses meilleurs éléments ?
Facebook a un processus d’intégration unique appelé « boot camp ». Contrairement à Google, où les nouvelles recrues passent une semaine ou deux en réunions et en visionnage de vidéos d’orientation, Facebook plonge immédiatement ses nouveaux employés dans le code. Les nouvelles recrues ne sont généralement pas affectées à une équipe spécifique dès le départ – elles suivent cette formation et travaillent sur de petits projets pour différentes équipes.
Ce système permet aux équipes existantes d’évaluer les nouvelles recrues et de les courtiser activement s’ils les trouvent prometteuses. C’est un investissement coûteux pour Facebook, mais cela permet aux nouveaux venus d’apprendre tous les systèmes, de comprendre les équipes et le fonctionnement de l’entreprise, et même d’apporter des modifications à un produit en cours d’exécution dès le premier jour.
Les Avancées de la Recherche en IA
Au-delà des acquisitions, la recherche en IA continue de progresser à un rythme impressionnant. Plusieurs papiers récents méritent notre attention :
Le Papier Controversé d’Apple
Apple a publié un article critiquant les capacités de raisonnement des modèles de langage actuels. Cependant, cette approche suscite des interrogations sur les motivations d’Apple, qui semble en retard sur ses concurrents en matière d’IA.
Les critiques de cet article soulignent plusieurs problèmes :
-
Montrer des milliers d’exemples où les modèles échouent ne prouve pas qu’ils sont incapables de raisonner – il suffit d’un exemple réussi pour réfuter cette affirmation
-
La définition même de « raisonnement » ou de « pensée » pour les modèles de langage est problématique et centrée sur l’humain
-
L’article se concentre sur des limitations connues des modèles, comme la taille de la fenêtre contextuelle
-
Peu après la publication, des utilisateurs ont démontré que des modèles comme GPT-4 pouvaient résoudre certains des problèmes présentés comme « impossibles » dans l’article
Certains spéculent que cette approche d’Apple pourrait être liée à son expérience traumatisante avec Apple Maps en 2012, qui a conduit à la démission d’un vice-président senior. Tim Cook, soucieux de la perfection opérationnelle, pourrait être réticent à lancer une technologie d’IA qui n’atteint pas ses standards élevés. Ne pouvant pas égaler ses concurrents, Apple choisirait alors de critiquer la technologie elle-même.
Apprentissage du Raisonnement sans Récompenses Externes
Un article de Berkeley présente une approche intrigante : utiliser la confiance interne d’un modèle pour guider son apprentissage, plutôt que de s’appuyer sur des récompenses externes vérifiables.
Le modèle est entraîné à devenir plus confiant dans ses réponses, et cette confiance accrue est corrélée à une plus grande précision. Bien que cela puisse sembler contre-intuitif (comme obtenir quelque chose à partir de rien), cette approche s’apparente à la « cohérence interne » où l’on échantillonne le modèle plusieurs fois et on choisit la réponse la plus fréquente.
Cette méthode pourrait être comparée à l’élagage : lors du pré-entraînement, le modèle absorbe toutes sortes d’informations et d’idées du monde, bonnes ou mauvaises. L’apprentissage par renforcement aide ensuite à identifier les traces de raisonnement correctes et à les renforcer, laissant les mauvaises réponses s’estomper progressivement.
Modèles Auto-adaptifs
Une recherche du MIT présente des modèles capables de s’auto-adapter. L’analogie utilisée est celle d’un étudiant qui lit tous les manuels, assiste à tous les cours, prend des notes pour condenser l’information, puis étudie à partir de ces notes – une méthode très efficace.
Ces modèles peuvent, grâce à un fine-tuning supervisé, effectuer des auto-éditions et modifier leurs propres poids pour s’adapter à des tâches spécifiques. Cette capacité est particulièrement intéressante car elle pourrait aider à surmonter l’une des limitations actuelles des agents IA : leur manque de cohérence sur les tâches à long terme, en partie dû à leur nature statique.
Cette approche permet une mise à jour en temps réel de la base de connaissances, des poids et des capacités du modèle. Le processus implique de demander au modèle de fournir des suggestions d’entraînement, puis de modifier réellement les poids du modèle. Après l’entraînement, des tests sont effectués pour évaluer les performances, et les résultats servent de signal de récompense.
Bien que ce cycle soit long (environ 60 secondes pour un petit modèle d’un milliard de paramètres), cette méthode ouvre des perspectives fascinantes. On pourrait imaginer demander au modèle initial non seulement des hyperparamètres pour un petit entraînement, mais aussi des suggestions sur la structure même du modèle – nombre de couches, largeur des couches, modifications du mécanisme d’attention, etc.
Vers une Automatisation de la Recherche en IA ?
Ces avancées soulèvent une question cruciale : approchons-nous du moment où l’IA pourra automatiser le travail des chercheurs en apprentissage automatique ?
Anthropic et OpenAI ont tous deux mentionné cette métrique comme un objectif important. Si un système peut démontrer sa capacité à gérer les tâches quotidiennes d’un chercheur en ML moyen, nous pourrions assister à un décollage où les systèmes automatisés augmenteraient les efforts de leurs propres équipes.
OpenAI dispose déjà d’un « ML Paper Bench » qui tente de répliquer le code et les expériences décrites dans des articles de recherche. Bien que ce système ne soit pas encore parfait, il s’améliore constamment.
Même en supposant que nous atteignions des rendements décroissants (une courbe en S plutôt qu’une exponentielle), ces avancées pourraient nous mener très loin et révéler d’autres améliorations potentielles. Nous avons d’abord cru atteindre un plafond avec l’entraînement des grands modèles, puis est arrivé le calcul au moment de l’inférence, qui a apporté d’énormes améliorations. Ces nouvelles approches d’auto-adaptation pourraient constituer une troisième voie d’amélioration.
Un indicateur concret de cette évolution serait de voir les laboratoires d’IA ralentir leurs embauches ou réduire les salaires pour certains rôles, étant donné que certains chercheurs sont actuellement payés 1 à 3 millions de dollars par an.
Conclusion
L’acquisition de Scale AI par Meta pour 14 milliards de dollars marque un tournant stratégique dans la course à l’IA. Au-delà de cette transaction spectaculaire, les avancées dans la recherche en IA, notamment avec les modèles auto-adaptifs et l’apprentissage sans récompenses externes, suggèrent que nous approchons peut-être d’un point où l’IA pourra contribuer significativement à sa propre évolution.
Comme l’a suggéré Sam Altman dans son récent article sur la « singularité douce », nous sommes peut-être aux « stades larvaires » de l’amélioration récursive de l’IA. Même si nous finissons par atteindre des limites, ces avancées pourraient révéler de nouvelles voies d’amélioration, continuant ainsi à repousser les frontières de ce que l’intelligence artificielle peut accomplir.
Ces développements ne représentent pas nécessairement une panacée qui éliminerait toutes les limitations humaines, mais ils suggèrent un avenir où l’IA jouera un rôle de plus en plus central dans l’innovation technologique et la résolution de problèmes complexes.