L’IA Open Source Est-Elle en Train de Perdre du Terrain ?

L’IA Open Source Est-Elle en Train de Perdre du Terrain ?

Introduction : Meta et sa stratégie open source

Bienvenue dans notre analyse détaillée de Llamicon, la grande conférence développeurs de Meta. Aujourd’hui, nous allons examiner toutes les annonces importantes, ce qui a suscité l’enthousiasme des participants, et nous ferons une petite revue de la tournée médiatique de Mark Zuckerberg. Mais derrière tout cela se cachent des questions préoccupantes tant pour Meta que pour l’écosystème open source en général.

Pour bien comprendre le contexte, il est important de rappeler que Meta a clairement choisi de lier son avenir au triomphe de l’IA open source, par opposition aux modèles propriétaires. Pour beaucoup, ce virage pris par Zuckerberg était inattendu, et nombreux sont ceux qui estiment qu’il s’agissait principalement d’une décision opportuniste. Cependant, pour ceux qui suivent l’évolution de l’entreprise depuis longtemps, il est clair que Mark Zuckerberg a vécu une véritable conversion après qu’Apple a failli anéantir son modèle économique en modifiant le fonctionnement de l’iPhone. Ainsi, l’orientation vers l’open source est philosophiquement plus cohérente qu’on pourrait le penser.

Quelles que soient ses motivations, cette stratégie a certainement porté ses fruits. Tout au long de 2023, l’une des grandes inquiétudes de Google était que l’écosystème de développeurs de Meta les surpassait, eux et OpenAI. De plus, tout au long de 2024, les modèles open source semblaient se rapprocher toujours plus des performances des modèles propriétaires, réduisant véritablement l’écart.

Les difficultés récentes de Meta

Pourtant, Meta a connu une période difficile cette année. Tout d’abord, en janvier, lorsque Deepseek a publié ses modèles de raisonnement, des rapports indiquaient que Meta avait commencé à paniquer. De nombreuses fuites apparentes provenant de l’intérieur révélaient que l’entreprise s’efforçait de comprendre comment Deepseek avait réussi à accomplir ce qu’il avait fait avec si peu de ressources. De manière générale, tout semblait être en état de bouleversement.

Un autre moment controversé pour Meta est survenu après la sortie de la famille de modèles Llama 4, lorsque certains les ont accusés d’avoir artificiellement gonflé leurs scores de référence et d’avoir publié un modèle différent pour certains tests de benchmark que celui mis à disposition du public. Nous n’allons pas revenir sur cette controverse ici, mais il est clair que Meta n’arrivait pas à cette conférence Llamicon en position de force. D’une certaine manière, ils luttaient pour reprendre le dessus.

Les principales annonces de Llamicon

Parlons maintenant de ce qui a été présenté lors de cet événement. Rappelons que l’annonce des nouveaux modèles avait été faite environ un mois auparavant, personne ne s’attendait donc à une grande révélation sur ce front.

Une API native pour Llama

Parmi les grandes annonces, on trouve tout d’abord une API native pour Llama. L’API Llama est désormais disponible en version préliminaire limitée et est associée aux SDK de Meta pour permettre aux développeurs de construire des applications basées sur cette famille de modèles. L’entreprise n’a pas révélé les tarifs, mais s’est vantée d’une vitesse fulgurante. Grâce à un partenariat avec Cerebrus, Meta affirme que leur API peut fonctionner 18 fois plus rapidement que l’inférence GPU traditionnelle utilisée par OpenAI. La comparaison est encore plus favorable si l’on considère l’API native de DeepSeek, qui avance à moins d’un centième de cette vitesse.

L’API fait ce à quoi on pourrait s’attendre, offrant des outils pour le fine-tuning et l’évaluation, tout en servant les modèles pour l’intégration d’applications. Il s’agit peut-être d’une infrastructure de base, mais c’est néanmoins une étape importante que Meta ait commencé à proposer ses propres points d’accès.

Une application autonome de chatbot

L’autre grande annonce, qui a suscité encore plus d’attention de la part des consommateurs, était celle d’une application autonome de chatbot pour les modèles Llama. Il n’a jamais manqué de moyens d’accéder aux chatbots de Meta, qui ont été intégrés à WhatsApp, Instagram, Facebook et Messenger, mais disposer d’une application autonome met Meta davantage au niveau de ses concurrents. Nous avons vu quelque chose de similaire avec Grock, qui a d’abord lancé ses outils exclusivement via Twitter/X, puis a également développé sa propre application.

Une fonctionnalité intéressante, qui n’est peut-être pas surprenante venant de Meta, est que l’application Llama dispose d’un flux social. Les utilisateurs peuvent choisir de partager leurs prompts et leurs réponses avec leurs amis à travers l’écosystème Meta. Je ne pense pas qu’il y ait actuellement une demande latente pour ce genre de fonctionnalité. Cela dit, Sam Altman a très publiquement évoqué l’idée de créer potentiellement un réseau social à partir de ChatGPT et, de manière générale, il est toujours surprenant de voir quels types de choses les gens aiment réellement partager et découvrir sur leurs pairs et amis.

Connor Hayes, vice-président des produits de Meta, a déclaré que l’idée était de montrer aux gens ce qu’ils peuvent faire avec l’IA. C’est en fait très utilitaire. L’une des choses que nous avons constatées ces dernières années concernant les IA est que de nombreux obstacles à l’utilisation de l’IA proviennent du fait que les gens ne savent tout simplement pas à quoi l’utiliser. Avec toutes les autres technologies, le schéma a été qu’une poignée d’inventeurs et de découvreurs de cas d’utilisation trouvent comment utiliser une chose, puis nous les copions tous. Et pourtant, pendant quelques années, nous nous attendions à ce que tout le monde découvre par lui-même comment utiliser l’IA, ce qui va à l’encontre de la façon dont la technologie s’est déployée par le passé.

Autres annonces techniques

En dehors de ces points forts, il y a eu quelques ajouts techniques qui pourraient faire bouger les choses pour certains développeurs. Dans leur article de blog, par exemple, Meta a mis en avant la première de plusieurs intégrations d’infrastructure qu’ils appellent Llama Stack. Meta a déclaré qu’ils envisagent Llama Stack comme la norme industrielle pour les entreprises cherchant à déployer sans problème des solutions d’IA clés en main de qualité production.

Ils ont également annoncé un ensemble d’outils de sécurité et de modération, ainsi que des subventions pour les développeurs, mais dans l’ensemble, c’était assez modeste.

Réactions et analyses de la communauté

En ce qui concerne la réaction des gens, TechCrunch a soutenu que toute la conférence visait à concurrencer OpenAI. Daniel Campos a écrit : « C’est fou que Llamicon se déroule et qu’aucune information à ce sujet ne figure en première page de Hacker News. » Pour certains, il est difficile de ne pas avoir l’impression qu’à ce stade, Meta est clairement en retard. Ils sont derrière les leaders OpenAI et Anthropic sur les marchés des assistants de codage grand public, du moins selon les benchmarks. Leur dernier modèle a été dépassé par de nouvelles versions open source venues de Chine.

Pourtant, lors de son discours d’ouverture, Zuckerberg a exposé sa vision de la prochaine étape de la course à l’IA. Il a déclaré : « Une partie de la valeur de l’open source réside dans le fait que vous pouvez mixer et assortir. Donc si un autre modèle comme Deepseek est meilleur, ou si Quen est meilleur pour quelque chose, alors en tant que développeurs, vous avez la possibilité de prendre les meilleures parties de l’intelligence de différents modèles et de produire exactement ce dont vous avez besoin. C’est en partie ainsi que je pense que l’open source dépasse en qualité tous les modèles propriétaires. Cela ressemble à une force imparable. »

L’entrepreneur en IA Ted Benson a analysé ses conclusions, en postant : « Le premier discours d’ouverture de LMCON vient de se terminer il y a quelques secondes, et j’ai l’impression de comprendre la stratégie d’IA de Meta pour la première fois. Ils ne l’ont pas dit directement, mais on pouvait l’entendre entre les lignes. »

Beaucoup avaient spéculé que Zuckerberg poursuivait une approche visant à « banaliser vos concurrents » par crainte d’être piégé en tant qu’application au sein de la plateforme d’une autre entreprise. Je ne pense pas que ce soit le cas. Si l’IA et la RA représentent un paradigme informatique entièrement nouveau, ce nouveau paradigme nécessitera un nouveau système d’exploitation. Et ce nouveau système d’exploitation nécessitera une multitude d’utilitaires standard, comme les utilitaires GNU l’étaient pour Linux : petits modèles fine-tunés, grands modèles génériques, modèles vocaux en temps réel, modèles de compréhension 3D, modèles de segmentation d’images, modèles de génération de scènes… Collectivement, cela ressemble à une grande partie de la bibliothèque standard pour une plateforme informatique d’IA et de RA complètement différente.

L’insistance pour que tous les dérivés de Llama soient préfixés par « llama- » semble révélatrice. Ces 40 dernières années, nous avons construit au-dessus de GNU/Linux. Je pense que dans 5 ans, Meta veut que nous construisions tous au-dessus de llama/quelque chose.

Et ce qui donne du crédit à cette théorie, c’est que tout au long de l’événement et lors de ses nombreuses apparitions dans des podcasts, Zuckerberg portait les lunettes Ray-Ban de Meta.

L’état actuel de l’open source dans l’IA

En prenant du recul et en nous éloignant de Meta pour aborder la question plus large de la position de l’open source, il est important de se rappeler que si Deepseek R1 a été un phénomène, ce n’est pas parce qu’il surpassait des modèles comme OpenAI S01 sur les benchmarks. Et en effet, en termes de performances, il a rapidement été enterré par les publications de tous les grands laboratoires d’IA. Son impact résidait dans le fait qu’il s’agissait du premier modèle de raisonnement librement disponible, la première fois que les consommateurs avaient accès au raisonnement dans une application de chat gratuite, et en raison de toutes les rumeurs concernant son coût de formation étonnamment bas.

Lors d’une apparition sur le podcast de Dwarkesh publiée parallèlement à la conférence, ce dernier a demandé directement à Zuckerberg ce qu’il ressentait face au fait que Llama 4 Maverick est maintenant classé 35e sur LM Marina et est généralement derrière et décevant sur la plupart des benchmarks. Dwarkesh a déclaré : « Il y a une impression que l’écart entre les meilleurs modèles propriétaires et open source s’est accru au cours de l’année dernière. »

Zuckerberg a répondu : « Je pense en fait que cette année a été très bonne pour l’open source dans l’ensemble. La prédiction selon laquelle ce serait l’année où l’open source dépasserait généralement le propriétaire en tant que modèles les plus utilisés est généralement en voie de se réaliser. »

Abordant la domination des modèles de raisonnement dans les benchmarks, Zuckerberg a déclaré que le nouveau paradigme consistant à augmenter la puissance de calcul au moment du test est convaincant et qu’un modèle de raisonnement Llama 4 arriverait bientôt. Cependant, il a ajouté que pour beaucoup de choses qui nous importent, la latence et un bon rapport intelligence/coût sont en réalité des attributs de produit beaucoup plus importants.

Il a également fait valoir que les benchmarks peuvent être manipulés, en particulier en ce qui concerne LM Marina, et a déclaré que l’optimisation pour les performances de benchmark avait souvent induit l’entreprise en erreur. Il a déclaré : « Je pense qu’il faut être un peu prudent avec certains benchmarks et nous allons nous concentrer principalement sur les produits. »

Perspectives d’avenir pour Meta et l’IA open source

Si l’on regarde autour de soi, on continue de voir beaucoup de scepticisme quant à la position actuelle de Meta. Plus tôt dans le mois, Fortune, par exemple, a publié un article intitulé « Certains initiés affirment que le laboratoire de recherche en IA de Meta meurt à petit feu ».

Je n’en suis pas vraiment sûr. Il ne fait aucun doute que la concurrence open source s’intensifie. Que les modèles venus de Chine exercent une pression concurrentielle intense sur Zuckerberg et tous ceux qui réfléchissent à l’open source. Il est également vrai que les modèles open source n’ont pas dépassé les grands modèles propriétaires, surtout depuis que le raisonnement est devenu le paradigme dominant.

Je pense aussi que Zuckerberg joue un jeu extrêmement long. Je ne crois pas qu’il considère la victoire comme le fait d’avoir l’application la plus téléchargée sur l’App Store d’Apple. Je pense qu’il voit la victoire comme le fait de posséder l’infrastructure du futur, ce qui est fondamentalement ce que Ted Benson défendait dans ce post.

Il ne fait aucun doute que certaines pressions concurrentielles ont pu forcer les calendriers de Meta d’une manière un peu inconfortable et donner l’impression d’être en retard, mais je suis loin de les écarter pour autant.

C’est du moins l’état actuel de la situation. Nous continuerons à suivre de près l’évolution de Meta et de l’écosystème open source dans le domaine de l’IA.

Featured image by Jennifer Latuperisa-Andresen on Unsplash