Vibecoding en pleine expansion : Cursor atteint 1 million d’utilisateurs

Vibecoding en pleine expansion : Cursor atteint 1 million d’utilisateurs

Si vous vous demandez à quel point ces nouveaux outils de « Vibe coding » et de codage assisté par IA sont populaires, la réponse est simple : extrêmement populaires. Bienvenue dans notre édition spéciale des actualités quotidiennes de l’IA, où nous vous présentons toutes les nouvelles essentielles du monde de l’intelligence artificielle en quelques minutes.

Cursor : une croissance phénoménale sans marketing

Notre première actualité concerne la popularité croissante de la plateforme de codage IA Cursor, qui a officiellement atteint le million d’utilisateurs, et ce, sans véritablement essayer. Le créateur de la plateforme, Anyphere, a réussi à capturer l’essence du succès avec une entreprise de trois ans qui n’a pas dépensé un seul dollar en marketing tout en devenant l’une des startups à la croissance la plus rapide jamais vue.

En janvier, Anyphere rapportait 100 millions de dollars de revenus annuels récurrents. Et selon les sources de Bloomberg, ce chiffre aurait doublé dès mars. La plateforme compte désormais un million d’utilisateurs actifs quotidiens.

Cursor propose actuellement deux formules d’abonnement :
– Un compte à 20 dollars par mois pour les particuliers
– Un compte professionnel à 40 dollars

Oscar Scholes, président d’Anyphere, a mentionné que presque tous les revenus de Cursor proviennent encore d’utilisateurs individuels, dont beaucoup travaillent dans des entreprises qui ne paient pas directement pour l’outil. Cela suggère, bien entendu, que l’adoption se fait par le bas, les programmeurs utilisant Cursor de leur propre initiative pour améliorer leur productivité.

C’est certainement l’expérience que nous avons eue et la tendance que nous observons. Même si les gens utilisent Cursor pour leur travail, ils le font en dehors de leur entreprise, sur leur temps personnel ou à leurs propres frais.

Parallèlement, Scholes affirme que cette année, l’entreprise commencera à courtiser activement les clients professionnels. Ils comptent actuellement 14 000 entreprises inscrites malgré un processus d’intégration délibérément complexe. L’entreprise a désormais embauché ses premiers commerciaux et affirme avoir eu plus de 4 000 entreprises cherchant à tester le produit en février seulement.

Anyphere est actuellement en pourparlers pour lever des fonds à une valorisation de 10 milliards de dollars, ce qui les aiderait évidemment à se développer au-delà de leur équipe actuelle de seulement 60 personnes.

OpenAI envisage d’acquérir une startup d’appareils IA

Une information intéressante dans l’univers d’OpenAI : l’entreprise envisage d’acquérir la startup d’appareils IA de Sam Altman et Johnny Ive, le célèbre designer de l’iPhone. Selon The Information, les dirigeants d’OpenAI ont discuté d’un prix d’acquisition de 500 millions de dollars, mais un partenariat a également été exploré.

Leurs sources indiquent qu’actuellement, l’entreprise n’a créé que des designs préliminaires plutôt que des prototypes complets. Parmi les concepts potentiels figurent un téléphone sans écran et d’autres modalités pour des appareils domestiques.

L’acquisition serait une « acqui-hire » très coûteuse et inclurait l’équipe d’ingénieurs travaillant actuellement sur l’appareil. Les rapports suggèrent qu’Altman travaille étroitement avec la startup sans en être fondateur, avec une participation financière encore inconnue.

Ce qui enthousiasme les gens, c’est l’idée que le concepteur de l’iPhone pourrait être pleinement libre de repenser l’expérience utilisateur dans un monde alimenté par l’IA. En même temps, il semble un peu tôt pour ce type d’acquisition, mais qui sait ? OpenAI dispose d’une nouvelle valorisation impressionnante de 300 milliards de dollars et des fonds à dépenser.

Google DeepMind : payer pour garder les talents

En parlant de talents et du coût pour rester compétitif dans le domaine de l’IA, la bataille est devenue si intense que Google préfère payer son personnel à ne rien faire plutôt que de les voir partir chez un concurrent.

Selon Business Insider, Google DeepMind aurait recours à des accords de non-concurrence particulièrement agressifs. Certains employés sont empêchés de travailler pour un concurrent pendant une période pouvant aller jusqu’à un an. Le rapport indique que les employés souhaitant partir sont mis en « garden leave » prolongé, étant payés pour attendre la fin de leur période de non-concurrence.

Cette pratique est très étrangère à l’industrie technologique, la Californie interdisant les clauses de non-concurrence depuis très longtemps. La Federal Trade Commission a récemment interdit les clauses de non-concurrence à l’échelle nationale et, depuis l’année dernière, la Californie tente d’invalider les clauses de non-concurrence étrangères pour ses résidents.

À l’international, des secteurs comme la finance utilisent largement les clauses de non-concurrence pour protéger les informations propriétaires et empêcher la perte de capital humain. DeepMind a pu utiliser ces clauses car l’entreprise est basée à Londres, où cette pratique est encore légale.

Commentant ces informations, Google a déclaré : « Nos contrats de travail sont conformes aux standards du marché. Étant donné la nature sensible de notre travail, nous utilisons les clauses de non-concurrence de manière sélective pour protéger nos intérêts légitimes. »

D’anciens employés affirment que des clauses de non-concurrence de six mois sont courantes pour les employés réguliers de DeepMind, tandis que certains chercheurs seniors ont des accords d’un an.

Ce n’est pas vraiment surprenant étant donné que les mouvements importants de talents dans l’IA ont été une caractéristique de l’industrie. DeepMind a elle-même souffert d’une importante fuite des cerveaux ces dernières années, avec le départ du co-fondateur Mustafa Suleyman en 2022 et celui d’Arthur Mensch, co-fondateur de Mistral, en 2023.

En même temps, Google a également participé à sa part de débauchage de talents, notamment en acquérant l’équipe de Character AI, y compris le co-fondateur Noam Shazeer l’année dernière.

Pour les employés de DeepMind souhaitant changer d’air, ces clauses de non-concurrence représentent évidemment un problème majeur. Un ancien employé a confié à Business Insider : « Qui veut vous embaucher pour commencer dans un an ? C’est une éternité dans l’IA. » Le problème est particulièrement grave pour les employés qui souhaitent rejoindre une startup prometteuse, peu d’entreprises en phase de démarrage pouvant se permettre d’attendre même 6 mois pour embaucher.

L’ancien employé a ajouté : « L’IA est intéressante. Cela semble être la première fois dans ma carrière qu’on assiste à cette course folle, comme une course à l’espace. Les gens ont vraiment l’impression qu’avoir 6 mois d’avance, un an d’avance, pourrait faire toute la différence. »

Meta dément les rumeurs concernant Llama

Enfin, une mise à jour concernant la situation de Meta dont nous avions parlé hier. L’entreprise a démenti les rumeurs selon lesquelles les nouveaux modèles Llama auraient été spécifiquement ajustés pour atteindre certains benchmarks.

Ahmed Ali, vice-président de l’IA générative chez Meta, a publié sur X : « Nous entendons des rapports sur une qualité variable à travers différents services. Comme nous avons déployé les modèles dès qu’ils étaient prêts, nous nous attendons à ce qu’il faille plusieurs jours pour que toutes les implémentations publiques soient correctement ajustées. Nous continuerons à travailler sur nos corrections de bugs et à intégrer des partenaires. Nous avons également entendu des allégations selon lesquelles nous aurions entraîné nos modèles sur des ensembles de test. C’est tout simplement faux, et nous ne ferions jamais cela. Selon notre meilleure compréhension, la qualité variable que les gens observent est due à la nécessité de stabiliser les implémentations. »

Rappelons que ces rumeurs provenaient d’un post Reddit traduisant une publication des réseaux sociaux chinois. Une personne prétendant être un ingénieur de Meta affirmait avoir démissionné suite à des pressions pour manipuler les benchmarks. Elle indiquait que la direction de l’entreprise avait suggéré de mélanger des ensembles de test de divers benchmarks pendant le processus post-entraînement, dans le but d’atteindre les objectifs à travers diverses métriques et produire un résultat présentable.

Hier a apporté une nouvelle vague de controverses lorsque la communauté IA s’est penchée sur les performances de Llama 4. L’une des principales affirmations de Meta était de se classer deuxième sur LM Arena, un benchmark subjectif où les utilisateurs votent pour le modèle produisant les résultats les plus satisfaisants.

LM Arena a maintenant publié les 2 000 comparaisons directes impliquant Llama pour examen public. Ils ont noté que « l’interprétation par Meta de notre politique ne correspondait pas à ce que nous attendions des fournisseurs de modèles. Meta aurait dû préciser plus clairement que Llama 4 Maverick 0326 experimental était un modèle personnalisé optimisé pour les préférences humaines. »

En essence, LM Arena reproche à Meta d’avoir déployé une version affinée plutôt qu’un modèle de base pour les benchmarks. Bien qu’ils aient également noté que cette pratique n’était pas techniquement contraire aux règles.

Le développeur IA Vic K a examiné les résultats, donnant un exemple où Llama 4 a battu Claude 3.5 Sonnet. Il a commenté : « C’est la preuve la plus claire que personne ne devrait prendre ces classements au sérieux. Dans cet exemple, c’est extrêmement verbeux et factuellement inexact, et pourtant l’utilisateur a voté pour Llama 4. Les autres exemples ne sont pas meilleurs. »

Dans les commentaires, beaucoup se demandent si de vrais utilisateurs votaient réellement sur ces résultats ou si LM Arena est infesté de bots.

En fin de compte, je pense que la grande leçon, et vraiment la seule qui ait du sens, est de moins mettre l’accent sur les benchmarks. Mais encore une fois, comment allons-nous évaluer les nouvelles technologies ? Je n’ai pas les réponses pour l’instant.

C’est tout pour l’édition d’aujourd’hui des actualités quotidiennes de l’IA.