Actualités IA : Report de DeepSeek R2, Meta débauche des talents d’OpenAI, Imagen 4, et plus encore !
Beaucoup d’actualités dans le monde de l’intelligence artificielle cette semaine. Plongeons directement dans le vif du sujet.
DeepSeek R2 reporté à cause des contrôles d’exportation américains
Selon les informations disponibles, DeepSeek R2 a été retardé, et la cause serait les contrôles d’exportation américains. Je ne pensais pas que ces mesures allaient réellement fonctionner, mais apparemment, elles semblent avoir un impact.
Il y a deux éléments principaux qui expliquent ce retard :
- Le PDG de DeepSeek n’est pas satisfait des performances de DeepSeek R2
- Même si le modèle était performant, ils n’auraient pas suffisamment de GPU pour l’exécuter
Cette situation est due à une pénurie de puces serveur Nvidia en Chine. Selon les employés des principaux fournisseurs chinois de services cloud qui proposent les modèles DeepSeek aux clients professionnels, la pénurie a été aggravée par la récente interdiction américaine des puces H20 de Nvidia conçues pour le marché chinois.
Pour ceux qui ne connaissent pas, la puce H20 est essentiellement une version plus lente du H100 utilisé aux États-Unis. Ces puces sont toutes fabriquées par Nvidia, qui a spécifiquement conçu ces versions pour pouvoir vendre en Chine et contourner les contrôles d’exportation qui limitent les performances des puces vendues sur le marché chinois.
Mais ce n’est qu’une partie de l’histoire. Comme indiqué, les ingénieurs de DeepSeek travaillent intensément sur R2 depuis plusieurs mois. Le PDG Lang Wenfang n’est pas satisfait des performances du nouveau modèle. Les ingénieurs de l’entreprise travaillent à l’amélioration de R2 jusqu’à ce que Lang donne son feu vert pour la sortie.
Ce qui est surprenant, c’est que DeepSeek 1 était avant tout axé sur l’efficacité. Le fait que R2, même s’il était assez bon pour être lancé, ne dispose pas d’une infrastructure suffisante en termes de puces est étonnant, car on s’attendrait à ce que R2 soit également hyper-efficace. Nous devrons donc attendre un peu plus longtemps pour DeepSeek R2.
Meta débauche des chercheurs d’OpenAI
La semaine dernière, nous rapportions que Meta proposait des offres de 100 millions de dollars pour débaucher des employés d’OpenAI. Sam Altman l’a confirmé, affirmant que les meilleurs chercheurs n’avaient pas encore quitté OpenAI.
Mais selon le Wall Street Journal, Meta a déjà débauché trois chercheurs d’OpenAI, et ces chercheurs l’ont confirmé. Ces trois chercheurs travaillaient au bureau d’OpenAI à Zurich, et tous trois étaient auparavant chez Google DeepMind. Ils sont donc passés de Google DeepMind à OpenAI et maintenant à Meta. Ils ne semblent pas avoir de loyauté envers ces entreprises, et qui pourrait les blâmer ? Rien de tel qu’une offre de 100 millions de dollars pour vous faire changer d’allégeance.
Nous avons entendu parler d’offres de 100 millions de dollars pour des employés d’OpenAI. Meta vient d’acquérir Scale AI pour des milliards de dollars, principalement pour embaucher l’équipe, car des entreprises majeures comme Google et OpenAI ont déjà annulé leurs contrats avec Scale AI – évidemment, elles ne veulent pas que Meta ait accès à leurs secrets.
On dit également que Zuckerberg tente agressivement de recruter un co-fondateur de l’entreprise d’Ilya Sutskever, Safe Super Intelligence, et qu’il a même essayé d’acquérir cette société. Zuckerberg adopte donc une stratégie de terre brûlée en essayant d’embaucher tous les talents qui valent la peine dans le domaine de la recherche en IA.
Tout cela intervient alors que Llama 4 n’a pas eu l’impact escompté. Franchement, j’espère que Meta réussira et qu’ils lanceront d’excellents modèles, car ils open-sourcent leurs modèles, ce qui profite à tout le monde. Je ne veux pas que le pouvoir soit concentré uniquement dans les entreprises de modèles fermés. J’espère donc vraiment que tout cet argent dépensé par Meta portera ses fruits.
Et voici le point important : si vous pensez que 100 millions de dollars semble une somme folle juste pour embaucher une seule personne, considérez cela dans le contexte de la capitalisation boursière actuelle de Meta, qui se chiffre en billions de dollars, et dans le contexte du potentiel du marché de l’IA. C’est une goutte d’eau dans l’océan. Même payer 14 milliards pour Scale AI, pour voir ses revenus chuter du jour au lendemain, a du sens si l’intelligence artificielle est le marché ultime.
Alors que je terminais cette analyse, il s’avère que Meta a débauché un autre chercheur clé d’OpenAI. Selon TechCrunch, Meta a embauché Trapit Bansal, un chercheur très influent d’OpenAI, pour travailler sur ses modèles de raisonnement IA au sein de la nouvelle unité de superintelligence de l’entreprise. Bansal travaillait chez OpenAI depuis 2022 et a joué un rôle clé dans le lancement des travaux de l’entreprise sur l’apprentissage par renforcement aux côtés du co-fondateur Ilya Sutskever. Il est cité comme contributeur fondamental au premier modèle de raisonnement d’OpenAI, o1.
Il semble donc que la stratégie de Meta fonctionne. Ils attirent les meilleurs talents d’OpenAI.
Tensions entre OpenAI et Microsoft
Apparemment, les discussions avec Microsoft concernant la renonciation à certains de leurs droits dans leur accord actuel ont essentiellement échoué. J’ai déjà signalé que les relations entre Microsoft et OpenAI ont été tendues dernièrement, car les termes de leur accord sont assez fous maintenant qu’OpenAI connaît une croissance aussi rapide. Microsoft obtient essentiellement 20% de tous les revenus d’emblée, ce qui est énorme. Il ne s’agit pas des bénéfices, mais bien des revenus qui vont directement dans les coffres de Microsoft.
Microsoft détient également tous les droits de propriété intellectuelle. Ainsi, toute découverte d’OpenAI revient directement à Microsoft. Ce n’est pas un secret non plus. Satya Nadella a déclaré : « Si OpenAI disparaît demain, nous irons bien. Nous avons toute leur propriété intellectuelle. »
Voici un résumé de la situation actuelle :
- OpenAI prévoit de se convertir en entreprise à but lucratif pour lever des capitaux en vue d’une future introduction en bourse.
- OpenAI a déclaré qu’ils ne poursuivaient plus cette voie, mais je n’y croyais pas vraiment à l’époque. Je pense qu’ils cherchent probablement des solutions pour devenir une entreprise à but lucratif.
- Ils ont besoin de l’approbation de Microsoft, bien sûr.
- Microsoft détient les droits de propriété intellectuelle sur tous les modèles OpenAI jusqu’en 2030 et une part de 20% des revenus.
- Je n’avais pas entendu parler de cette échéance de 2030. Je pensais que c’était basé sur la définition de l’AGI, qui est une définition amorphe en soi. Et tout le monde parle maintenant de superintelligence, pas d’AGI.
- OpenAI veut abandonner cette clause AGI, mettre fin aux droits de propriété intellectuelle de Microsoft et remplacer les 20% de part des revenus par des redevances plus des actions.
- Microsoft n’est pas satisfait de la nouvelle offre. Pourquoi le seraient-ils ? Pourquoi auraient-ils une incitation à faire cela ? Ils n’en ont aucune.
- La seule incitation qu’ils pourraient avoir serait d’essayer d’éviter les enquêtes antitrust, mais avec l’administration actuelle, je ne pense pas qu’ils aient à s’inquiéter.
- OpenAI envisage une option nucléaire consistant à accuser Microsoft de comportement anticoncurrentiel.
- Si Microsoft ne s’améliore pas dans les 6 mois, les investissements actuels d’OpenAI se transformeront en dette et l’engagement de 30 milliards de SoftBank sera réduit à 10 milliards.
Nous verrons ce qui se passera.
OpenAI poursuivi pour le nom « IO »
Les gens ont rapidement remarqué que la page IO sur OpenAI, qui est la collaboration entre Jony Ive et Sam Altman pour créer la prochaine génération d’appareils d’intelligence artificielle (du matériel réel, essentiellement le prochain iPhone), est hors ligne.
Si vous regardez la page, elle indique : « Cette page est temporairement indisponible en raison d’une ordonnance du tribunal suite à une plainte pour marque déposée de IO (I yo) concernant notre utilisation du nom IO. Nous ne sommes pas d’accord avec la plainte et examinons nos options. »
Cela semble être un procès ridicule, mais bien sûr, il y a plus à cette histoire car il s’agit d’OpenAI. Voici plus d’informations : il s’avère qu’OpenAI discutait avec IO (I yo) à propos de leur appareil.
Si vous ne les connaissez pas, voici l’appareil. C’est une sorte d’appareil similaire aux AirPods que vous mettez dans votre oreille. Il est beaucoup plus grand, mais il possède des capacités d’IA et l’interface est entièrement vocale. Je suis en fait très optimiste quant à ce format. Je ne veux pas porter de lunettes, certainement pas à l’intérieur. Avoir quelque chose qui se place simplement dans mon oreille comme des AirPods a beaucoup de sens pour moi. La seule chose qui lui manque vraiment, à mon avis, c’est la vision. Comment va-t-il voir le monde qui vous entoure ? Et évidemment, il ne le peut pas. Mais avec quelque chose de cette taille, assez grand, je pense que des caméras pourraient facilement s’y intégrer.
Voici à quoi il ressemble sur quelqu’un. Il est assez grand, couvrant pratiquement toute l’oreille.
Revenons à la partie OpenAI. Voici des extraits du procès : « Les défendeurs connaissent l’existence d’IO, les marques IO et la nature de la technologie d’IO depuis au moins 2022. » Et il s’avère, et Sam Altman a effectivement partagé ces emails internes, que le fondateur d’IO (I yo) a contacté OpenAI pour leur vendre. Ils voulaient être acquis avec leur technologie, mais OpenAI a apparemment refusé. Ce n’était peut-être pas un refus catégorique. Ils ont fini par utiliser IO comme nom, ce qui est assez fou pour moi d’utiliser ce nom après avoir parlé à cette autre entreprise et de sortir probablement un produit qui ressemble à celui-ci.
Un autre ingénieur, soit de LoveFrom (la société de Jony Ive qui a été acquise par OpenAI), soit d’IO, a commandé le produit initial d’IO et précommandé un IO1. L’appareil utilise 16 microphones à formation de faisceaux pour créer un affichage audio ou un environnement audio immersif pour parler et écouter.
Et voici la version de Sam Altman : « Jason Rugolo espérait que nous investirions dans son entreprise IO ou que nous l’acquerrions, et il était assez persistant dans ses efforts. Nous avons refusé et avons été clairs tout au long du processus. Maintenant, il poursuit OpenAI pour le nom. C’est idiot, décevant et faux. »
Poursuivre pour le nom semble un peu idiot, mais en même temps, pourquoi nommeriez-vous votre entreprise comme celle avec laquelle vous avez discuté ?
Voici quelques-uns des emails internes. De Rugolo : « J’aimerais avoir l’opportunité de vous proposer d’investir 10 millions de dollars dans ma société de matériel audio et d’IA, IO. » Il donne des informations sur les conditions. « Êtes-vous ouvert à un appel ? »
Et Sam Altman a répondu : « Merci, mais je travaille sur quelque chose de compétitif, donc nous allons respectueusement passer, appelé IO. » Et fait intéressant, il a déjà révélé le nom du produit IO, qui sonne exactement comme IO (I Yo).
Jason dit : « Rut, voulez-vous travailler ensemble ? Je ne veux pas m’opposer à vous, mec. » Bien sûr qu’il ne veut pas. OpenAI s’attaque à tout.
Voici un autre email de Peter Willander à Sam Altman. C’est un email interne : « Je ne pense pas qu’il y ait une adéquation. Leur appareil est orthogonal au nôtre et ne fonctionne pas encore vraiment. Ils ont proposé que nous examinions la propriété intellectuelle, mais je doute qu’il y ait quoi que ce soit là-dedans. Tang connaît leurs ingénieurs depuis avant et ne pense pas que nous ayons besoin d’eux. » C’est une critique assez sévère.
C’est pourquoi OpenAI a retiré la page IO pendant que l’affaire passe devant les tribunaux.
11 Labs introduit 11 AI, un assistant vocal complet
11 Labs introduit 11 AI, leur assistant vocal IA complet. Comme ils le décrivent, c’est un assistant vocal conçu pour explorer le potentiel de la technologie d’IA conversationnelle de 11 Labs.
11 Labs est incroyablement bon en matière de voix. Cela signale que 11 Labs entre vraiment dans la course des assistants IA personnels, qui est déjà occupée par toutes les grandes entreprises technologiques.
Vous pouvez faire des choses comme « planifier ma journée et ajouter ma liste de priorités à Linear », « utiliser Perplexity pour rechercher notre réunion prospect aujourd’hui et résumer leur récent financement », « rechercher nos problèmes Linear pour le bug API et créer un nouveau ticket pour le suivi », « me mettre à jour sur les messages Slack d’hier dans le canal d’ingénierie ».
S’il fonctionne aussi bien qu’ils le promeuvent, ce serait assez impressionnant. Mais encore une fois, j’ai vu cela plusieurs fois de la part de nombreuses autres entreprises, et cela ne fonctionne jamais aussi bien que la démo.
Il est livré avec une intégration MCP, donc il est très flexible dans ce sens. Et des intégrations prêtes à l’emploi avec Perplexity, Linear, Slack et Notion. C’est une version alpha. Allez l’essayer et faites-moi savoir ce que vous en pensez.
Replit atteint 100 millions de dollars de revenus récurrents annuels
Replit a partagé qu’ils viennent d’atteindre 100 millions de dollars en ARR (revenus récurrents annuels). C’est beaucoup. Comparé aux grandes entreprises technologiques, c’est une goutte d’eau, mais c’est quand même beaucoup d’argent.
Mais le plus impressionnant est qu’il y a 6 mois, ils étaient à 10 millions. En regardant ce graphique, il leur a fallu essentiellement 8 ans pour passer de 0 à 10 millions de dollars en ARR, puis 6 mois pour passer de 10 à 100 millions. C’est absolument fou.
Nous avons vu des choses similaires de Cursor et Warp. L’ensemble de l’industrie du codage est en train d’être transformé presque du jour au lendemain, et le potentiel du marché est énorme. C’est vraiment excitant de voir ces choses. J’adore utiliser ces outils et félicitations à Replit.
Thinking Machine Labs : l’entreprise de Mira Murati se concentre sur l’IA pour les entreprises
Nous avons un peu plus d’informations sur l’entreprise de Mira Murati, ce qu’ils font et comment ils prévoient de se différencier des autres fournisseurs de modèles de pointe.
Ils ont levé 2 milliards de dollars à une valorisation de 10 milliards de dollars auprès d’Andreessen Horowitz moins de 5 mois après sa fondation. Si cela semble fou, c’est Mira Murati, ancienne CTO d’OpenAI. Donc, s’il y a quelqu’un qui sait comment construire des modèles de pointe, c’est bien elle.
Elle a dit aux investisseurs que TML (Thinking Machine Labs) développe une IA personnalisée qui permettra aux entreprises de gagner plus d’argent. C’est tout ce que nous savons.
Selon The Information, TML prévoit d’utiliser des formes d’apprentissage par renforcement, une technique de développement d’IA courante qui récompense un modèle d’IA pour accomplir certains objectifs et le pénalise pour d’autres comportements. TML prévoit de personnaliser les modèles sur des métriques commerciales spécifiques que ses clients suivent, connues sous le nom d’indicateurs clés de performance (KPI), qui sont généralement liés à la croissance des revenus ou des bénéfices.
Basiquement, ils l’appellent « RL pour les entreprises ». C’est très large et ne nous donne pas vraiment de détails spécifiques, mais nous en saurons peut-être plus bientôt.
La startup prévoit également de développer un produit pour les consommateurs, bien qu’on ne sache pas à quoi ce produit pourrait ressembler.
Voici un peu plus d’informations techniques sur ce qu’ils prévoient de faire. Cette technique a été discutée dans le monde de l’IA, mais laissez-moi vous la lire : « TML prévoit de prélever des couches spécifiques de modèles d’IA, les sections qui traitent l’information par phases, et de les combiner. Cela réduirait le temps nécessaire pour développer les modèles de TML », a déclaré Murati aux investisseurs. C’est un peu comme la fusion de modèles, qui est une technique réussie, mais ne produit pas vraiment de meilleurs modèles par étapes. Cela leur permet simplement d’arriver plus rapidement sur le marché avec les modèles qu’ils créent.
Google lance plusieurs nouvelles technologies d’IA
Les prochaines histoires concernent toutes Google. Ils lancent tellement de choses en ce moment, c’est assez fou. Passons en revue tout cela.
Imagen 4 et Imagen 4 Ultra
Logan Kilpatrick : « Aujourd’hui, nous déployons Imagen 4 et Imagen 4 Ultra dans l’API Gemini et Google AI Studio. » C’est la toute nouvelle version de leur modèle de texte en image. Imagen 4 Ultra est au prix de 6 cents par image de sortie.
Voici quelques exemples. Voici l’invite : « Une bande dessinée cosmique épique en trois panneaux. Panneau un, petite poussière d’étoile dans la nébuleuse. Le radar montre une anomalie. Texte ‘anomalie détectée’. » Et nous pouvons le voir ici. Texte parfait. Texte de coque. Poussière d’étoile. Le pilote chuchote.
« Panneau deux. Bioluminescence. Un léviathan émerge. Console texte rouge avertissement. Panneau trois. Le léviathan poursuit le vaisseau à travers les astéroïdes. Console retext. Bouclier critique. Texte d’écran évade. Le pilote crie. SFX crunch. Rugissement. »
D’accord, donc le voici. Panneau un. Panneau deux. Voici le Léviathan. Avertissement. Bouclier critique. Urgence. Nous sommes touchés. Et crunch et rugissement. Très, très bien. Je pense que cela a l’air génial.
En voici un autre. « Face d’une carte postale de voyage vintage de Kyoto. Pagode iconique sous les fleurs de cerisier. Montagnes enneigées au loin. Ciel bleu clair. Couleurs vibrantes. » Oui, ça a l’air vraiment bien.
En voici un autre. « Photographie hyperréaliste d’un couple aventureux faisant de la randonnée sur un sommet de montagne au lever du soleil. Bras levés en triomphe. Vue panoramique épique des vallées en contrebas. Lumière dramatique. » Très bien.
Essayez-le et dites-moi ce que vous en pensez. C’est gratuit à essayer dans AI Studio.
Gemma 3N
Google a lancé Gemma 3N. C’est le petit modèle le plus performant du marché. Rappelez-vous, Gemma est un modèle open source. Il peut fonctionner sur votre ordinateur. Il peut probablement même fonctionner sur votre téléphone étant donné sa taille.
Voici quelques caractéristiques. Il est multimodal par conception. Il prend en charge les entrées d’images, d’audio, de vidéo et de texte, et les sorties de texte. Il est optimisé pour être sur l’appareil. Deux tailles venant à 2 Go et 3 Go de mémoire. Il utilise une nouvelle architecture appelée matformer. Je n’en ai pas entendu parler. Je dois me renseigner moi-même.
Et il a une qualité améliorée comme nous pouvons le voir ici. Voici Llama 4 Maverick à 17 milliards de paramètres. Voici Gemma 3N, la version à 4 milliards de paramètres. Voici GPT-4.1 Nano à 54 milliards. Et arrivant sous Gemini 1.5 Pro, qui est un grand modèle. C’est le premier modèle sous 10 milliards de paramètres à atteindre un score ELO de 1300 sur LM Arena. Très cool. Téléchargez-le. Il est déjà disponible dans Ollama et LM Studio.
Alpha Genome
Ils ont lancé Alpha Genome, qui est une contribution incroyable à la communauté scientifique, introduisant un nouveau modèle unifiant de séquence d’ADN qui fait progresser la prédiction des effets des variants réglementaires et promet de jeter une nouvelle lumière sur la fonction du génome, maintenant disponible via API.
Ce que cela fait, c’est prédire avec précision comment les variants ou mutations simples dans les séquences d’ADN humain affectent une large gamme de processus biologiques régulant les gènes. Ils prévoient de publier le modèle à l’avenir, mais il est disponible via API aujourd’hui.
Ce sont d’excellentes nouvelles pour améliorer la santé globale de l’humanité, découvrir de nouveaux médicaments qui fonctionnent mieux sur nous et potentiellement guérir des maladies à l’avenir. C’est, comme je l’ai dit auparavant, un domaine du bénéfice de l’intelligence artificielle pour l’humanité qui m’enthousiasme énormément.
Gemini CLI
Et enfin de Google, une quantité folle de sorties cette semaine. Ils ont lancé Gemini CLI, qui est un agent d’IA open source très similaire à Claude Code. Il est gratuit. Il est open source et amène Gemini directement dans les terminaux des développeurs.
Il est complètement gratuit. Et non seulement cela, ils ne vous donnent pas seulement une poignée de requêtes. Ils vous donnent en fait un quota assez bon à utiliser. 60 requêtes par minute, mille requêtes de modèle par jour, open source, complètement gratuit.
Voici une petite démo. Gemini CLI peut être utilisé pour une grande variété de tâches, y compris la création d’une courte vidéo montrant l’histoire des aventures d’un chat roux autour de l’Australie avec voix off et imagine. De plus, il est disponible dans VS Code en tant qu’extension. Et beaucoup de gens m’ont dit que c’était incroyable. Essayez-le et dites-moi ce que vous en pensez.
Une victoire pour les entreprises d’IA : l’utilisation de livres par Anthropic jugée comme « fair use »
Une victoire pour les entreprises d’IA. Un juge fédéral a statué que l’utilisation par Anthropic de livres pour entraîner Claude relève de l’utilisation équitable (fair use).
Un juge fédéral à San Francisco a statué tard lundi que l’utilisation par Anthropic de livres sans permission pour entraîner ses systèmes d’intelligence artificielle était légale selon la loi américaine sur le droit d’auteur. Se rangeant du côté des entreprises technologiques sur une question cruciale pour l’industrie de l’IA, le juge de district américain William Alsup a déclaré qu’Anthropic a fait un usage équitable des livres des écrivains Andrea Bartz, Charles Graeber et Kirk Wallace Johnson pour entraîner son modèle de langage Claude.
De plus, selon le jugement, « comme tout lecteur aspirant à être écrivain, les LLM d’Anthropic se sont entraînés sur des œuvres non pas pour les devancer et les répliquer ou les supplanter, mais pour tourner un virage serré et créer quelque chose de différent. »
Je suis un créateur de contenu, et bien sûr, je suis un peu plus sensible à ce sujet. Je veux au moins avoir l’option de refuser que l’IA s’entraîne sur mon contenu. Je l’autoriserais quand même, mais je veux au moins avoir l’option. Mais je sais que beaucoup d’entre vous, car vous me l’avez dit dans les commentaires, pensent : « Hé, si c’est là, si c’est public, vous devriez pouvoir vous entraîner dessus pour construire un LLM. »
Alors, qu’en pensez-vous ? Pensez-vous que c’est une victoire ? Pensez-vous que c’est problématique pour l’avenir des créateurs de contenu ?
Anthropic publie une étude sur l’utilisation des modèles d’IA pour le soutien émotionnel
Anthropic a publié un nouveau document sur la façon dont les gens utilisent les modèles d’IA pour le soutien émotionnel. Voici quelques cas d’utilisation :
- Conseils interpersonnels : J’utilise définitivement l’IA pour cela, pour naviguer dans des situations difficiles, des conversations difficiles, pour m’aider à comprendre comment quelqu’un pourrait répondre à quelque chose que je dis. Et c’est génial.
- Coaching : Je l’utilise définitivement un peu pour le coaching.
- Psychothérapie ou conseil : Je ne l’utilise pas vraiment pour cela.
- Compagnie, jeu de rôle romantique et jeu de rôle sexuel.
Bien que l’utilisation globale de la série de modèles Claude pour ce cas d’utilisation de soutien émotionnel soit relativement faible, c’est toujours très intéressant, et cela va probablement croître à mesure que ces IA s’améliorent et que les gens se familiarisent davantage avec elles.
Le montant total actuel est d’environ 2,9% de toute l’utilisation de Claude qui va vers ces cas d’utilisation. Et ils rapportent également que les conversations se terminent plus positivement qu’elles n’ont commencé. Cela semble donc être une bonne chose.
Ils rapportent également que les modèles ne résistent qu’environ 10% du temps, ce qui signifie lorsqu’un préjudice potentiel est détecté, comme des conversations liées aux troubles alimentaires.

