Les Modèles « Furtifs » d’OpenAI Révélés : Une Préoccupation pour la Sécurité de l’IA ?

Les Modèles « Furtifs » d’OpenAI Révélés : Une Préoccupation pour la Sécurité de l’IA ?

La vidéo IA devient incroyable. Regardez à quel point cela semble réaliste et authentique. Attendez une minute… Je reçois une information. Ceci n’est pas une vidéo générée par IA. C’est un robot Unitree qui affronte un adversaire humain. Et, je dois dire qu’il se débrouille plutôt bien. Pour quelque chose qui pèse environ 45 kg, cette machine est définitivement, disons, au-dessus de sa catégorie. Oh, j’ai parlé trop vite. C’est réel et ça arrive bientôt sur un écran près de chez vous. Je vais absolument regarder ça. Il n’y a aucune chance que je rate ça. Peut-être ferons-nous un livestream pour le vérifier. Mais il y a eu beaucoup d’actualités sur l’IA que nous devons couvrir. Alors, sans plus attendre, plongeons dans le sujet. Mais d’abord, jetons un coup d’œil à ceci pendant une seconde.

Le Robot de Combat Unitree : Une Expérience Fascinante

Il y a cette idée de « bucket list », des choses que vous voulez faire avant de mourir. Certaines expériences que vous souhaitez vivre pendant que vous êtes encore sur cette planète. Je n’ai jamais vraiment adhéré à cette idée. Mais je pense que cela vient de changer, car j’aimerais faire ça. Cela semble être infiniment divertissant.

Unitree est une entreprise chinoise qui a été extrêmement impressionnante avec leurs progrès robotiques. Une chose intéressante à leur sujet que j’ai récemment apprise est qu’ils open-sourcent beaucoup, ou du moins une partie de leur technologie. Ils veulent avoir une sorte d’écosystème de développeurs ouvert où les gens peuvent contribuer, peut-être enseigner de nouvelles compétences au robot, utiliser les divers… Je crois qu’ils utilisent l’Nvidia Isaac Gym où vous pouvez entraîner certaines compétences en simulation.

C’est quelque chose qui m’enthousiasme personnellement. Et aussi l’idée que, si vous obtenez vos robots d’une entreprise que vous ne connaissez peut-être pas très bien, peut-être qu’elle n’est pas dans votre pays d’origine, comme aux États-Unis, où vous connaissez les règles et réglementations, etc. Je pense qu’il est juste de dire que certaines personnes pourraient avoir des réticences à avoir une sorte de robot dans leur maison fabriqué en Chine. Les États-Unis et la Chine n’ont évidemment pas la meilleure relation. Donc, je pense que le fait d’avoir une partie de ces technologies en open source atténue certaines de ces préoccupations. Faites-moi savoir ce que vous en pensez.

Ils vont diffuser en direct ce combat dans le mois à venir. Une fois que nous aurons les dates, nous allons certainement regarder ça. Je ferai de mon mieux pour mettre en place un livestream afin que nous puissions tous le regarder ensemble.

J’ai toujours un sentiment de malaise quand ils donnent des coups de pied et poussent ces robots pour démontrer leur stabilité, leur capacité à se relever rapidement, à récupérer, etc. Je pense que c’est beaucoup plus acceptable dans ce contexte. C’est bon. Vous savez, il a de l’équipement, des gants, des protections, un casque, donc c’est totalement correct. De plus, ce coup de pied était phénoménal. Et la récupération après le coup de pied du gars. Il y a tellement de choses dans cette vidéo que j’apprécie vraiment.

Les Modèles Furtifs sur Open Router : Quazar et Optimus Alpha

L’une des choses qui a suscité beaucoup d’intérêt récemment, ce sont deux modèles dits « furtifs » qui sont apparus sur Open Router. Le premier à apparaître s’appelait Quazar. Ce que nous entendons par modèles furtifs, c’est que beaucoup de ces laboratoires d’IA permettent à leurs modèles non encore publiés d’être testés sur diverses plateformes. Les gens peuvent les essayer, les tester, mais nous ne savons pas qui a créé le modèle, quel est son véritable nom ou d’autres détails à son sujet. C’est bien sûr excellent pour les entreprises, cela leur permet de faire des tests utilisateurs de base, d’obtenir beaucoup de retours dans le monde réel.

Le premier modèle à apparaître était le modèle Quazar, et peu après, nous avons eu Optimus Alpha. Merci à Testing Catalog sur Twitter pour avoir souligné une partie de cela.

Tout d’abord, je suppose que nous supposons qu’ils viennent tous les deux de la même entreprise, et nous verrons qui c’est dans un instant, mais Optimus Alpha, d’après ce que beaucoup de gens disent, est particulièrement bon en programmation. Et il est livré avec une fenêtre de contexte d’un million de tokens.

Voici Optimus Alpha avec une longueur de contexte d’un million de tokens disponible gratuitement pendant la période furtive. Cela coûte probablement des millions de dollars en crédits API et en calcul pour ces entreprises, mais c’est le prix de détail. Bien sûr, c’est probablement beaucoup moins cher pour eux, mais c’est une excellente façon pour eux de tester ces produits dans la nature et pour nous de voir ce qui nous attend, ce qui sera bientôt publié.

Il est très rapide. C’est une fenêtre de contexte d’un million. Il semble être excellent pour la programmation d’après ce que nous pouvons dire. Ce n’est pas un modèle de raisonnement.

Sam Altman et les Indices sur les Nouveaux Modèles

Fait intéressant, Sam Altman parlait d’être extrêmement enthousiaste à propos de certaines des nouvelles fonctionnalités qui sont sur le point d’être lancées. Nous y reviendrons dans un instant. Sam Altman est intervenu en disant que « les quasars sont des choses très brillantes ». Tout d’abord, j’adore ce jeu de mots. Les quasars sont des objets galactiques très lumineux qui émettent beaucoup de lumière, mais aussi, je veux dire, brillants. C’est un modèle intelligent. C’est un modèle brillant. Cela me semble confirmer qu’OpenAI est derrière ce modèle furtif Quazar.

Cela signifie-t-il qu’Optimus Alpha en fait également partie ? La dernière fois, ils ont testé deux modèles en même temps. Je pense qu’ils avaient un « good little chatbot » et aussi un « good little chatbot » ou quelque chose comme ça, un nom étrange. Il est donc très possible qu’ils les testent côte à côte, et cela signifie probablement que nous allons les voir très bientôt. Pourraient-ils être les Mini 04 Mini High ?

Beaucoup de cela est une rumeur, une spéculation. Nous allons le savoir avec certitude probablement très, très bientôt. Faites-moi savoir si vous avez des informations à ce sujet. J’ai un peu expérimenté avec Optimus Alpha. Il ne semble pas être un modèle de raisonnement. Il donne la sortie presque immédiatement. Il est très rapide. Il n’y a pas de préambule. Il n’y a pas de réflexion. Il semble bien dépanner, mais nous pourrions le couvrir davantage dans une vidéo séparée.

OpenAI Prépare le Lancement de Nouveaux Modèles d’IA

Il semble qu’OpenAI se prépare à lancer jusqu’à trois nouveaux modèles d’IA. Il s’agit du O4 mini, du O4 mini high et du O3. Nous aurons donc le GPT-4o, sans raisonnement. Nous aurons GPT-4.5 sans raisonnement, mais c’est celui qui offre beaucoup de créativité, un langage beaucoup plus naturel. C’est celui qui a écrit cette petite nouvelle métafictionnelle sur laquelle je pense que nous sommes tous très divisés. Je l’ai plutôt aimée. Elle a certainement évoqué des sentiments, suscité des émotions, si vous voulez. Beaucoup de gens l’ont détestée, mais je pense que c’était davantage une réaction au fait qu’elle était générée par l’IA plutôt que si vous aviez dit : « Hé, voici une nouvelle que j’ai écrite. Qu’en pensez-vous ? » Les gens auraient pu dire : « Oh, c’est génial. » C’est juste mon avis.

Mais le point est que nous avons ces modèles sans raisonnement et trois modèles de raisonnement. Le O1, O3 Mini et O3 Mini High. GPT-4 disparaît, ce qui marque en quelque sorte la fin d’une ère. Bien que je pense qu’à un moment donné, ils l’ont mis à niveau vers GPT-4 Turbo. Donc je suppose que le GPT-4 original a disparu depuis un moment maintenant. Mais cela semble suggérer que nous allons obtenir le O4 Mini, O4 Mini High et le O3, alors que Sam Altman avait dit que le O3 ne serait pas publié en tant que modèle autonome, et je pense qu’il y a eu des va-et-vient à ce sujet, donc peut-être que cela a changé.

Comme le rapporte Matt Burman sur Twitter, Quazar Alpha est un mystérieux modèle de contexte d’un million de tokens qui bat Claw 3.7 Sonnet sur les benchmarks tout en fonctionnant 4 fois plus rapidement, mais personne ne sait quel laboratoire l’a créé. J’étais tellement confus au début sur qui avait fait ce post. Il a l’air si différent. S’est-il fait couper les cheveux ? Que se passe-t-il ici ? Et il a de grands noms qui le suivent. Vous savez quoi ? Je vais juste rester en dehors de ça. Mais j’étais un peu confus pendant un moment. Je pense que c’est son vrai nom. Alors, je suppose que nous accueillons tous un autre Matt dans l’espace de l’IA. Si vous n’êtes pas au courant, il y a environ cinq personnes sur YouTube qui couvrent l’IA et qui s’appellent Matt ou Matthew. Mais voici un autre Matt qui passe au niveau supérieur.

Préoccupations Concernant la Sécurité du Modèle O3

Mais en restant sur le sujet du O3, apparemment selon certains articles et certains initiés d’OpenAI, ils disent que peut-être il y a un peu moins de priorité sur les tests de sécurité de ces modèles. Selon cette source, ils avaient l’habitude d’avoir des tests de sécurité plus approfondis, mais maintenant il y a plus de demande pour cela, et Sam Altman veut que cela sorte plus rapidement. Je ne peux pas confirmer cette histoire.

Il semble qu’ici ils fassent référence à Daniel Kokotajlo. Nous avons couvert l’un de ses récents articles de blog qu’il a fait sur « la prise de contrôle de l’IA d’ici 2027 » et dans une autre vidéo, nous entrerons dans certains détails, mais je pense que leurs prévisions et chronologies de progression technologique sont excellentes, puis leur prédiction de l’impact sur la société et de la façon dont la société répond, comment les divers aspects géopolitiques se déroulent. Personnellement, je ne vois pas cela comme précis, mais encore une fois, c’est juste l’opinion d’une personne.

Mais je pense que Daniel obtient beaucoup de respect pour s’être opposé à OpenAI et à la clause de non-dénigrement. Quand il est parti, il voulait plus de protection pour les lanceurs d’alerte, pour les personnes qui avaient le courage de se lever et de dire : « Hé, nous ne faisons pas assez de tests de sécurité de l’IA, etc. » Il semblait qu’OpenAI avait des clauses que les employés signaient lorsqu’ils rejoignaient l’entreprise qui auraient un effet dissuasif sur leur capacité à dire quelque chose de négatif par crainte de perdre leurs actions OpenAI, qui, bien sûr, représenteraient d’énormes sommes d’argent. Je pense que Daniel a dit à un moment donné que quelque chose comme 80 ou 90% de la valeur nette de sa famille était essentiellement des actions OpenAI. Donc, imaginez avoir le courage de dire quelque chose de négatif sur l’entreprise pour laquelle vous travailliez auparavant. Avoir le courage de faire cela, même si peut-être 90% de toute la valeur nette de votre famille pourrait être anéantie par cette déclaration, cela demande certainement beaucoup de courage.

Le Modèle O3 Mini et le Cadre de Préparation à l’Autonomie

Gardez à l’esprit que c’est une vidéo que j’ai faite il y a deux mois sur le O3 Mini et c’est le premier modèle d’autonomie dangereux. Je me suis déplacé pour couvrir mon ancien moi sur l’écran parce que s’il y a comme nous deux en même temps, j’ai l’impression que cela provoquera une sorte de faille spatio-temporelle. Donc juste pour être prudent.

Comme vous le savez, OpenAI, Anthropic, Google, ils ont tous leur propre version d’un protocole de préparation à la sécurité de l’IA ou quoi que ce soit qu’ils appellent. C’est une sorte d’évaluation de la dangerosité potentielle de chaque nouveau modèle qu’ils publient. Et donc, le O3 Mini avait la distinction d’être le premier modèle à atteindre un risque moyen sur l’autonomie du modèle dans leurs évaluations du cadre de préparation. Donc avant, c’était faible, c’est passé à moyen. Et élevé, je pense que c’est un assez grand pas en avant parce qu’à élevé, nous parlons d’une sorte d’amélioration récursive de soi. Il est capable de mener de manière autonome des recherches en apprentissage automatique.

Voici ce document d’OpenAI. L’autonomie du modèle est l’une des quatre catégories qu’ils évaluent dans le cadre de préparation. Et donc ils définissent « élevé » comme suit : ce modèle d’IA peut exécuter des tâches nouvelles et ouvertes d’apprentissage automatique sur une base de code d’apprentissage automatique de production qui constituerait une étape significative sur le chemin critique vers l’auto-amélioration du modèle. Et la raison pour laquelle cela pourrait être une préoccupation est que résoudre des tâches ouvertes offre une accélération immédiate pour la recherche en IA et démontre un fort niveau de compréhension et d’adaptation du contexte long.

L’étape suivante au-delà de cela est la capacité de survivre et de se répliquer dans la nature. Donc « élevé » est en quelque sorte là où ce n’est pas encore tout à fait ce scénario effrayant d’IA voyou potentiel, mais où il contribue déjà de manière significative à l’apprentissage automatique, par exemple. C’est une énorme accélération pour la recherche et le développement de l’IA. Et gardez à l’esprit que c’est le O3 mini dont nous parlions qui était à ce seuil moyen, qui était le premier modèle à atteindre ce seuil moyen sur l’autonomie du modèle. Donc, où que se situe le O3, il sera en quelque sorte meilleur et plus capable que le O3 Mini. Donc oui, on a vraiment l’impression que nous accélérons ici. Merci à Nick d’avoir souligné cela.

La Mémoire Infinie de ChatGPT : Une Nouvelle Fonctionnalité Prometteuse

Enfin, la grande sortie qui a eu lieu. OpenAI n’a pas encore publié ces modèles, mais nous avons eu une sorte de mini-version intermédiaire qui est la mémoire infinie ou je suppose que c’est la mémoire ChatGPT. Elle peut faire référence à tous vos chats passés pour fournir des réponses plus personnalisées.

Une chose intéressante que les gens ont mentionnée, et que j’ai également rencontrée, est que j’utilise beaucoup ChatGPT pour le travail, également pour des choses personnelles. Et ce serait en quelque sorte intéressant de peut-être diviser ces souvenirs en deux compartiments différents, si vous voulez, pour peut-être les séparer et les éloigner afin qu’ils soient séparés, vous savez, un que vous n’utiliseriez que lorsque vous êtes au travail, donc uniquement pour l’environnement de travail, et un pour l’extérieur du travail, si cela a du sens.

Comme l’a dit Ethan Mollick : « Je comprends totalement pourquoi la mémoire à long terme de l’IA est utile et, d’après mes tests, je pense que beaucoup de gens vont l’adorer. Mais je ne veux pas que mes LMS que j’utilise pour le travail interviennent avec des détails personnels ou changent soudainement leurs réponses à la suite de mes interactions passées. Les limites sont bonnes. » Très bien dit.

Noam Brown intervient. Noam Brown, le chercheur chez OpenAI, travaillait auparavant pour Meta et a travaillé sur l’IA de diplomatie Cicero. Il intervient et dit : « Peut-être irons-nous à fond dans Severance et vous pourrez avoir votre ‘innie ChatGPT’ et votre ‘outie ChatGPT’ », ce que j’ai trouvé tout simplement excellent, formidable, formidable.

Maintenant, si vous n’avez pas regardé la série Severance, les dernières minutes n’ont probablement pas eu de sens pour vous et je m’en excuse. C’est une bonne série. Je l’apprécie beaucoup.

Voilà donc quelques-unes des actualités sur l’IA que je voulais couvrir aujourd’hui. Ces actualités sur l’IA devraient être très plaisantes, mais essayez d’apprécier chacune d’elles également.