La Quête de Google pour Concrétiser l’IA : De la Recherche à la Réalité
L’événement Google I/O vient de nous révéler une ambition claire : transformer rapidement toutes les avancées en recherche d’intelligence artificielle en produits concrets. Sous le thème « de la recherche à la réalité », Google a dévoilé une stratégie ambitieuse pour intégrer l’IA dans chaque aspect de son écosystème, avec une détermination évidente de dominer cette nouvelle ère technologique.
La nouvelle stratégie de Google : productiser l’IA à grande échelle
Lors de son discours d’ouverture, le PDG Sundar Pichai a clairement énoncé la position de Google : « Nous entrons maintenant dans une nouvelle phase du changement de paradigme de l’IA, où des décennies de recherche deviennent réalité. » Il a ajouté : « Normalement, vous n’auriez pas entendu grand-chose de notre part dans les semaines précédant I/O, car nous aurions gardé nos meilleurs modèles pour la scène. Mais à l’ère de Gemini, nous sommes tout aussi susceptibles de déployer notre modèle le plus intelligent un mardi quelconque de mars ou d’annoncer une avancée vraiment impressionnante comme Alpha Evolve juste une semaine avant. Nous voulons mettre nos meilleurs modèles entre vos mains le plus rapidement possible, c’est pourquoi nous livrons plus vite que jamais. »
Cette approche marque un changement significatif dans la façon dont les laboratoires d’IA opèrent. La compétition est si intense que les entreprises ne peuvent plus se permettre de réserver leurs meilleures annonces pour les grandes conférences – elles doivent les publier dès qu’elles sont prêtes. Les événements comme Google I/O deviennent alors des occasions de présenter une vision stratégique cohérente plutôt que de simples plateformes d’annonces.
L’abonnement Ultra : monétiser l’IA de manière directe
L’une des annonces les plus notables est le lancement du nouvel abonnement « Ultra » à 250 dollars par mois. Jusqu’à présent, Google n’avait pas vraiment monétisé l’IA de manière significative, se contentant d’un niveau Pro à 20 dollars et de quelques modules complémentaires pour Workspace. Avec Ultra, Google propose enfin une offre premium cohérente ciblant directement les utilisateurs.
Cet abonnement comprend :
- Des limites d’utilisation extrêmement élevées
- Un accès anticipé aux nouvelles fonctionnalités
- Un stockage accru pour Google Drive
- YouTube Premium inclus
Ce qui est particulièrement intéressant, c’est que ce regroupement des fonctionnalités d’IA les plus avancées permettra à Google d’être la première entreprise publique à présenter une ligne de revenus directement liée à l’IA dans ses résultats financiers. Jusqu’à présent, les entreprises technologiques ont généralement intégré leurs revenus liés à l’IA dans leurs divisions cloud ou publicitaires.
Gemini 2.5 Pro et le mode « Deep Think »
L’abonnement Ultra donnera accès à un mode « Deep Think » pour Gemini 2.5 Pro, un mode de raisonnement amélioré qui permet au modèle d’envisager et d’évaluer plusieurs réponses avant de formuler sa réponse finale.
Demis Hassabis, PDG de DeepMind, explique : « Deep Think pousse les performances du modèle à leurs limites. Il utilise nos dernières recherches de pointe en matière de réflexion et de raisonnement, y compris des techniques parallèles. »
Ce nouveau mode permettrait à Gemini 2.5 Pro de dépasser GPT-4o d’OpenAI sur le test de raisonnement multimodal MMU. Il améliore également les performances de codage sur le benchmark LiveCodeBench, creusant l’écart avec GPT-4o.
Project Astra : l’interface IA en temps réel
L’abonnement Ultra offre également des limites accrues pour exploiter pleinement Project Astra, l’interface IA en temps réel de Google. Astra permet au modèle d’accepter des flux vidéo et audio en streaming via un smartphone et de répondre aux questions des utilisateurs avec une très faible latence.
Cette technologie représente un pari sur ce à quoi ressembleront les interfaces IA du futur, bien que pour l’instant, Google la positionne davantage comme une fonctionnalité smartphone intéressante pour les premiers adoptants.
La transformation de la recherche Google par l’IA
Il y a deux semaines, le témoignage d’un dirigeant d’Apple indiquant que l’entreprise constatait une baisse des recherches en raison de l’IA a fait chuter l’action de Google. Cette perspective était pratiquement la seule qui intéressait la presse financière, et Google semble avoir réussi à dissiper ces inquiétudes.
L’annonce principale est que le mode IA sera déployé pour tous les utilisateurs américains de la recherche cette semaine. Les utilisateurs pourront basculer vers un onglet en mode IA et effectuer des recherches en utilisant des invites en langage naturel, y compris des questions de suivi. Les résultats pourront inclure des graphiques générés et des références à des sites web. Il existe également une fonction de recherche approfondie pour fournir des résultats plus proches d’un rapport de recherche détaillé.
Ces fonctionnalités ne sont pas révolutionnaires en soi, mais leur déploiement en dit long sur le positionnement de Google. Les inquiétudes de Wall Street ont donné à l’entreprise la liberté de mettre la recherche IA au premier plan sans craindre de réactions négatives. Même The Verge, généralement critique envers les grandes entreprises technologiques, a titré que « le mode IA est évidemment l’avenir de la recherche Google ».
Sundar Pichai a souligné que les tests internes ont montré que les aperçus générés par l’IA entraînaient une augmentation de 10 % des requêtes de recherche par utilisateur. Lors d’une interview avec All-In, Pichai a expliqué que les revenus de recherche restaient totalement inchangés avec l’introduction des aperçus IA. Il a commenté : « Empiriquement, nous constatons que les gens s’engagent davantage et utilisent plus le produit. » Son argument est que la recherche IA ne change pas grand-chose au modèle économique de monétisation de la publicité e-commerce, mais améliore simplement l’expérience utilisateur.
Project Mariner : l’agent web de Google
Google a également introduit son propre agent web appelé Project Mariner. Cet agent permet aux utilisateurs de déléguer des tâches basées sur le web à l’IA. Google affirme qu’il est capable de gérer jusqu’à une douzaine de tâches simultanément. Il fonctionne en arrière-plan d’un navigateur basé sur le cloud, permettant aux utilisateurs de poursuivre d’autres activités pendant qu’il travaille.
L’ensemble des fonctionnalités est assez similaire à celui d’OpenAI Operator ainsi qu’à d’autres agents web précoces. Mariner peut gérer des tâches comme les achats en ligne, la recherche sur le web et le remplissage de formulaires.
Google teste Mariner en version bêta comme module complémentaire pour son mode IA dans la recherche. Il semble également alimenter déjà une fonctionnalité axée sur le shopping introduite dans le mode IA au sein de l’expérience de recherche Google standard. Cette fonctionnalité promet le suivi des prix, des essayages virtuels et des paiements assistés par agent.
Enfin, il existe un mode agent dédié qui combine la navigation web avec des fonctionnalités de recherche approfondie et des intégrations d’applications. L’accès anticipé à Project Mariner sera exclusif à l’abonnement Ultra, ce qui pourrait constituer un argument de vente important.
Concernant la vision de Google sur les agents, l’approche semble quelque peu mesurée. On a l’impression que Google n’est pas encore parvenu à une conclusion définitive sur le fonctionnement des assistants web agentiques, et déploie donc plusieurs options, à la fois spécialisées et généralisées, pour tester l’adéquation au marché.
Le retour des lunettes intelligentes de Google
Une décennie après l’échec des Google Glass, Google revient sur le marché des lunettes intelligentes. Le cofondateur Sergey Brin était présent à I/O et a évoqué cet échec commercial, commentant qu’il « ne connaissait rien aux chaînes d’approvisionnement en électronique grand public ni à la difficulté de livrer à un prix raisonnable ».
Les nouvelles lunettes intelligentes Android XR seront produites en collaboration avec Warby Parker, une entreprise de lunetterie grand public. Tant en termes de style que de stratégie, Google s’inspire clairement de Meta avec ses lunettes Ray-Ban, qui ont connu un certain succès.
Google investit jusqu’à 150 millions de dollars dans Warby Parker et prend une participation au capital, conditionnée à l’atteinte de certains objectifs. Meta dispose d’une avance de plusieurs années sur des aspects comme la miniaturisation des batteries et de l’électronique, mais plus qu’une dynamique concurrentielle, ce mouvement suggère que cette catégorie de produits deviendra ubiquitaire. Il est peu probable que nous assistions à une situation où un seul acteur domine le marché des lunettes intelligentes – nous aurons plutôt une expérience radicalement banalisée où chacun aura une version de cette technologie intégrée à ses lunettes.
L’IA au service du codage
Google a présenté Jules, son agent de codage IA. Google affirme que Jules sera capable de corriger des bugs, de tester du code et de consulter de la documentation tout en fonctionnant en arrière-plan. Josh Woodward, vice-président de Google Labs, a expliqué que le brief de conception demandait : « Et si vous créiez un moyen d’assigner des tâches à cet agent pour les choses que vous ne vouliez pas faire ? »
Les réseaux sociaux regorgent de développeurs comparant Jules à Codex d’OpenAI, annoncé vendredi dernier pour devancer ces annonces. Ce qui importe moins, c’est quelle entreprise est en tête, et plus le fait qu’en moins d’une semaine, les agents de codage IA autonomes qui accomplissent des tâches routinières en arrière-plan sont devenus incontournables. Microsoft a également introduit cette fonctionnalité avec Copilot Agent plus tôt cette semaine, et il est clair que c’est désormais une caractéristique que chaque grand laboratoire devra proposer.
Deux autres outils de codage IA plus spécialisés ont également été présentés :
-
Stitch – Conçu pour transformer rapidement des idées d’interface utilisateur en interfaces frontales entièrement fonctionnelles prêtes à être déployées. Il peut prendre des entrées texte et image comme références grâce aux capacités multimodales de Google.
-
Journeys – Une fonctionnalité intégrée à Android Studio qui permet aux développeurs Android d’automatiser les tests de produits avec l’aide des agents de Google. Les utilisateurs peuvent décrire un flux d’interface utilisateur particulier en langage naturel pour tester les bugs et les plantages.
Ce qui est intéressant, c’est que contrairement aux outils de codage IA généralistes, ces outils sont destinés à des tâches très spécifiques. Il sera intéressant de voir si ce type d’outil spécialisé constitue une meilleure porte d’entrée pour l’adoption.
Autres innovations notables
Notebook LM et les présentations vidéo
Notebook LM, qui a connu un grand succès fin 2023, reçoit une nouvelle fonctionnalité passionnante avec les aperçus vidéo. Le résultat est une présentation de diapositives accompagnée de commentaires audio, le modèle étant capable de générer des infographies et de s’appuyer sur le contenu image de ses données d’entrée. Les podcasts générés par les aperçus audio sont déjà devenus un outil populaire pour les communications d’entreprise internes, et l’ajout d’une présentation est une évolution naturelle.
Flow : l’outil de création vidéo IA
Flow est le nouvel outil de création vidéo IA de Google. Destiné aux cinéastes, il permet de générer des clips vidéo basés sur du matériel de référence importé. Les utilisateurs peuvent exécuter des contrôles de caméra et utiliser un constructeur de scène pour diriger l’action. Le produit combine le modèle vidéo V3, Imagen pour la génération d’images, et Gemini pour le texte et les invites.
L’une des tendances qui se dégage est que les utilisateurs n’ont plus besoin de comprendre comment connecter divers modèles pour obtenir un résultat – l’IA elle-même sera capable d’établir ces connexions.
V3 : la vidéo avec son et dialogue
Le modèle V3 est désormais capable de générer du son pour accompagner ses vidéos, avec des résultats impressionnants. Demis Hassabis a publié une vidéo teaser d’oignons grésillant dans une poêle. Une révélation encore plus importante est que V3 peut maintenant générer des dialogues avec des accents crédibles et même un jeu d’acteur acceptable.
Beth Jos a commenté : « Cela va vraiment dévorer Hollywood », soulignant l’impact potentiel de cette technologie sur l’industrie du divertissement.
Une ambition tous azimuts
Même avec tout ce qui a été couvert, de nombreuses annonces n’ont pas été mentionnées, comme la technologie de traduction en direct pour les conférences web, les puces IA propriétaires de Google, et une douzaine d’autres nouveaux produits.
La conclusion principale pour beaucoup semble être que Google est en compétition sur tous les fronts et semble déterminé à les remporter tous. L’ingénieur de recherche IA Archis Gupta a commenté : « Google vient de tuer OpenAI, Sora, Suno AI, Perplexity, les lunettes Meta, Claw, ChatGPT en 2 heures. »
Bien que cette affirmation soit hyperbolique, ce qui est notable, c’est qu’il y a seulement un an, alors que Gemini recommandait de mettre de la colle sur une pizza, certains suggéraient que Sergey Brin pourrait devoir revenir pour remplacer Sundar Pichai. Un an plus tard, Sundar a tracé une voie pour tenter de dominer l’ère de l’IA.
Le plus flatteur que l’on puisse dire de tout cela, c’est que bien que cette avalanche d’annonces de produits ne soit pas nouvelle, l’ensemble semblait plus cohérent et plus grand que la somme de ses parties par rapport aux versions précédentes. Google a clairement dépassé le stade de la simple création de modèles d’IA en laissant aux utilisateurs le soin de comprendre comment les utiliser. L’entreprise crée manifestement une large gamme de produits d’IA censés exceller dans des fonctions spécifiques.
Fin 2024, Sundar Pichai avait déclaré à son entreprise : « Je pense que 2025 sera cruciale. Je pense qu’il est vraiment important que nous intériorisions l’urgence de ce moment et le besoin d’avancer plus rapidement en tant qu’entreprise. Les enjeux sont élevés. Ce sont des moments de rupture. En 2025, nous devons être résolument concentrés sur le déverrouillage des avantages de cette technologie et la résolution de problèmes réels des utilisateurs. »
Cette déclaration aurait pu être la thèse de Google I/O, et jusqu’à présent, la réponse du public semble positive. Google a clairement l’intention de transformer la recherche en réalité, et de dominer l’ère de l’IA qui s’ouvre devant nous.

