Google a dévoilé, mardi 18 novembre, Gemini 3, la dernière version de son intelligence artificielle. Déjà disponible dans l’application et dans Google Search, elle promet des réponses plus intelligentes, plus concises et plus directes, avec surtout moins de flatterie et de clichés. Mais aussi une capacité accrue à créer simplement et en langage courant des applications.
Les chevaux lâchés, Gemini court après ChatGPT. Alors que le modèle d’OpenAI a récemment lancé sa version GPT-5.1, Google a présenté, ce mardi, Gemini 3, six mois à peine après son prédécesseur Gemini 2.5 Pro.
« Notre modèle le plus intelligent jamais conçu », clame logiquement Google. Gemini 3 s’appuie sur les fondements établis par les générations précédentes (le multimodal natif, la prise en compte du contexte, le raisonnement avancé, le codage et les capacités agentiques). Il veut aller encore plus loin avec des réponses promises « plus intelligentes, plus concises et directes ». « Gemini 3 doit chercher à éviter les clichés et la flatterie dans ses réponses », assure la firme de Mountain View.
Pour valoriser son nouveau modèle, Google assure que Gemini 3 sera ainsi capable de saisir la profondeur et les nuances dans une demande basée sur du texte et des images, percevoir les indices subtils d’une idée créative, démêler les différentes couches d’un problème complexe. Gemini 3 peut ainsi pousser son raisonnement multimodal (texte, photo, vidéo, audio, code) encore plus loin avec la volonté de vous aider à mieux apprendre. Pour cela, il va s’appuyer sur sa capacité de raisonnement, mais aussi à sa compréhension visuelle et spatiale, ainsi que multilingue. C’est d’ailleurs sur l’aspect académique qu’il se montre le plus efficace grâce à une compréhension multimodale et des capacités de codage « inégalées ».
La possibilité de créer une application à la demande
Le nouveau modèle de Google convertit l’information dans le médium le plus pertinent pour l’utilisateur (une vidéo de conférence manquée en texte, par exemple). Il va aussi pouvoir vous aider à reprendre une recette traditionnelle familiale en déchiffrant une note manuscrite qui peut être écrite dans une autre langue et la transformer en recette dans un livre de cuisine numérique, avec illustration. « Un modèle intelligent qui vous aide à donner vie à vos idées », déclare Koray Kavukcuoglu, directeur technique de Google Deepmind et responsable de l’architecture IA de Gemini.
Ainsi, Gemini est capable de mettre en page, avec textes et photos, ses réponses pour qu’elles soient plus visuelles, agréables à consulter et même faciles à partager. Car Gemini 3 dispose d’une forte composante codage Vibe et agentique.
Ainsi, à partir du PDF d’un document technique un peu complexe, Gemini peut donner vie à une application interactive et explicative, convertir des données en visualisation 3D claire, faire une visualisation 3D de différences d’échelle entre des objets. Le tout avec un seul prompt.
Google promet aussi que sa capacité agentique est sans commune mesure avec le modèle précédent. Il pose les premières pierres d’un agent capable d’agir au travers de différents produits Google. Avec votre permission, Gemini 3 peut, par exemple, prendre des mesures pour prendre en main votre boîte de réception en train de déborder de mails: il définit et sépare les tâches et messages, ajoute certaines tâches à Google Calendar ou peut rédiger des messages à vos clients.
À cette capacité agentique supérieure, vont venir s’ajouter plusieurs nouvelles expériences au fil du temps. « Visual Layout » va permettre de créer des widgets interactifs pour avoir une réponse plus visuelle plutôt qu’une longue réponse écrite. Cela peut être intéressant pour mettre tous les éléments de votre recherche en ordre et lisible (voyage planifié, organisation événement…). « Dynamic View » mise sur les capacités de codage agentique pour concevoir une mise en forme façon expérience interactive (parcours étape par étape, chronologie dynamique…).
650 millions d’utilisateurs mensuels
Bien plus performant dans de nombreux benchmarks que son prédécesseur, Gemini va notamment se montrer très performant dans les connaissances de niveau universitaire avec le raisonnement qui va de pair, un sens de la déduction « de niveau expert » et une logique par étape améliorée. Gemini 3 devrait exceller dans la résolution de problèmes scientifiques et mathématiques et être encore plus fiable.
Et l’application Gemini se porte bien. Quelque 650 millions d’utilisateurs mensuels font appel à ses services, deux milliards chaque mois et 13 millions de développeurs sont à l’oeuvre avec les différents modèles proposés, s’est félicité Google. C’est sans doute pour cela que le nouveau modèle sera disponible pour la première fois pour les utilisateurs grand public via l’application Gemini et Search en même temps que pour les développeurs (Gemini API, AI Studio, Gemini CLI) et les entreprises (Vertex AI, Gemini Entreprise).
Gemini 3 Pro arrive en preview dans la suite de produits Google, Gemini 3 Deep Think pour certains testeurs avant de l’ajouter à Google AI Ultra. Ce mode de raisonnement pousse encore plus loin les performances. Il va créer une structure de raisonnement parallèle et plus par génération de tokens, comme le font habituellement les LLM. C’est-à-dire qu’il va se mettre à construire son raisonnement en explorant plusieurs hypothèses en simultanée. Sa capacité d’intelligence l’aidera ensuite à sélectionner les meilleures possibilités pour établir une conclusion. Une façon de procéder plus performante, plus coûteuse aussi, mais que Google espère utile pour les questions scientifiques et les problèmes plus complexes. Une nouvelle plateforme de développement, Antigravity, a également été dévoilée. Elle permet d’avoir un agent IA capable de générer des idées d’apps en langage courant.
Gemini 3 se présente comme un outil voulu très performant et véritable partenaire agentique, plus que comme un simple assistant. Il se veut votre expert – avec permission – pour créer et exécuter votre plan d’action. L’interaction avec l’IA doit devenir plus riche, dynamique et interactive à travers ses expériences.
Source: BFM


