Intelligence artificielle
Est-ce que Gemini de Google prend désormais la tête de la course à l’IA ?

Le développement de la technologie de l’IA a été décrit à juste titre comme une course, avec des startups privées comme OpenAI et Anthropic qui concourent pied à pied avec des géants de la technologie comme Microsoft (MSFT ) et Google (GOOGL ). Cette course a été alimentée par des centaines de milliards de dollars d’investissements, non seulement dans le développement de logiciels, mais également dans des dépenses de capital massives pour construire des centres de données d’IA de plus en plus grands et plus gourmands en énergie pour former les derniers modèles.
Pendant ce temps, les modèles chinois progressent également rapidement, ajoutant un sens d’urgence et de concurrence géopolitique aux efforts des entreprises occidentales.
Récemment, il semble que Gemini de Google prenne la tête de la course, en particulier avec la sortie de Gemini 3 Deep Think, un modèle axé sur une compréhension réaliste non seulement des langues, mais également du monde physique. En outre, Google est également choisi par Apple (AAPL ) pour alimenter l’IA des appareils de l’entreprise et progresse dans le domaine de la fabrication de puces d’IA.
Gemini 3 Deep Think : Qu’est-ce qui a changé ?
Sortie de Deep Think
Avec la sortie, le 12 février 2026, de Gemini 3 Deep Think, Google a fait un pas décisif vers le passage d’IA axées principalement sur la recherche et le langage (LLM) à des IA plus généralistes capables de comprendre le monde physique.
Il s’agit d’un développement important, car l'”IA physique” est la direction que prend l’industrie, une tendance que nous avons explorée plus en détail dans “IA physique : Investir dans le boom des robots humanoïdes 2026”.
Pour l’instant, le nouveau Deep Think est disponible dans l’application Gemini pour les abonnés Google AI Ultra et, pour la première fois, disponible via l’API Gemini pour des chercheurs, des ingénieurs et des entreprises sélectionnés, ce qui rend cette IA déjà commercialement disponible, et non seulement un modèle de test.
Mathématiques et sciences d’abord
Ce qui distingue Deep Think des précédentes itérations de Gemini, et dans une certaine mesure des autres IA, c’est une focalisation sur la compréhension mathématique.
Les LLM sont notoirement mauvaises dans les tâches mathématiques simples, parfois échouant même à des additions ou des comptes simples. Ce n’est pas le cas de Deep Think, qui a permis à des agents spécialisés de mener des explorations de mathématiques de niveau de recherche. Le modèle surpasse massivement les autres modèles dans les tests de mathématiques et de sciences. Il se comporte également très bien pour les tâches de codage.

Source : Google
La différence avec Gemini Pro Preview est encore plus marquée dans les tests sur des sujets scientifiques, allant des Olympiades internationales de mathématiques ou de chimie, où il a obtenu un score d’environ 82 %, contre seulement 14 % pour le test de mathématiques du modèle LLM précédent de Google.

Source : Google
Ces résultats ont été possibles grâce à une architecture radicalement différente des “IA classiques”, qui souffrent d’hallucinations lorsque les données sont trop rares, ce qui sera toujours le cas pour les dernières découvertes scientifiques.
Par exemple, pour les mathématiques pures, un agent de recherche mathématique (internement codé Aletheia), alimenté par Gemini Deep Think, comporte un vérificateur de langage naturel pour identifier les failles dans les solutions candidates. Il permet un processus itératif de génération et de révision des solutions. De manière cruciale, cet agent peut admettre son échec pour résoudre un problème, une fonctionnalité clé qui améliore l’efficacité pour les chercheurs.

Source : Google
Cette approche n’est pas seulement plus puissante pour donner les bons résultats, elle est également plus efficace, car Aletheia a démontré que la qualité de raisonnement supérieure peut être atteinte à un coût de calcul inférieur.
L’approche peut être étendue des mathématiques à d’autres sciences physiques. Par exemple, Gemini Deep Think a trouvé comment utiliser “une solution novatrice utilisant les polynômes de Gegenbauer” pour calculer le rayonnement gravitationnel des cordes cosmiques.
Applications scientifiques réelles
Cette performance se traduit déjà en applications scientifiques réelles par des chercheurs.
Par exemple, la mathématicienne Lisa Carbone de l’Université Rutgers a utilisé Deep Think pour trouver une faille logique qui avait été manquée par les réviseurs humains dans un article mathématique très technique sur la théorie de la gravité d’Einstein et la mécanique quantique.
Deep Think a également été utilisé par le laboratoire Wang de l’Université Duke pour concevoir une recette pour faire pousser des couches minces de semi-conducteurs de plus de 100 micromètres, un objectif précédemment difficile à atteindre.
Distribution, matériel et élan stratégique
La réalisation de Deep Think s’ajoute à d’autres bonnes nouvelles pour l’équipe d’IA de Google.
La plus importante a été la décision d’Apple, le seul géant de la technologie qui s’est principalement abstenu de la course à l’IA, d’adopter Gemini comme IA par défaut sur les appareils Apple. Dans ce contexte, il est logique qu’OpenAI ait déclaré en décembre 2025 un “Code Red” concernant les progrès de Google et d’autres sociétés d’IA.
“La base d’utilisateurs de Gemini a augmenté depuis la sortie en août d’un générateur d’images, Nano Banana, et Google a déclaré que les utilisateurs actifs mensuels ont augmenté de 450 millions en juillet à 650 millions en octobre.
OpenAI est également sous pression d’Anthropic, qui gagne en popularité auprès des clients d’entreprise.”
Une autre des récentes victoires de Google est le succès de ses puces d’IA. Tout d’abord, ce fut Anthropic, qui a annoncé qu’il allait commencer à utiliser les puces d’IA de Google, appelées TPUs (Unités de traitement de tenseurs), y compris en utilisant jusqu’à 1 million de processeurs pour alimenter son logiciel d’IA. Maintenant, la société d’IA concurrente Meta rejoint également en utilisant les TPUs de Google, ce qui remet en question si Google devient un concurrent de Nvidia (NVDA ) autant que d’OpenAI.
(Vous pouvez en savoir plus sur les TPUs et d’autres matériels axés sur l’IA comme les XPUs, les FPGAs, etc. dans “Investir dans le matériel d’IA : des CPU aux XPUs“)
La stratégie d’IA d’Alphabet : Intégration verticale à grande échelle
Balayez pour faire défiler →
| Entreprise | Modèle ciblé | Stratégie matérielle | Contrôle de la distribution | Intégration verticale |
|---|---|---|---|---|
| Alphabet | Gemini 3 Deep Think (Math/Science) | TPUs internes | Android + Recherche + Routage potentiel Apple | Pile complète (Puce → Cloud → Consommateur) |
| Microsoft/OpenAI | Modèles GPT (LLM général) | GPU Nvidia via Azure | Windows + Entreprise SaaS | Partielle |
| Meta | Llama (ouvert-poids) | GPU + Silicium personnalisé | Plateformes sociales | Modérée |
| Anthropic | Claude (axe entreprise) | TPUs Google | API + Accords d’entreprise | Faible |
L’accent mis sur les TPUs est un bon indicateur de la stratégie de Google. Des LLM solides comme Gemini et des performances supérieures dans des applications réelles comme Deep Think sont, bien sûr, très importantes.
Mais c’est dans le contrôle de la distribution de l’IA et dans la structure de coûts + l’accès au capital que Google occupe une position solide.
La présence de Google sur le marché mobile via Android est déjà forte, mais avec l’accord avec Apple, elle garantit presque que la plupart des requêtes d’IA qui ne sont pas spécifiquement acheminées vers une application d’IA donnée iront à Gemini, directement ou indirectement.
L’autre composant est la dépendance croissante à l’égard des TPUs. Certains rapports indiquent que les TPUs sont ~30 % moins chers que les GPU Nvidia et offrent 2-4 fois de meilleures performances par dollar dans des charges de travail comparables. La consommation d’énergie inférieure pour le même calcul ne constitue pas seulement un problème financier ; elle aide également à augmenter la taille des centres de données d’IA malgré les contraintes croissantes d’approvisionnement en énergie.
Enfin, le niveau d’intégration verticale – allant des TPUs aux centres de données détenus en propre, en passant par une plate-forme cloud d’entreprise et un canal de distribution consommateur – est inégalé dans l’industrie, avec seulement Microsoft qui s’en rapproche un peu dans l’espace d’entreprise.
Enfin, la construction d’infrastructures d’IA a été extrêmement coûteuse. Ces centaines de milliards de dollars en puces et en centres de données doivent maintenant être payés et créent des coûts d’amortissement massifs dans le bilan chaque année. L’échelle des flux de trésorerie d’Alphabet provenant de la recherche, de YouTube, d’Android et d’autres produits le rend plus capable de gérer à la fois les coûts initiaux et la maintenance future de ces infrastructures.
Gemini est-il réellement en tête ?
Appeler un “gagnant” donné de la course à l’IA est certainement prématuré. Par exemple, le paradigme actuel pourrait être bouleversé si les centres de données orbitaux de la fusion xAI/Space prouvent être un avantage concurrentiel solide.
Mais il semble que quelques tendances émergent qui se déplacent en faveur de Google.
La première est le besoin de matériel d’IA spécialisé, un domaine où de nombreux géants de la technologie sont en retard, donnant un avantage aux fabricants de puces et à Google.
L’autre est l’importance du contrôle de la distribution pour le grand public, qui peut ne pas être très conscient de l’IA qu’il peut ou devrait utiliser. À cet égard, l’accès direct à l’ensemble de l’écosystème Apple reflète la stratégie précédente de Google pour devenir le moteur de recherche par défaut sur les iPhones (ce qui a même conduit à des règlements antitrust américains à la fin de 2025 car il était “trop bénéfique”).
Avec la puissance de Deep Think en mathématiques et en sciences, Google connaît un excellent début d’année 2026 en ce qui concerne l’IA. Que cette position de leader soit maintenue longtemps contre la résistance d’OpenAI, de Microsoft, de Meta, d’Anthropic et de myriades de modèles chinois – y compris ceux des géants de la technologie chinoise comme Alibaba (BABA ) ou ByteDance – reste à voir.











