Google lance Deep Research Agent » pour une prise en main rapide avec 160 recherches automatisées pour générer des graphiques, vantant une IA de niveau collaboration en recherche

Google AI officiellement lancé deux agents de recherche autonomes, Deep Research et Deep Research Max, construits sur Gemini 3.1 Pro, capables de planifier automatiquement des parcours de recherche, d’effectuer jusqu’à 160 recherches en ligne, de se connecter à des bases de données internes d’entreprise (via MCP), et de produire directement des graphiques dans le rapport. Passant du « discuter avec l’IA » à « laisser l’IA réaliser une recherche complète pour vous », c’est une mise à niveau de la définition des agents IA par Google.
(Précédent contexte : Google met à jour Gemini Deep Research Max : intégration MCP pour accéder aux bases de données internes, graphiques natifs, permettant aux analystes de faire des due diligences)
(Complément d’information : Jensen Huang envoie un email à tous pour adopter OpenAI Codex : plus de 10 000 employés de NVIDIA ont déjà commencé, GPT-5.5 tourne sur GB200)

Si vous avez utilisé la fonction de conversation générale de Gemini pour faire des recherches, vous savez probablement où se situe la limite : poser une question, obtenir une réponse, faire quelques recherches, puis devoir relier vous-même les conclusions. La série Deep Research fait différemment : elle discute d’abord avec vous du plan de recherche, et après votre accord, elle se lance seule. La recherche peut durer jusqu’à 60 minutes, et à la fin, elle fournit un rapport complet avec graphiques.

Google a lancé deux versions cette fois, Deep Research et Deep Research Max, avec des différences en termes de vitesse et de profondeur.

Comment choisir entre les deux versions

Deep Research est la version axée sur la rapidité, avec environ 80 recherches par tâche, adaptée pour une interaction en temps réel ou des requêtes rapides. Vous posez une question, et en quelques minutes, vous obtenez le résultat.

Deep Research Max privilégie la profondeur, avec environ 160 recherches par tâche, la consommation de tokens étant 3 à 4 fois supérieure à la version standard (environ 900 000 tokens en entrée + 80 000 en sortie), idéale pour des analyses approfondies en mode overnight. Elle affine le rapport en boucle, ce que Google appelle « calcul prolongé du temps de test » (extended test-time compute).

Concernant le coût, la version standard coûte environ 1 à 3 dollars par tâche, la version Max environ 3 à 7 dollars. La facturation se fait selon le tarif des tokens de Gemini 3.1 Pro : 2,00 $ pour un million de tokens en entrée, 12,00 $ pour un million de tokens en sortie.

Trois fonctionnalités clés

Intégration MCP avec bases de données d’entreprise : via le protocole Model Context Protocol (MCP), vous pouvez connecter Deep Research à vos sources de données. Google collabore avec FactSet, S&P Global, PitchBook pour développer l’intégration MCP, permettant aux professionnels de la due diligence financière de faire interroger directement la base de données financière d’une entreprise, plutôt que de se limiter à la recherche sur le web public.

Vous pouvez aussi désactiver complètement la recherche en ligne et ne faire que des recherches sur des données internes.

Sortie native de graphiques : le rapport peut produire directement des graphiques HTML ou des infographies, sans avoir à copier-coller dans Excel pour faire des visualisations. C’est un produit intermédiaire entre un rapport purement textuel et une analyse visuelle, que vous pouvez aussi réutiliser pour des modifications ou des présentations ultérieures.

Planification collaborative de recherche : l’agent ne lance pas directement la recherche. Il produit d’abord un plan de recherche que vous pouvez examiner, modifier, confirmer, puis lui demander de l’exécuter. Si vous n’êtes pas satisfait du résultat, vous pouvez continuer à dialoguer pour poser des questions ou ajuster la direction.

Actuellement, ces deux agents sont en « Aperçu Public » et accessibles via le niveau payant de l’API Gemini. Si vous souhaitez essayer, vous pouvez les manipuler directement sur Google AI Studio. Les SDK Python et JavaScript sont déjà disponibles, et ceux qui ont des crédits gratuits ne doivent pas manquer cette opportunité.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler