Agents intelligents : quand l’IA pense, planifie et agit pour vous

Google et Microsoft lancent leurs agents IA intelligents. Gemini et Copilot ouvrent une nouvelle ère de l’IA capable d’agir, planifier et interagir avec l’utilisateur.

Google et Microsoft ont présenté la semaine dernière une série d’innovations majeures autour de l’intelligence artificielle. Objectif affiché : faire émerger une IA capable de comprendre le contexte, planifier et agir au nom de l’utilisateur. Une course à la performance technologique qui redéfinit l’usage des machines, tout en posant de nouvelles questions sur le modèle économique et la gouvernance de ces agents autonomes.

L’IA devient agent : une bascule de paradigme

Lors de sa conférence annuelle Google I/O, l’entreprise de Mountain View a exposé sa vision d’une « IA universelle » : une intelligence capable non seulement de répondre à des requêtes, mais d’agir à la place de l’utilisateur, en s’adaptant au contexte et à ses intentions. « Qu’elle soit utile dans votre vie quotidienne, qu’elle comprenne le contexte dans lequel vous vous trouvez et puisse planifier et agir en votre nom sur n’importe quel appareil, c’est notre objectif final pour Gemini », a résumé Demis Hassabis, directeur général de Google DeepMind.

Cette orientation marque une rupture : l’IA n’est plus un assistant passif, mais un agent actif, potentiellement autonome. L’accès aux fonctionnalités les plus avancées sera toutefois réservé aux abonnés du plan Ultra, facturé 249,99 dollars par mois (221,75 euros).

A LIRE AUSSI
Travail, IA, pouvoir : 6 séries TV qui vont changer votre regard sur le monde

Google vs Microsoft : duel d’agents

Face à Google, Microsoft accélère à son tour. Lors de la conférence Build, son PDG Satya Nadella a dévoilé le concept de « réseau agentique ouvert », une infrastructure permettant à différents agents d’interagir, collaborer et exécuter des tâches au nom de personnes ou d’équipes. Une vision similaire à celle de Google, mais avec un accent mis sur l’interopérabilité et l’open source.

Le groupe de Redmond a notamment présenté des outils pour faciliter la création d’agents personnalisés, comme GitHub Copilot, Windows AI Foundry ou encore Azure AI Foundry Models. Microsoft a également intégré dans son écosystème les derniers modèles d’IA développés par xAI, la société fondée par Elon Musk.

Réinvention de la recherche : un moteur plus intelligent

Google a également dévoilé une refonte de son moteur de recherche, désormais enrichi par l’intelligence de Gemini. Ce nouveau mode, déjà disponible aux États-Unis, se distingue par sa capacité à répondre à des requêtes complexes, à maintenir des conversations prolongées et à produire des résultats plus ciblés, avec une latence réduite. Sundar Pichai, PDG de Google, y voit « une réinvention complète de la recherche, fondée sur le raisonnement avancé ».

Le dirigeant reconnaît toutefois les défis posés par le modèle économique de ces services, entre performance technologique et accessibilité tarifaire. « Nous avons toujours cherché à offrir les meilleurs modèles au prix le plus rentable », a-t-il affirmé.

Du bureau à la maison : l’IA s’infiltre partout

Gemini s’intègrera progressivement à l’écosystème des outils professionnels de Google : Gmail, Docs, Keep. Mais l’IA sera aussi mobilisée pour l’éducation. Demis Hassabis promet des fonctionnalités d’assistance aux étudiants allant bien au-delà de la simple réponse à une question : préparation d’examens, tests simulés, visualisation pédagogique, etc.

En parallèle, la fonction Starlight permettra la traduction simultanée des appels vidéo via Google Meet. Adaptée aux tons et expressions des interlocuteurs, elle sera d’abord disponible en anglais et en espagnol.

Interfaces immersives : sentir, voir, interagir

Dans le champ de l’audiovisuel, Google avance ses pions avec Project Starline et Google Beam, des technologies visant à recréer des interactions 3D en temps réel. Objectif : faire ressentir une présence physique lors d’un appel vidéo, grâce à six caméras synchronisées.

D’autres projets renforcent les capacités sensorielles de l’IA. Avec Flash et Astra, Gemini Live pourra analyser visuellement l’environnement de l’utilisateur et mémoriser ses interactions. Cette approche alimente aussi le développement des futures lunettes Android XR, intégrant l’agent dans l’espace réel.

La nouvelle version de VEO, enfin, combine vidéo et audio générés par IA pour proposer des contenus audiovisuels complets et contextuels.

Vers une consommation augmentée

L’IA n’est pas seulement un outil de recherche ou de communication. Elle devient également actrice du parcours d’achat. Google a présenté une nouvelle fonctionnalité capable d’identifier un vêtement à partir d’une photo personnelle, de simuler son rendu sur l’utilisateur, et d’effectuer l’achat au meilleur prix — ou de le suspendre en attendant une meilleure offre.

Selon Vidhya Srinivasan, vice-présidente chargée de la division achats, il s’agit de couvrir toute la chaîne : « de l’inspiration jusqu’au paiement ».

Une infrastructure invisible mais stratégique

Derrière ces démonstrations spectaculaires, une couche plus discrète mais essentielle : les infrastructures logicielles. Red Hat a profité de la même semaine pour lancer Enterprise Linux 10, une plateforme pensée pour l’IA et le cloud hybride.

La société met en avant un système « intelligent, résilient et durable », capable d’intégrer directement des modèles d’IA générative dans l’environnement d’exploitation. L’objectif est de simplifier la gestion des charges de travail, de fournir des recommandations contextualisées et d’ouvrir l’usage à des profils non techniques.


Partagez votre avis