Une entreprise “agentique” est une organisation dans laquelle des agents d’intelligence artificielle autonomes participent activement aux processus métiers. Ils peuvent agir, coopérer entre eux, et interagir avec les humains pour accomplir des tâches complexes sans supervision constante.
L’objectif : automatiser intelligemment, fluidifier les flux de travail, et permettre aux équipes humaines de se concentrer sur des missions à plus forte valeur ajoutée.

Voici les 8 grandes annonces à retenir :

 

1

La principale utilisation de l’IA générative n’est pas celle que vous pensez

Selon une récente étude publiée par la Harvard Business Review, les utilisateurs de l’IA générative exploitent de plus en plus ces outils pour des besoins personnels et émotionnels, au-delà des cas d’usage professionnels. Parmi les 100 scénarios d’utilisation les plus courants en 2025, le premier est désormais la « thérapie et compagnie », c’est-à-dire le recours à un chatbot comme soutien psychologique ou confident virtuel. D’autres usages en forte progression touchent à la vie quotidienne, par exemple « organiser ma vie » ou « trouver un sens », ce qui reflète l’aide de l’IA pour la planification personnelle, la motivation et le développement de soi. Les applications professionnelles traditionnelles (comme la génération de code ou l’apprentissage assisté) restent bien présentes, mais des catégories plus futiles ou ludiques – type brainstorming trivial ou divertissement – reculent dans les classements, signe que les utilisateurs recherchent davantage une utilité concrète et un accompagnement par l’IA.

2

Google veut propulser l’entreprise agentique avec Agentspace

Google a profité de son événement Cloud Next 2025 pour présenter les dernières évolutions de sa plateforme Agentspace, conçue pour intégrer des agents IA dans les workflows professionnels à grande échelle. Parmi les nouveautés : un moteur de recherche multimodal intégré à Chrome, une Agent Gallery pour découvrir et activer des agents, et un Agent Designer no-code permettant aux employés de créer leurs propres agents métiers. Google propose aussi deux agents natifs avancés : Deep Research et Idea Generation. En parallèle, Google introduit le protocole Agent2Agent (A2A), facilitant la communication entre agents, quelle que soit leur origine technologique.

3

GitHub Copilot se dote d’un mode agent autonome dans Visual Studio Code

GitHub introduit un mode « Agent » pour Copilot dans Visual Studio Code, transformant l’outil en véritable assistant développeur : à partir d’une simple instruction en langage naturel, l’IA peut analyser l’ensemble d’un projet, proposer des modifications de code multi-fichiers, exécuter les tests et ajuster le résultat jusqu’à accomplir la tâche demandée. Il repose sur le protocole Model Context Protocol, qui permet aux modèles d’accéder à un contexte étendu et interagir avec des outils tiers. L’objectif de Microsoft est de faire gagner du temps aux développeurs notamment sur le débogage.

4

Microsoft transforme Copilot en assistant personnel intelligent

Microsoft a déployé une série de mises à jour pour son IA Copilot afin d’en faire « votre copilote » plutôt qu’un simple assistant générique. Avec l’accord de l’utilisateur, Copilot mémorise désormais les conversations passées pour apprendre vos préférences et des détails de votre vie et adapte ses réponses en conséquence. De nouvelles fonctionnalités enrichissent l’outil, notamment Deep Research (outil de recherche multi-étapes avec des sources fiables), Actions (accomplir des tâches à votre place, ex : réserver des billets), Shopping (Recommandations, conseils et suivit de prix) ou Vision (analyse en temps réel ce que voit la caméra de votre appareil). Microsoft parle d’une « nouvelle ère » pour la relation homme-machine, où l’IA devient un assistant véritablement personnalisé, capable de retenir qui vous êtes et de vous épauler tant dans les petites tâches quotidiennes que dans les réflexions de fond.

5

Google lance Vertex AI Media Studio pour générer des vidéos complètes à partir de textes

Google a annoncé un nouvel outil génératif ambitieux : Vertex AI Media Studio, une suite permettant de créer des vidéos entièrement montées à partir d’une simple description textuelle. La plateforme combine plusieurs modèles d’IA avancés de Google pour prendre en charge chaque aspect : Imagen 3 génère les images clés, Veo 2 les transforme en séquences vidéo animées (avec la possibilité de choisir des mouvements de caméra, la durée des plans, etc.), Chirp produit la voix off narrée, et Lyria compose une musique d’accompagnement. En théorie, le résultat est un clip finalisé au rendu professionnel, généré de bout en bout par l’IA. Google parie que cet outil « clé en main » saura séduire les créateurs et services marketing en quête de vidéos rapides à produire et cohérentes avec leur marque.

6

Amazon présente Nova Sonic, un modèle IA vocal capable de converser voix à voix

Nova Sonic, dernier-né de la famille Nova d’Amazon, unifie le module de reconnaissance et de la parole aux seins du même modèle alors que les assistants vocaux traditionnels les utilisent séparément, permettant alors de comprendre une entrée orale et de répondre directement par une voix de synthèse dans une seul et unique architecture technique. Capable de converser naturellement en adaptant l’intonation à l’utilisateur. Il ouvre la voie à des assistants vocaux plus réalistes et pourrait améliorer sensiblement le réalisme des futurs assistants de la marque.

7

Meta lance Llama 4, sa nouvelle génération de modèles IA multimodaux en open source

Meta a présenté Llama 4, des modèles open source multimodaux capables de traiter du texte, de l’image, du son et de la vidéo. Deux versions (Scout et Maverick) sont disponibles, et une version encore plus avancée, Behemoth, est en cours d’entraînement. Toujours disponible en Open-Source, Meta poursuit sa stratégie d’ouverture et cherche à s’imposer comme acteur majeur de l’IA en 2025. Ce lancement souligne l’ampleur des investissements de Meta dans l’IA (jusqu’à 65 milliards de dollars prévus cette année pour ses infrastructures) et son ambition de rattraper son retard sur les modèles concurrents. D’ailleurs, le déploiement de Llama 4 avait été retardé afin d’en améliorer les performances en raisonnement et en maths, domaines où les prototypes initiaux restaient en deçà des attentes face à OpenAI.

8

Midjourney déploie son modèle V7 : images plus réalistes et mode brouillon ultra-rapide

Le célèbre générateur d’images Midjourney a lancé sa Version 7, son premier nouveau modèle depuis près d’un an, apportant un saut de qualité notable dans la création visuelle par IA. Il améliore fortement la cohérence et le réalisme des images produites, corrigeant en particulier les défauts comme la déformation des mains ou des visages, de sorte à éliminer de nombreux signes révélateurs d’une image artificielle. Cette version mise aussi sur la personnalisation : avant de l’utiliser, l’utilisateur doit évaluer environ 200 images pour former le modèle à ses goûts esthétiques, ce qui permet ensuite à l’IA de générer des visuels mieux alignés avec le style recherché par chacun. V7 introduit en outre un « Draft Mode » qui génère des images d’ébauche de plus faible résolution dix fois plus vite et à moitié coût, idéal pour tester rapidement des idées sans épuiser son crédit d’images.

Contactez-nous !
Guillaume Merlen
Guillaume Merlen
Plan.Net
Directeur Général
Contactez-nous !
Bitte geben Sie eine gültige E-Mail-Adresse ein

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.