Une prompt injection est une attaque qui consiste à cacher des instructions malveillantes dans un texte ou une page web pour tromper une IA et la pousser à faire quelque chose qu’elle ne devrait pas.

 

Voici les 8 grandes annonces à retenir :

 

1

Microsoft dévoile ses premiers modèles d’IA maison MAI-Voice-1 et MAI-1-preview.

La division IA de Microsoft a annoncé ses premiers modèles développés en interne : MAI-Voice-1, un modèle vocal capable de générer une minute de parole en moins d’une seconde sur un seul GPU, et MAI-1-preview, un modèle de langage préfigurant de futurs assistants Copilot. MAI-Voice-1 est déjà déployé pour animer le flash info quotidien Copilot Daily et pour générer des discussions audio explicatives, et peut être testé via Copilot Labs en personnalisant la voix et le style de diction. Microsoft prévoit d’intégrer progressivement MAI-1-preview dans certaines fonctionnalités texte de son assistant Copilot (jusqu’ici propulsé par les modèles d’OpenAI) marquant ainsi une stratégie d’indépendance vis-à-vis de GPT-4/5, avec une approche misant sur une orchestration de modèles spécialisés selon les usages.

2

OpenAI lance GPT‑Realtime, un modèle voix-à-voix temps réel pour agents vocaux.

OpenAI a annoncé la disponibilité générale de son API Realtime enrichie de nouvelles fonctions, accompagnée du lancement de GPT-Realtime, présenté comme son modèle voix-à-voix le plus avancé pour les agents conversationnels. Ce modèle de nouvelle génération combine la reconnaissance et la synthèse vocales en un seul système, ce qui réduit drastiquement la latence et permet de produire des réponses orales plus nuancées et naturelles. Pensé pour des applications concrètes (support client, assistants personnels, éducation), GPT-Realtime excelle dans le suivi d’instructions complexes et l’appel d’outils tiers, et s’accompagne de deux nouvelles voix (Cedar et Marin). Par ailleurs, l’API Realtime prend désormais en charge des fonctionnalités comme les appels téléphoniques via SIP, l’envoi d’images en entrée et la connexion à des serveurs vocaux distants (MCP), élargissant ainsi les capacités des agents vocaux basés sur OpenAI.

3

OpenAI va déployer des contrôles parentaux pour sécuriser l’usage de ChatGPT par les ados

OpenAI a annoncé de nouvelles protections pour les mineurs avec l’arrivée, d’ici un mois, de contrôles parentaux dans ChatGPT. Les parents pourront lier leur compte à celui de leur adolescent (dès 13 ans) et définir des règles de comportement du modèle adaptées à l’âge (par exemple empêcher certaines réponses ou fonctionnalités) ces filtres étant activés par défaut. Ils auront aussi la possibilité de désactiver l’historique des conversations ou la mémoire du chatbot pour leur enfant, et recevront une notification en cas de détresse détectée chez celui-ci, afin d’intervenir si besoin. Ces nouveautés viennent compléter les garde-fous déjà en place pour tous (messages incitant à faire des pauses lors de longues sessions, blocage du contenu inapproprié, etc.) et illustrent les efforts d’OpenAI pour rendre ChatGPT plus sûr et adapté aux jeunes utilisateurs.

4

OpenAI et Anthropic publient une évaluation conjointe de la sûreté de leurs modèles

Dans une démarche inédite de transparence et de collaboration, OpenAI et Anthropic ont chacune soumis les modèles de l’autre à leurs batteries de tests internes de sécurité et d’alignement, puis ont publié les résultats croisés de cet exercice. Anthropic a évalué GPT-4o, GPT-4.1 et les nouveaux modèles OpenAI (séries o3 et o4-mini alimentant ChatGPT), tandis qu’OpenAI a audité Claude Opus 4 et Claude Sonnet 4, les modèles phares d’Anthropic. L’initiative a permis de déceler des failles potentielles et des scénarios d’attaque difficiles à repérer en silo, tout en montrant les progrès accomplis par la dernière génération de modèles : le tout récent GPT-5 d’OpenAI affiche par exemple des améliorations notables sur des points comme la résistance aux sollicitations malveillantes, la réduction des hallucinations ou des réponses flatteuses inutiles. Les deux labos estiment que ce type d’évaluation collaborative contribue à une IA plus sûre et appellent à renouveler l’exercice à l’avenir pour combler les angles morts restants.

5

IA et détresse mentale : OpenAI détaille ses mesures pour des usages plus sûrs

Suite à des cas récents et préoccupants d’utilisateurs en situation de crise ayant sollicité ChatGPT, OpenAI a publié un article expliquant comment ses modèles sont conçus pour aider sans nuire dans les moments difficiles. Depuis 2023, ChatGPT intègre des mécanismes de sauvegarde : il est entraîné à ne pas fournir d’instructions d’auto-mutilation, à adopter un ton empathique et à encourager la personne en détresse à chercher de l’aide. S’il détecte des idées suicidaires, il oriente vers des ressources d’urgence (ex : numéro 988 aux USA, association Samaritans au UK, ou findahelpline.com ailleurs) plutôt que de poursuivre la conversation normalement. OpenAI s’appuie sur un conseil d’experts en santé mentale et en développement des jeunes, ainsi qu’un réseau de plus de 90 médecins dans 30 pays pour affiner ces protections. L’entreprise a défini quatre axes prioritaires pour les prochains mois : étendre les interventions à davantage de personnes en crise, faciliter l’appel aux services d’urgence et aux professionnels, permettre de contacter des proches de confiance, et renforcer la protection des adolescents, dont les contrôles parentaux annoncés font partie intégrante.

6

Google introduit Gemini 2.5 Flash Image, modèle de génération et d’édition d’images

Google a présenté Gemini 2.5 Flash Image, la nouvelle version de son modèle multimodal dédié à l’image générative et éditable. Surnommée en interne « nano-banana », cette version apporte des avancées majeures : le modèle peut désormais fusionner plusieurs images en une seule, maintenir la cohérence visuelle d’un personnage ou d’un objet à travers différentes images (utile pour des storytelling ou des séries cohérentes), et appliquer des transformations locales précises à une image via de simples instructions en langage naturel (par ex. flouter un arrière-plan, retirer un élément, changer la pose d’un sujet). Gemini 2.5 bénéficie en outre de la connaissance du monde réel propre à la gamme Gemini, ce qui lui permet de comprendre le contexte sémantique des images bien mieux que les modèles précédents. Disponible dès à présent via l’API Gemini et sur Google AI Studio (ainsi que pour les clients Vertex AI), ce modèle vise aussi les développeurs d’applications : Google met à disposition des exemples d’apps modulaires (templates) exploitant ces capacités – montage photo, éducation interactive, design produit – que l’on peut tester et remixer facilement pour accélérer les cas d’usage. À noter que toutes les images générées intègrent un filigrane numérique invisible (SynthID) pour signaler qu’elles proviennent d’une IA.

7

Apple intègre GPT-5 et Claude dans Xcode 26 (bêta développeur)

La dernière bêta d’Xcode 26 d’Apple apporte une évolution significative pour les développeurs : l’environnement de développement intègre désormais nativement deux assistants IA concurrents, ChatGPT (basé sur le nouveau modèle GPT-5 d’OpenAI) et Claude d’Anthropic. Dans l’interface d’Xcode, un onglet Intelligence permet aux programmeurs de se connecter à leur compte OpenAI ou Anthropic afin d’obtenir des suggestions de code ou de la complétion en langage naturel directement dans l’éditeur. Par défaut, GPT-5 devient le moteur actif pour les conversations de codage, avec deux variantes : la version standard, optimisée pour des réponses rapides et pertinentes dans la plupart des tâches, et une version GPT-5 (Reasoning), qui réfléchit plus longuement pour les problèmes plus complexes. Alternativement, les utilisateurs peuvent choisir Claude Sonnet 4 en tant que copilote de programmation, Apple offrant ainsi le choix entre les solutions d’OpenAI et d’Anthropic pour alimenter son chat d’aide au codage. À la sortie finale d’Xcode 26, l’aide à la programmation pourra s’appuyer soit sur ChatGPT (GPT-4.1 ou GPT-5), soit sur Claude, les développeurs ayant même la possibilité d’utiliser leur propre clé API ou de brancher un modèle local sur Mac s’ils le préfèrent.

8

Anthropic teste Claude en mode agent autonome dans le navigateur Chrome

La startup Anthropic, connue pour son IA Claude, a lancé un programme pilote pour doter son chatbot de capacités d’agent web autonome via une extension Chrome expérimentale. Un groupe restreint de 1000 utilisateurs (clients Claude Max) est invité à tester cette pré-version où Claude peut, sur commande, interagir avec le navigateur : faire défiler et lire des pages, cliquer sur des boutons, remplir des formulaires, rédiger des emails, planifier des réunions, etc., le tout de manière semi-autonome pour assister l’utilisateur dans ses tâches en ligne. Anthropic prévient toutefois que ce « Claude pour Chrome » soulève des défis de sécurité inédits – notamment le risque d’attaques par prompt injection (des instructions malveillantes cachées dans une page web pouvant inciter l’IA à effectuer des actions non souhaitées). Pour parer à ces menaces, l’extension intègre de nombreux garde-fous : l’accès de Claude aux sites web est sous contrôle de l’utilisateur (permissions accordées ou révoquées site par site), toute action à risque élevé nécessite une confirmation humaine (publier un message, effectuer un achat, accéder à des données sensibles…), et certains domaines jugés trop dangereux sont purement interdits d’accès à l’IA (services financiers, contenus adultes, sites de piratage). De plus, Anthropic a renforcé le système prompt de Claude pour qu’il ignore les instructions suspectes, et a développé des classifieurs avancés détectant les schémas malveillants (texte invisible, formulaires cachés, URL piégées…) afin de stopper l’agent avant qu’il ne commette une action indésirable. Cette phase de test en conditions réelles doit aider la société à améliorer les protections et à évaluer, grâce aux retours des utilisateurs volontaires, comment intégrer en toute sécurité ce type d’agent autonome dans nos navigateurs à l’avenir.

Contactez-nous !
Guillaume Merlen
Guillaume Merlen
Plan.Net
Directeur Général
Contactez-nous !
Bitte geben Sie eine gültige E-Mail-Adresse ein

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.