Avec l’arrivée du Model Context Protocol (M) dans Windows 11, Microsoft pose les bases d’un système d’exploitation « agentique », autrement dit capable de s’appuyer sur des agents IA pour effectuer des tâches à la place de l’utilisateur. L’objectif est d’offrir un cadre standardisé et sécurisé pour que ces agents IA puissent interagir directement avec vos applications, vos fichiers ou vos services cloud… sans er par des bidouilles ou des solutions maison. 5f164k
Ce nouveau protocole, développé à l’origine par Anthropic et désormais soutenu par Microsoft, permet aux modèles d’IA de sortir de leur isolement habituel – celui de leur base d’entraînement – pour accéder à des données actualisées, pertinentes, et personnalisées. Un changement de paradigme qui ouvre la voie à de nouvelles possibilités… mais qui soulève aussi quelques questions de sécurité.
Qu’est-ce que le Model Context Protocol (M) ? 85b3j
À la base, le M est un protocole ouvert et léger imaginé par Anthropic. Il permet de connecter un modèle d’IA à des sources de données externes, comme un calendrier, une boîte mail, un dépôt de code ou même un système de fichiers local. L’idée, c’est de créer une erelle standardisée pour que l’IA puisse interagir avec des outils concrets, en temps réel, et de manière sécurisée.
Microsoft l’intègre désormais directement dans Windows 11, avec un double objectif : faciliter le développement d’agents intelligents capables d’agir à votre place et encadrer tout cela avec des règles strictes de sécurité. Le tout repose sur une architecture simple mais efficace, qui distingue trois rôles :
- Les clients M : ce sont les assistants IA (comme Copilot) qui envoient des requêtes ;
- Les serveurs M : ce sont les services ou applications qui répondent (comme le système de fichiers, l’agenda, ou un service tiers) ;
- Le registre M : c’est une sorte d’annuaire sécurisé qui liste tous les serveurs disponibles sur votre PC.
En pratique, si une IA a besoin d’accéder à votre agenda pour vérifier vos rendez-vous, le protocole M lui permet de savoir exactement où chercher et comment y accéder. Bien entendu, tout cela se fera de manière encadrée et uniquement si vous avez donné votre accord.
Comment M s’intègre dans Windows 11 2i2u3m
Avec cette intégration, Microsoft ne se contente pas d’ajouter un protocole de plus. L’entreprise veut faire de Windows 11 une plateforme complète pour les agents intelligents. Et pour cela, elle a prévu plusieurs briques bien distinctes :
- Le Registre M : c’est ici que seront listés tous les serveurs M installés sur l’ordinateur. L’agent IA pourra les consulter pour savoir quels services sont disponibles (et autorisés) sur la machine. Ce registre est présenté comme « fiable, centralisé et sécurisé ».
- Les serveurs M : Microsoft prévoit de proposer plusieurs composants système sous forme de serveurs M. Par exemple, l’accès au système de fichiers, la gestion des fenêtres ou encore le sous-système Linux (WSL) pourront être exposés comme des services utilisables par un agent IA.
- Le mode développeur : dans un premier temps, seules les machines configurées en mode développeur auront accès à la preview du protocole. Cela permettra aux développeurs de tester, de proposer des retours et d’adapter leurs applications à cette nouvelle logique.
- Une architecture extensible : Microsoft ne compte pas garder ça pour elle. Elle travaille déjà avec des acteurs comme Figma, Anthropic ou Perplexity pour que d’autres applications puissent elles aussi proposer leurs propres serveurs M. Autrement dit, n’importe quel éditeur pourra connecter ses services à des agents IA… tant qu’il respecte les règles du jeu.
Un cadre de sécurité strict (et nécessaire) 661p66
Permettre à une IA d’interagir avec des données personnelles ou sensibles, c’est une chose. Le faire sans finir en oire, c’en est une autre. Pour éviter les catastrophes, Microsoft a bâti ce qu’elle appelle l’architecture de sécurité M dans Windows 11. Elle repose sur trois grands principes :
- Une validation des serveurs M : Pour figurer dans le registre officiel, chaque serveur M devra respecter un socle de règles de sécurité défini par Microsoft. Cela inclut la signature du code, la déclaration des privilèges demandés, et une validation de l’identité du serveur. En somme, pas d’accès au système sans contrôle sérieux.
- Le contrôle utilisateur sur les actions sensibles : Aucune opération à risque ne pourra être effectuée sans votre consentement explicite. Que ce soit une modification de fichiers, l’accès à vos identifiants ou un changement dans les paramètres système, l’utilisateur devra valider chaque action. Et chaque opération sera auditée, histoire de garder une trace.
- Le principe du moindre privilège : Un agent n’aura accès qu’aux fonctions strictement nécessaires à sa mission. Pas plus. C’est une façon de limiter les dégâts en cas d’erreur, de bug ou de faille. Microsoft parle même d’isolement à l’exécution, avec des autorisations définies à l’avance et impossibles à élargir sans validation.
À cela s’ajoutent des contrôles techniques plus poussés :
- Une communication proxyisée entre les agents et les serveurs, pour surveiller les échanges.
- Un système d’autorisations par app (vous devrez valider chaque couple IA/outil).
- Des tests de sécurité obligatoires pour chaque serveur M référencé.
Vous l’aurez compris, l’objectif est de permettre aux IA d’agir… sans pour autant faire n’importe quoi.
Et maintenant ? 12x2n
Avec l’arrivée du Model Context Protocol dans Windows 11, Microsoft amorce un virage important dans sa stratégie IA. L’idée n’est plus simplement d’intégrer un assistant comme Copilot dans un coin de l’interface, mais de transformer tout l’écosystème Windows en une plateforme capable de dialoguer avec des agents intelligents, en respectant un cadre strict.
Ce protocole pourrait à terme permettre à une IA d’ouvrir un fichier, programmer une tâche, fouiller dans vos notes ou même interagir avec une application tierce — le tout sans intervention directe de l’utilisateur. Reste à voir comment cela sera perçu côté grand public. Car même si tout est pensé pour rester sous contrôle, l’idée qu’une IA puisse « agir pour nous » ne plaira pas forcément à tout le monde.
En attendant, la preview est déjà disponible pour les développeurs qui souhaitent expérimenter avec cette nouvelle couche. Quant à la version grand public, elle arrivera un peu plus tard, avec toutes les protections activées par défaut. Une chose est sûre : Microsoft n’en a pas fini avec l’IA…
Source : Microsoft
Oui, je partage ton constat sur le fait que la plupart des gens n’ont pas conscience de la révolution qui est en train de se dérouler sous leurs yeux !
Pour ma part l’IA m’aide déjà beaucoup dans mon travail et je suis loin de cracher dessus. Mais ce qui me désole c’est le manque de régulation, et surtout d’éthique des GAFAM. Pour eux, la compétition et la recherche du profit e avant tout le reste, notamment les questions éthiques, écologiques et sécuritaires..
Du coup, je trouve qu’il devient très difficile de se positionner sur le fait de les laisser ou non s’immiscer de plus en plus dans nos vies et nos données personnelles.
Oui, je te res complètement. L’IA peut clairement être une aide, je ne crache pas dessus non plus. Mais comme tu dis, le problème, c’est moins la techno en elle-même que la façon dont elle est déployée. Et aujourd’hui, on a surtout l’impression que les GAFAM foncent tête baissée, sans trop se soucier des impacts à long terme.
Le manque de régulation, ça devient un vrai souci. Pas tant pour encadrer l’innovation (personne n’a envie de freiner les progrès utiles), mais plutôt pour mettre des garde-fous clairs. Parce que si on laisse tout ça entre les mains d’acteurs qui ne jurent que par le profit, on connaît déjà la suite… Et malheureusement, les questions d’éthique, d’écologie ou de sécurité ent souvent à la trappe.
Au final, comme tu le dis, ça devient difficile de savoir sur quel pied danser. On veut profiter des outils, mais pas à n’importe quel prix. Et pour l’instant, c’est un peu le flou total côté transparence et contrôle.
Merci Andy pour ce résumé très clair !
Microsoft met vraiment le paquet sur l’IA à grands coups de milliards d’investissements.
Avant, l’entreprisem’inspirait beaucoup plus confiance que les autres géants de la tech, mais ce n’est malheureusement plus le cas, notamment depuis qu’elle s’engage dans des projets militaires, qu’elle collabore avec le gouvernement Israélien, que ses propres employés commencent à manifester contre elle, et qu’elle a essayé d’imposer Recall, une fonctionnalité potentiellement désastreuse pour la sécurité.
Alors tout ça ne m’inspire vraiment pas confiance. Je me pose de plus en plus la question de er à Linux comme OS principal…
De rien Cyril et je te comprends totalement, c’est vrai que ça peut faire peur toutes ces IA qui débarquent de partout. On a un peu l’impression que ça va trop vite et que personne ne prend vraiment le temps de réfléchir aux potentielles conséquences. Ce qui me frappe, c’est que l’utilisateur lambda, lui, n’en a rien à faire (en tout cas pour l’instant). Franchement, autour de moi, quand je pose la question, la majorité des gens ne se sentent pas concernés par l’IA, voire ne savent même pas à quoi ça sert réellement.
Mais bon… il va falloir s’y faire (ou pas), parce que c’est clairement la nouvelle bataille des GAFAM. Il suffit de jeter un œil à la conférence de Google hier, c’était quasiment 100 % IA, du début à la fin. Que ce soit dans la recherche, les outils bureautiques ou même Android, tout est en train d’être repensé autour de ça. Donc qu’on le veuille ou non, il va falloir composer avec ou alors changer de crémerie pour certains outils.
Non mais sérieux ils sont relous avec leur IA eux aussi… pas question qu’une IA fouille dans mon PC même si c’est sécurisé, c’est mort.