SEO

Comment le protocole de contexte modèle façonne l’avenir de l’IA et du marketing de recherche

Résumé de la carte de circuit imprimé AI

Résumé de la carte de circuit imprimé AI

Les outils LLMS et IA ont transformé presque toutes les industries, y compris le marketing.

Nous nous sommes habitués à la capacité de l’IA:

  • Générez du texte, des images et des vidéos.
  • Résumer les articles.
  • Transcrire l’audio.
  • Écrire du code.
  • Accéder aux pages Web.

Mais à mesure que ces modèles évoluent, leurs capacités entrent dans une nouvelle phase avec l’introduction du protocole de contexte modèle (MCP) – un développement qui remodelera la façon dont nous pensons à la visibilité de la recherche.

MCP permet aux systèmes LLMS et IA de se connecter plus facilement aux sources et outils de données externes, donnant aux organisations une nouvelle façon de fournir un contenu significatif aux systèmes d’IA et à leurs utilisateurs.

Qu’est-ce que le protocole de contexte du modèle?

Le protocole de contexte modèle (MCP) est un framework de protocole ouvert qui permet aux systèmes d’IA de se connecter directement à un serveur de données, normalisant comment les informations fournissent le contexte aux LLM.

Il permet également aux développeurs de créer des outils et des applications qui s’intègrent aux LLM, ce qui leur permet d’accéder à des données et des flux de travail externes via l’intégration.

Voici une analogie pour comprendre comment cela fonctionne:

Les LLM comme des bibliothécaires sont comme des bibliothécaires de votre bibliothèque locale. Ils connaissent chaque livre de leur base de données locale et savent comment rechercher et trouver des informations.

La limitation ici est que le bibliothécaire n’a que la connaissance pratique de cette bibliothèque locale et ne peut accéder à aucun livre ou information en dehors de cette bibliothèque.

Cela signifie que si vous êtes un visiteur de la bibliothèque qui recherche un sujet, le bibliothécaire ne peut vous offrir des informations disponibles dans les livres de la base de données de la bibliothèque locale, qui peut inclure des informations obsolètes si la bibliothèque n’a que des livres à partir de 2015.

Cependant, avec MCP, le bibliothécaire (LLM) reçoit les ressources pour accéder instantanément à n’importe quel livre dans le monde et peut fournir des informations à jour sur un sujet, directement à partir d’une source principale.

MCP permet aux LLMS de:

  • Accéder facilement aux données et aux outils directement à partir d’une source.
  • Obtenez des informations instantanées et à jour à partir d’un serveur, afin qu’ils ne comptent plus uniquement sur des connaissances prédéfinies.
  • Tirez parti des capacités d’agence, telles que la mise en œuvre de workflows automatisés et de bases de données de recherche.
  • Effectuez des actions en se connectant aux outils personnalisés créés par des tiers, des développeurs ou des organisations.
  • Fournir des citations exactes pour les sources d’information.
  • Étendre la récupération des données antérieure et les capacités telles que l’intégration avec les API d’achat, permettant aux LLM d’achat d’articles directement.

Dans un exemple réel pour une entreprise de commerce électronique, cela pourrait ressembler à un LLM:

  • Avoir un accès sécurisé à un système d’inventaire interne pour extraire des données en temps réel, telles que la tarification des produits.
  • Fournir une liste à puces des spécifications de produits directement à partir de votre base de données d’inventaire.

Les LLM pourraient non seulement commercialiser directement à un utilisateur à la recherche des dernières chaussures de course de la saison, mais aussi acheter une paire de chaussures pour l’utilisateur.

MCP vs Rag

MCP peut ressembler à la génération (RAG) (RAG) (RAG) de la récupération dans la façon dont les LLM peuvent recueillir des informations dynamiques et à jour au-delà de leur pré-formation statique.

Pourtant, ils diffèrent très dans la façon dont les LLMS accédent fondamentalement et interagissent avec l’information.

Comment fonctionne le chiffon

RAG permet à un LLM de récupérer des informations dans une série d’étapes:

  • Indexage: Le LLM convertit les données externes en une base de données d’intégration vectorielle qui est ensuite utilisée lors d’un processus de récupération.
  • Vectorisation: Les requêtes de recherche soumises sont également converties en un vecteur intégrant
  • Processus de récupération: Un Retriever recherche ensuite sa base de données vectorielle pour récupérer les informations les plus pertinentes en fonction de la façon dont les intérêts vectoriels de la requête sont similaires à ceux de sa base de données existante.
  • Fournir un contexte: Une fois les informations récupérées, elles sont combinées avec la requête de recherche pour fournir un contexte supplémentaire via une invite.
  • Génération de sortie: Le LLM générera ensuite une sortie basée sur les informations récupérées et ses propres connaissances de formation.

Comment fonctionne MCP

D’un autre côté, MCP fonctionne essentiellement comme un port USB pour les systèmes AI, normalisant la façon dont les données sont connectées au LLM.

Contrairement à RAG, MCP suit une architecture client-serveur et est beaucoup plus complet et transparent dans la façon dont il accède aux informations en utilisant le processus suivant:

  • Connexion client-serveur: Les applications LLM sont des hôtes qui entament des connexions. Grâce à l’application hôte, les clients peuvent avoir des connexions 1: 1 avec des serveurs de données, qui fournissent les outils et le contexte aux clients.
  • Outils: Les développeurs peuvent créer des outils compatibles MCP, en utilisant le protocole ouvert pour exécuter des fonctions telles que les appels d’API ou accéder aux bases de données externes qui permettent aux LLMS d’effectuer des tâches spécifiques.
  • Demandes de l’utilisateur: Les utilisateurs peuvent faire des demandes spécifiques, telles que «quel est le prix de la nouvelle chaussure de course Nike?»
  • Demande du système AI: Si le système AI ou LLM est connecté à un outil avec une base de données de prix d’inventaire créée par Nike, elle peut demander le prix de la nouvelle chaussure.
  • Sortie avec des données en direct: La base de données connectée peut fournir les données en direct au LLM et fournir des données en direct à jour directement à partir de la base de données de Nike.
CHIFFON MCP
Architecture Système de récupération Relation client-serveur
Comment les données sont accessibles Récupération via la base de données vectorielle Connexion avec des outils personnalisés créés par les parties
Capacités de sortie Informations pertinentes extraites de la base de données. Sorties et fonctions personnalisées, y compris les capacités agentiques, en fonction des outils.
Récence des données En fonction du moment où le contenu a été indexé pour la dernière fois. À jour de la source de données en direct.
Exigences de données Doit être encodé et indexé du vecteur. Doit être compatible MCP.
Précision de l’information Hallucinations réduites à travers des documents récupérés. Hallucinations réduites grâce à l’accès aux données en direct d’une source.
Utilisation des outils et actions automatisées Pas possible. Peut s’intégrer à n’importe quel flux d’outils fourni sur le serveur et effectuer toute action fournie.
Évolutivité En fonction de l’indexation et des limites de fenêtre. Peut évoluer facilement en fonction des outils compatibles MCP.
Cohérence de marque Incohérent car les données sont tirées de diverses sources. Cohérent et fort, car les données approuvées par la marque peuvent être tirées directement de la source.

Creusez plus profondément: la prochaine vague de recherche: mode AI, recherche profonde et au-delà

Ce que cela signifie pour les spécialistes du marketing et les éditeurs de recherche

Bien qu’Anthropic ait été le premier à introduire le concept de MCP en novembre, de nombreuses entreprises, dont Google, OpenAI et Microsoft, prévoient d’adopter le concept MCP d’Anthropic dans leurs systèmes d’IA.

Cela signifie que les spécialistes du marketing de recherche devraient se concentrer sur l’augmentation de la visibilité du contenu via les outils MCP et considérer ce qui suit:

Travailler avec les développeurs pour l’intégration

Collaborez avec les développeurs pour considérer comment servir des contenus de grande valeur aux utilisateurs tout en fournissant un contexte significatif aux LLM via des outils compatibles MCP.

Considérez comment profiter des capacités agentiques exécutées via le cadre MCP.

Implémenter des données structurées

Les données structurées et le schéma continueront de fournir des points de référence fiables pour les LLM.

Utilisez-les pour prendre en charge la réadabilité machine pour le contenu servi via des outils personnalisés.

Cela améliore également la visibilité au sein des expériences de recherche générées par l’IA, garantissant que le contenu est compris et a fait surface avec précision.

Gardez les informations à jour et précises

Étant donné que les LLM se connectent directement avec les sources de données, confirmez que tout le contenu fournit des données pertinentes, à jour et précises pour soutenir la fiabilité et une bonne expérience utilisateur.

Pour une entreprise de commerce électronique, cela comprendrait la vérification des prix, des spécifications des produits, des informations d’expédition et d’autres détails essentiels, d’autant plus que ces données peuvent être livrées directement dans les réponses de recherche d’IA.

Mettre l’accent sur la voix et la cohérence de la marque

Un avantage clair de la personnalisation des outils pour MCP est la possibilité d’établir une voix de marque forte et cohérente pour les LLM.

Plutôt que de s’appuyer sur des informations fragmentées provenant de diverses sources, les outils compatibles MCP vous permettent de maintenir une voix de marque cohérente en fournissant un contenu faisant autorité directement aux LLM.

Intégrez les outils MCP dans votre marketing

Alors que les systèmes d’IA s’adaptent au MCP, les spécialistes du marketing tourné devraient inclure ce nouveau cadre au sein de leurs stratégies et collaborer de manière interfonctionnelle pour développer des outils qui peuvent servir un contenu de grande valeur aux LLM et atteindre efficacement les utilisateurs.

Ces outils ne prendront pas simplement en charge l’automatisation – ils peuvent également devenir au cœur de la façon dont les marques apparaissent dans la recherche sur AI.

Author

Boosteseo

Leave a comment