|
1 | | -= 2. Desarrollar el Servidor MCP |
| 1 | +== 2. Desarrollar el Servidor MCP |
2 | 2 | include::_attributes.adoc[] |
3 | 3 |
|
4 | 4 | [#21] |
5 | | -== 2.1 ¿Qué es MCP? |
| 5 | +=== 2.1 ¿Qué es MCP? |
| 6 | + |
| 7 | +El **Model Context Protocol (MCP)** es básicamente el USB-C para la inteligencia artificial. Se trata de un estándar abierto que permite a los desarrolladores crear conectores universales para que cualquier IA pueda leer datos de cualquier fuente de forma segura y estandarizada. |
| 8 | + |
| 9 | +Esto permite a nuestro modelo interactuar con herramientas externas como Slack, nuestro clúster de OpenShift y también realizar operaciones lógicas como calcular presupuestos con más fiabilidad. |
| 10 | + |
| 11 | +**¿Qué hace falta?** Para incluir una herramienta basada en MCP en nuestra arquitectura, necesitamos tres componentes: |
| 12 | + |
| 13 | +* Por un lado, necesitamos **un modelo y un motor de inferencia**. Gracias a vLLM, tenemos flexibilidad para servir el modelo on-premise, en la nube que prefiramos o simplemente que sea servido por terceros. |
| 14 | +* Nos hará falta definir **un servidor MCP**, que contendrá la lógica que queremos que el modelo ejecute cuando sea necesario. |
| 15 | +* Finalmente necesitamos **un cliente MCP**. ¿Dónde lo encontramos? En la otra gran pieza de este taller, Llama Stack. Se trata de un framework de creación de agentes que nos permite centralizar todas las herramientas necesarias para crearlos. Más adelante, desplegaremos una distribución de Llama Stack para verlo más a fondo. |
| 16 | +
|
| 17 | +**¿Cómo funciona?** El flujo sería el siguiente: |
| 18 | + |
| 19 | +1. Antes de que el usuario interactúe con el agente, Llama Stack se conecta al servidor MCP y este le envía un **manifiesto** de sus herramientas disponibles. |
| 20 | +2. El usuario envía un prompt y Llama Stack **añade en él** la lista de herramientas disponibles. |
| 21 | +3. El modelo **procesa** el prompt y si lo requiere, **genera una llamada** a la función del servidor MCP. |
| 22 | +4. Llama Stack **recibe** la llamada y **llama** al servidor MCP para ejecutar la herramienta. |
| 23 | +5. Llama Stack **devuelve el resultado** de la herramienta al modelo. |
| 24 | +6. Con la nueva información, el modelo genera su **respuesta final** y el usuario la recibe. |
| 25 | +
|
6 | 26 |
|
7 | | -El Model Context Protocol (MCP) es básicamente el USB-C para la inteligencia artificial. Se trata de un estándar abierto que permite que los desarrolladores creen conectores universales para que cualquier IA pueda leer datos de cualquier fuente de forma segura y estandarizada. |
8 | 27 |
|
9 | | -**¿Cómo funciona?** |
10 | 28 |
|
11 | 29 |
|
12 | 30 | [#22] |
13 | | -== 2.2 Penalty Engine |
| 31 | +=== 2.2 Penalty Engine |
14 | 32 |
|
15 | 33 | [#33] |
16 | | -== 2.3 Testear con MCP Inspector |
| 34 | +=== 2.3 Testear con MCP Inspector |
0 commit comments