Ao criar Servidores MCP num contexto empresarial, é frequentemente necessário integrar com plataformas e serviços de IA já existentes. Esta secção aborda como integrar o MCP com sistemas empresariais como o Azure OpenAI e o Microsoft AI Foundry, permitindo capacidades avançadas de IA e orquestração de ferramentas.
Nesta lição, vais aprender a integrar o Model Context Protocol (MCP) com sistemas empresariais de IA, com foco no Azure OpenAI e no Microsoft AI Foundry. Estas integrações permitem aproveitar modelos e ferramentas de IA poderosos, mantendo a flexibilidade e extensibilidade do MCP.
No final desta lição, serás capaz de:
- Integrar o MCP com o Azure OpenAI para utilizar as suas capacidades de IA.
- Implementar a orquestração de ferramentas do MCP com o Azure OpenAI.
- Combinar o MCP com o Microsoft AI Foundry para capacidades avançadas de agentes de IA.
- Utilizar o Azure Machine Learning (ML) para executar pipelines de ML e registar modelos como ferramentas do MCP.
O Azure OpenAI fornece acesso a modelos de IA poderosos como o GPT-4, entre outros. Integrar o MCP com o Azure OpenAI permite utilizar estes modelos enquanto se mantém a flexibilidade da orquestração de ferramentas do MCP.
Neste exemplo de código, demonstramos como integrar o MCP com o Azure OpenAI utilizando o SDK do Azure OpenAI.
// .NET Azure OpenAI Integration
using Microsoft.Mcp.Client;
using Azure.AI.OpenAI;
using Microsoft.Extensions.Configuration;
using System.Threading.Tasks;
namespace EnterpriseIntegration
{
public class AzureOpenAiMcpClient
{
private readonly string _endpoint;
private readonly string _apiKey;
private readonly string _deploymentName;
public AzureOpenAiMcpClient(IConfiguration config)
{
_endpoint = config["AzureOpenAI:Endpoint"];
_apiKey = config["AzureOpenAI:ApiKey"];
_deploymentName = config["AzureOpenAI:DeploymentName"];
}
public async Task<string> GetCompletionWithToolsAsync(string prompt, params string[] allowedTools)
{
// Create OpenAI client
var client = new OpenAIClient(new Uri(_endpoint), new AzureKeyCredential(_apiKey));
// Create completion options with tools
var completionOptions = new ChatCompletionsOptions
{
DeploymentName = _deploymentName,
Messages = { new ChatMessage(ChatRole.User, prompt) },
Temperature = 0.7f,
MaxTokens = 800
};
// Add tool definitions
foreach (var tool in allowedTools)
{
completionOptions.Tools.Add(new ChatCompletionsFunctionToolDefinition
{
Name = tool,
// In a real implementation, you'd add the tool schema here
});
}
// Get completion response
var response = await client.GetChatCompletionsAsync(completionOptions);
// Handle tool calls in the response
foreach (var toolCall in response.Value.Choices[0].Message.ToolCalls)
{
// Implementation to handle Azure OpenAI tool calls with MCP
// ...
}
return response.Value.Choices[0].Message.Content;
}
}
}No código acima, realizámos as seguintes ações:
- Configurámos o cliente do Azure OpenAI com o endpoint, o nome da implementação e a chave da API.
- Criámos um método
GetCompletionWithToolsAsyncpara obter respostas com suporte a ferramentas. - Gerimos chamadas de ferramentas na resposta.
Recomenda-se que implementes a lógica real de gestão de ferramentas com base na configuração específica do teu servidor MCP.
O Azure AI Foundry fornece uma plataforma para construir e implementar agentes de IA. Integrar o MCP com o AI Foundry permite aproveitar as suas capacidades enquanto se mantém a flexibilidade do MCP.
No código abaixo, desenvolvemos uma integração de Agente que processa pedidos e gere chamadas de ferramentas utilizando o MCP.
// Java AI Foundry Agent Integration
package com.example.mcp.enterprise;
import com.microsoft.aifoundry.AgentClient;
import com.microsoft.aifoundry.AgentToolResponse;
import com.microsoft.aifoundry.models.AgentRequest;
import com.microsoft.aifoundry.models.AgentResponse;
import com.mcp.client.McpClient;
import com.mcp.tools.ToolRequest;
import com.mcp.tools.ToolResponse;
public class AIFoundryMcpBridge {
private final AgentClient agentClient;
private final McpClient mcpClient;
public AIFoundryMcpBridge(String aiFoundryEndpoint, String mcpServerUrl) {
this.agentClient = new AgentClient(aiFoundryEndpoint);
this.mcpClient = new McpClient.Builder()
.setServerUrl(mcpServerUrl)
.build();
}
public AgentResponse processAgentRequest(AgentRequest request) {
// Process the AI Foundry Agent request
AgentResponse initialResponse = agentClient.processRequest(request);
// Check if the agent requested to use tools
if (initialResponse.getToolCalls() != null && !initialResponse.getToolCalls().isEmpty()) {
// For each tool call, route it to the appropriate MCP tool
for (AgentToolCall toolCall : initialResponse.getToolCalls()) {
String toolName = toolCall.getName();
Map<String, Object> parameters = toolCall.getArguments();
// Execute the tool using MCP
ToolResponse mcpResponse = mcpClient.executeTool(toolName, parameters);
// Create tool response for AI Foundry
AgentToolResponse toolResponse = new AgentToolResponse(
toolCall.getId(),
mcpResponse.getResult()
);
// Submit tool response back to the agent
initialResponse = agentClient.submitToolResponse(
request.getConversationId(),
toolResponse
);
}
}
return initialResponse;
}
}No código acima, realizámos as seguintes ações:
- Criámos uma classe
AIFoundryMcpBridgeque integra tanto com o AI Foundry como com o MCP. - Implementámos um método
processAgentRequestque processa um pedido de agente do AI Foundry. - Gerimos chamadas de ferramentas executando-as através do cliente MCP e submetendo os resultados de volta ao agente do AI Foundry.
Integrar o MCP com o Azure Machine Learning (ML) permite aproveitar as capacidades poderosas de ML do Azure enquanto se mantém a flexibilidade do MCP. Esta integração pode ser utilizada para executar pipelines de ML, registar modelos como ferramentas e gerir recursos de computação.
# Python Azure AI Integration
from mcp_client import McpClient
from azure.ai.ml import MLClient
from azure.identity import DefaultAzureCredential
from azure.ai.ml.entities import Environment, AmlCompute
import os
import asyncio
class EnterpriseAiIntegration:
def __init__(self, mcp_server_url, subscription_id, resource_group, workspace_name):
# Set up MCP client
self.mcp_client = McpClient(server_url=mcp_server_url)
# Set up Azure ML client
self.credential = DefaultAzureCredential()
self.ml_client = MLClient(
self.credential,
subscription_id,
resource_group,
workspace_name
)
async def execute_ml_pipeline(self, pipeline_name, input_data):
"""Executes an ML pipeline in Azure ML"""
# First process the input data using MCP tools
processed_data = await self.mcp_client.execute_tool(
"dataPreprocessor",
{
"data": input_data,
"operations": ["normalize", "clean", "transform"]
}
)
# Submit the pipeline to Azure ML
pipeline_job = self.ml_client.jobs.create_or_update(
entity={
"name": pipeline_name,
"display_name": f"MCP-triggered {pipeline_name}",
"experiment_name": "mcp-integration",
"inputs": {
"processed_data": processed_data.result
}
}
)
# Return job information
return {
"job_id": pipeline_job.id,
"status": pipeline_job.status,
"creation_time": pipeline_job.creation_context.created_at
}
async def register_ml_model_as_tool(self, model_name, model_version="latest"):
"""Registers an Azure ML model as an MCP tool"""
# Get model details
if model_version == "latest":
model = self.ml_client.models.get(name=model_name, label="latest")
else:
model = self.ml_client.models.get(name=model_name, version=model_version)
# Create deployment environment
env = Environment(
name="mcp-model-env",
conda_file="./environments/inference-env.yml"
)
# Set up compute
compute = self.ml_client.compute.get("mcp-inference")
# Deploy model as online endpoint
deployment = self.ml_client.online_deployments.create_or_update(
endpoint_name=f"mcp-{model_name}",
deployment={
"name": f"mcp-{model_name}-deployment",
"model": model.id,
"environment": env,
"compute": compute,
"scale_settings": {
"scale_type": "auto",
"min_instances": 1,
"max_instances": 3
}
}
)
# Create MCP tool schema based on model schema
tool_schema = {
"type": "object",
"properties": {},
"required": []
}
# Add input properties based on model schema
for input_name, input_spec in model.signature.inputs.items():
tool_schema["properties"][input_name] = {
"type": self._map_ml_type_to_json_type(input_spec.type)
}
tool_schema["required"].append(input_name)
# Register as MCP tool
# In a real implementation, you would create a tool that calls the endpoint
return {
"model_name": model_name,
"model_version": model.version,
"endpoint": deployment.endpoint_uri,
"tool_schema": tool_schema
}
def _map_ml_type_to_json_type(self, ml_type):
"""Maps ML data types to JSON schema types"""
mapping = {
"float": "number",
"int": "integer",
"bool": "boolean",
"str": "string",
"object": "object",
"array": "array"
}
return mapping.get(ml_type, "string")No código acima, realizámos as seguintes ações:
- Criámos uma classe
EnterpriseAiIntegrationque integra o MCP com o Azure ML. - Implementámos um método
execute_ml_pipelineque processa dados de entrada utilizando ferramentas do MCP e submete um pipeline de ML ao Azure ML. - Implementámos um método
register_ml_model_as_toolque regista um modelo do Azure ML como uma ferramenta do MCP, incluindo a criação do ambiente de implementação necessário e dos recursos de computação. - Mapeámos tipos de dados do Azure ML para tipos de esquema JSON para o registo de ferramentas.
- Utilizámos programação assíncrona para lidar com operações potencialmente demoradas, como a execução de pipelines de ML e o registo de modelos.
Aviso Legal:
Este documento foi traduzido utilizando o serviço de tradução por IA Co-op Translator. Embora nos esforcemos para garantir a precisão, esteja ciente de que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte oficial. Para informações críticas, recomenda-se uma tradução profissional realizada por humanos. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações incorretas resultantes do uso desta tradução.