Pri vytváraní MCP serverov v podnikových kontextoch často potrebujete integrovať existujúce AI platformy a služby. Táto sekcia sa zaoberá integráciou MCP s podnikovými systémami, ako sú Azure OpenAI a Microsoft AI Foundry, čím umožňuje pokročilé AI schopnosti a orchestráciu nástrojov.
V tejto lekcii sa naučíte, ako integrovať Model Context Protocol (MCP) s podnikovými AI systémami, pričom sa zameriate na Azure OpenAI a Microsoft AI Foundry. Tieto integrácie vám umožnia využiť výkonné AI modely a nástroje, pričom si zachováte flexibilitu a rozšíriteľnosť MCP.
Na konci tejto lekcie budete schopní:
- Integrovať MCP s Azure OpenAI na využitie jeho AI schopností.
- Implementovať orchestráciu nástrojov MCP s Azure OpenAI.
- Kombinovať MCP s Microsoft AI Foundry pre pokročilé schopnosti AI agentov.
- Využiť Azure Machine Learning (ML) na vykonávanie ML pipeline a registráciu modelov ako MCP nástrojov.
Azure OpenAI poskytuje prístup k výkonným AI modelom, ako je GPT-4 a ďalšie. Integrácia MCP s Azure OpenAI vám umožní využiť tieto modely, pričom si zachováte flexibilitu orchestrácie nástrojov MCP.
V tomto úryvku kódu demonštrujeme, ako integrovať MCP s Azure OpenAI pomocou Azure OpenAI SDK.
// .NET Azure OpenAI Integration
using Microsoft.Mcp.Client;
using Azure.AI.OpenAI;
using Microsoft.Extensions.Configuration;
using System.Threading.Tasks;
namespace EnterpriseIntegration
{
public class AzureOpenAiMcpClient
{
private readonly string _endpoint;
private readonly string _apiKey;
private readonly string _deploymentName;
public AzureOpenAiMcpClient(IConfiguration config)
{
_endpoint = config["AzureOpenAI:Endpoint"];
_apiKey = config["AzureOpenAI:ApiKey"];
_deploymentName = config["AzureOpenAI:DeploymentName"];
}
public async Task<string> GetCompletionWithToolsAsync(string prompt, params string[] allowedTools)
{
// Create OpenAI client
var client = new OpenAIClient(new Uri(_endpoint), new AzureKeyCredential(_apiKey));
// Create completion options with tools
var completionOptions = new ChatCompletionsOptions
{
DeploymentName = _deploymentName,
Messages = { new ChatMessage(ChatRole.User, prompt) },
Temperature = 0.7f,
MaxTokens = 800
};
// Add tool definitions
foreach (var tool in allowedTools)
{
completionOptions.Tools.Add(new ChatCompletionsFunctionToolDefinition
{
Name = tool,
// In a real implementation, you'd add the tool schema here
});
}
// Get completion response
var response = await client.GetChatCompletionsAsync(completionOptions);
// Handle tool calls in the response
foreach (var toolCall in response.Value.Choices[0].Message.ToolCalls)
{
// Implementation to handle Azure OpenAI tool calls with MCP
// ...
}
return response.Value.Choices[0].Message.Content;
}
}
}V predchádzajúcom kóde sme:
- Konfigurovali klienta Azure OpenAI s endpointom, názvom nasadenia a API kľúčom.
- Vytvorili metódu
GetCompletionWithToolsAsyncna získanie odpovedí s podporou nástrojov. - Spracovali volania nástrojov v odpovedi.
Odporúčame implementovať skutočnú logiku spracovania nástrojov na základe vašej konkrétnej konfigurácie MCP servera.
Azure AI Foundry poskytuje platformu na vytváranie a nasadzovanie AI agentov. Integrácia MCP s AI Foundry vám umožní využiť jeho schopnosti, pričom si zachováte flexibilitu MCP.
V nasledujúcom kóde vyvíjame integráciu agenta, ktorý spracováva požiadavky a volania nástrojov pomocou MCP.
// Java AI Foundry Agent Integration
package com.example.mcp.enterprise;
import com.microsoft.aifoundry.AgentClient;
import com.microsoft.aifoundry.AgentToolResponse;
import com.microsoft.aifoundry.models.AgentRequest;
import com.microsoft.aifoundry.models.AgentResponse;
import com.mcp.client.McpClient;
import com.mcp.tools.ToolRequest;
import com.mcp.tools.ToolResponse;
public class AIFoundryMcpBridge {
private final AgentClient agentClient;
private final McpClient mcpClient;
public AIFoundryMcpBridge(String aiFoundryEndpoint, String mcpServerUrl) {
this.agentClient = new AgentClient(aiFoundryEndpoint);
this.mcpClient = new McpClient.Builder()
.setServerUrl(mcpServerUrl)
.build();
}
public AgentResponse processAgentRequest(AgentRequest request) {
// Process the AI Foundry Agent request
AgentResponse initialResponse = agentClient.processRequest(request);
// Check if the agent requested to use tools
if (initialResponse.getToolCalls() != null && !initialResponse.getToolCalls().isEmpty()) {
// For each tool call, route it to the appropriate MCP tool
for (AgentToolCall toolCall : initialResponse.getToolCalls()) {
String toolName = toolCall.getName();
Map<String, Object> parameters = toolCall.getArguments();
// Execute the tool using MCP
ToolResponse mcpResponse = mcpClient.executeTool(toolName, parameters);
// Create tool response for AI Foundry
AgentToolResponse toolResponse = new AgentToolResponse(
toolCall.getId(),
mcpResponse.getResult()
);
// Submit tool response back to the agent
initialResponse = agentClient.submitToolResponse(
request.getConversationId(),
toolResponse
);
}
}
return initialResponse;
}
}V predchádzajúcom kóde sme:
- Vytvorili triedu
AIFoundryMcpBridge, ktorá integruje AI Foundry a MCP. - Implementovali metódu
processAgentRequest, ktorá spracováva požiadavky agenta AI Foundry. - Spracovali volania nástrojov ich vykonaním prostredníctvom MCP klienta a odoslaním výsledkov späť agentovi AI Foundry.
Integrácia MCP s Azure Machine Learning (ML) vám umožní využiť výkonné schopnosti Azure ML, pričom si zachováte flexibilitu MCP. Táto integrácia môže byť použitá na vykonávanie ML pipeline, registráciu modelov ako nástrojov a správu výpočtových zdrojov.
# Python Azure AI Integration
from mcp_client import McpClient
from azure.ai.ml import MLClient
from azure.identity import DefaultAzureCredential
from azure.ai.ml.entities import Environment, AmlCompute
import os
import asyncio
class EnterpriseAiIntegration:
def __init__(self, mcp_server_url, subscription_id, resource_group, workspace_name):
# Set up MCP client
self.mcp_client = McpClient(server_url=mcp_server_url)
# Set up Azure ML client
self.credential = DefaultAzureCredential()
self.ml_client = MLClient(
self.credential,
subscription_id,
resource_group,
workspace_name
)
async def execute_ml_pipeline(self, pipeline_name, input_data):
"""Executes an ML pipeline in Azure ML"""
# First process the input data using MCP tools
processed_data = await self.mcp_client.execute_tool(
"dataPreprocessor",
{
"data": input_data,
"operations": ["normalize", "clean", "transform"]
}
)
# Submit the pipeline to Azure ML
pipeline_job = self.ml_client.jobs.create_or_update(
entity={
"name": pipeline_name,
"display_name": f"MCP-triggered {pipeline_name}",
"experiment_name": "mcp-integration",
"inputs": {
"processed_data": processed_data.result
}
}
)
# Return job information
return {
"job_id": pipeline_job.id,
"status": pipeline_job.status,
"creation_time": pipeline_job.creation_context.created_at
}
async def register_ml_model_as_tool(self, model_name, model_version="latest"):
"""Registers an Azure ML model as an MCP tool"""
# Get model details
if model_version == "latest":
model = self.ml_client.models.get(name=model_name, label="latest")
else:
model = self.ml_client.models.get(name=model_name, version=model_version)
# Create deployment environment
env = Environment(
name="mcp-model-env",
conda_file="./environments/inference-env.yml"
)
# Set up compute
compute = self.ml_client.compute.get("mcp-inference")
# Deploy model as online endpoint
deployment = self.ml_client.online_deployments.create_or_update(
endpoint_name=f"mcp-{model_name}",
deployment={
"name": f"mcp-{model_name}-deployment",
"model": model.id,
"environment": env,
"compute": compute,
"scale_settings": {
"scale_type": "auto",
"min_instances": 1,
"max_instances": 3
}
}
)
# Create MCP tool schema based on model schema
tool_schema = {
"type": "object",
"properties": {},
"required": []
}
# Add input properties based on model schema
for input_name, input_spec in model.signature.inputs.items():
tool_schema["properties"][input_name] = {
"type": self._map_ml_type_to_json_type(input_spec.type)
}
tool_schema["required"].append(input_name)
# Register as MCP tool
# In a real implementation, you would create a tool that calls the endpoint
return {
"model_name": model_name,
"model_version": model.version,
"endpoint": deployment.endpoint_uri,
"tool_schema": tool_schema
}
def _map_ml_type_to_json_type(self, ml_type):
"""Maps ML data types to JSON schema types"""
mapping = {
"float": "number",
"int": "integer",
"bool": "boolean",
"str": "string",
"object": "object",
"array": "array"
}
return mapping.get(ml_type, "string")V predchádzajúcom kóde sme:
- Vytvorili triedu
EnterpriseAiIntegration, ktorá integruje MCP s Azure ML. - Implementovali metódu
execute_ml_pipeline, ktorá spracováva vstupné dáta pomocou MCP nástrojov a odosiela ML pipeline do Azure ML. - Implementovali metódu
register_ml_model_as_tool, ktorá registruje model Azure ML ako MCP nástroj, vrátane vytvorenia potrebného prostredia nasadenia a výpočtových zdrojov. - Mapovali typy dát Azure ML na typy JSON schém pre registráciu nástrojov.
- Použili asynchrónne programovanie na spracovanie potenciálne dlhotrvajúcich operácií, ako je vykonávanie ML pipeline a registrácia modelov.
Zrieknutie sa zodpovednosti:
Tento dokument bol preložený pomocou služby AI prekladu Co-op Translator. Hoci sa snažíme o presnosť, prosím, berte na vedomie, že automatizované preklady môžu obsahovať chyby alebo nepresnosti. Pôvodný dokument v jeho rodnom jazyku by mal byť považovaný za autoritatívny zdroj. Pre kritické informácie sa odporúča profesionálny ľudský preklad. Nenesieme zodpovednosť za akékoľvek nedorozumenia alebo nesprávne interpretácie vyplývajúce z použitia tohto prekladu.