(Kliknij obrazek powyżej, aby obejrzeć wideo z tej lekcji)
Ten moduł bada, w jaki sposób prawdziwe organizacje i deweloperzy wykorzystują Model Context Protocol (MCP) do rozwiązywania rzeczywistych wyzwań i napędzania innowacji. Poprzez szczegółowe studia przypadków i praktyczne projekty, odkryjesz, jak MCP umożliwia bezpieczną, skalowalną integrację AI, łącząc modele językowe, narzędzia i dane przedsiębiorstwa.
Chcesz zobaczyć te zasady zastosowane w gotowych do produkcji narzędziach? Sprawdź nasz Przewodnik po 10 serwerach MCP Microsoftu, które zmieniają produktywność deweloperów, który prezentuje rzeczywiste serwery MCP Microsoftu, które możesz używać już dziś.
Ta lekcja bada, w jaki sposób wczesni użytkownicy wykorzystali Model Context Protocol (MCP) do rozwiązywania rzeczywistych wyzwań i napędzania innowacji w różnych branżach. Poprzez szczegółowe studia przypadków i praktyczne projekty zobaczysz, jak MCP umożliwia standaryzowaną, bezpieczną i skalowalną integrację AI—łącząc duże modele językowe, narzędzia i dane przedsiębiorstwa w jednolitym frameworku. Zdobędziesz praktyczne doświadczenie w projektowaniu i budowaniu rozwiązań opartych na MCP, nauczysz się sprawdzonych wzorców implementacji i odkryjesz najlepsze praktyki wdrażania MCP w środowiskach produkcyjnych. Lekcja podkreśla również pojawiające się trendy, przyszłe kierunki i zasoby open-source, które pomogą Ci pozostać na czele technologii MCP i jej rozwijającego się ekosystemu.
- Analizowanie rzeczywistych implementacji MCP w różnych branżach
- Projektowanie i budowanie kompletnych aplikacji opartych na MCP
- Badanie pojawiających się trendów i przyszłych kierunków w technologii MCP
- Stosowanie najlepszych praktyk w rzeczywistych scenariuszach deweloperskich
Międzynarodowa korporacja wdrożyła rozwiązanie oparte na MCP, aby standaryzować interakcje AI w swoich systemach wsparcia klienta. Dzięki temu mogli:
- Stworzyć jednolity interfejs dla wielu dostawców LLM
- Utrzymać spójne zarządzanie promptami w różnych działach
- Wdrożyć solidne mechanizmy bezpieczeństwa i zgodności
- Łatwo przełączać się między różnymi modelami AI w zależności od potrzeb
Implementacja techniczna:
# Python MCP server implementation for customer support
import logging
import asyncio
from modelcontextprotocol import create_server, ServerConfig
from modelcontextprotocol.server import MCPServer
from modelcontextprotocol.transports import create_http_transport
from modelcontextprotocol.resources import ResourceDefinition
from modelcontextprotocol.prompts import PromptDefinition
from modelcontextprotocol.tool import ToolDefinition
# Configure logging
logging.basicConfig(level=logging.INFO)
async def main():
# Create server configuration
config = ServerConfig(
name="Enterprise Customer Support Server",
version="1.0.0",
description="MCP server for handling customer support inquiries"
)
# Initialize MCP server
server = create_server(config)
# Register knowledge base resources
server.resources.register(
ResourceDefinition(
name="customer_kb",
description="Customer knowledge base documentation"
),
lambda params: get_customer_documentation(params)
)
# Register prompt templates
server.prompts.register(
PromptDefinition(
name="support_template",
description="Templates for customer support responses"
),
lambda params: get_support_templates(params)
)
# Register support tools
server.tools.register(
ToolDefinition(
name="ticketing",
description="Create and update support tickets"
),
handle_ticketing_operations
)
# Start server with HTTP transport
transport = create_http_transport(port=8080)
await server.run(transport)
if __name__ == "__main__":
asyncio.run(main())Rezultaty: 30% redukcja kosztów modeli, 45% poprawa spójności odpowiedzi i zwiększona zgodność w operacjach globalnych.
Dostawca usług medycznych opracował infrastrukturę MCP, aby zintegrować wiele wyspecjalizowanych modeli AI medycznych, jednocześnie zapewniając ochronę wrażliwych danych pacjentów:
- Płynne przełączanie między ogólnymi a specjalistycznymi modelami medycznymi
- Ścisłe kontrole prywatności i ścieżki audytu
- Integracja z istniejącymi systemami Elektronicznej Dokumentacji Medycznej (EHR)
- Spójne projektowanie promptów dla terminologii medycznej
Implementacja techniczna:
// C# MCP host application implementation in healthcare application
using Microsoft.Extensions.DependencyInjection;
using ModelContextProtocol.SDK.Client;
using ModelContextProtocol.SDK.Security;
using ModelContextProtocol.SDK.Resources;
public class DiagnosticAssistant
{
private readonly MCPHostClient _mcpClient;
private readonly PatientContext _patientContext;
public DiagnosticAssistant(PatientContext patientContext)
{
_patientContext = patientContext;
// Configure MCP client with healthcare-specific settings
var clientOptions = new ClientOptions
{
Name = "Healthcare Diagnostic Assistant",
Version = "1.0.0",
Security = new SecurityOptions
{
Encryption = EncryptionLevel.Medical,
AuditEnabled = true
}
};
_mcpClient = new MCPHostClientBuilder()
.WithOptions(clientOptions)
.WithTransport(new HttpTransport("https://healthcare-mcp.example.org"))
.WithAuthentication(new HIPAACompliantAuthProvider())
.Build();
}
public async Task<DiagnosticSuggestion> GetDiagnosticAssistance(
string symptoms, string patientHistory)
{
// Create request with appropriate resources and tool access
var resourceRequest = new ResourceRequest
{
Name = "patient_records",
Parameters = new Dictionary<string, object>
{
["patientId"] = _patientContext.PatientId,
["requestingProvider"] = _patientContext.ProviderId
}
};
// Request diagnostic assistance using appropriate prompt
var response = await _mcpClient.SendPromptRequestAsync(
promptName: "diagnostic_assistance",
parameters: new Dictionary<string, object>
{
["symptoms"] = symptoms,
patientHistory = patientHistory,
relevantGuidelines = _patientContext.GetRelevantGuidelines()
});
return DiagnosticSuggestion.FromMCPResponse(response);
}
}Rezultaty: Ulepszone sugestie diagnostyczne dla lekarzy przy pełnej zgodności z HIPAA oraz znacząca redukcja przełączania kontekstu między systemami.
Instytucja finansowa wdrożyła MCP, aby standaryzować procesy analizy ryzyka w różnych działach:
- Stworzenie jednolitego interfejsu dla modeli ryzyka kredytowego, wykrywania oszustw i ryzyka inwestycyjnego
- Wdrożenie ścisłych kontroli dostępu i wersjonowania modeli
- Zapewnienie audytowalności wszystkich rekomendacji AI
- Utrzymanie spójnego formatowania danych w różnych systemach
Implementacja techniczna:
// Java MCP server for financial risk assessment
import org.mcp.server.*;
import org.mcp.security.*;
public class FinancialRiskMCPServer {
public static void main(String[] args) {
// Create MCP server with financial compliance features
MCPServer server = new MCPServerBuilder()
.withModelProviders(
new ModelProvider("risk-assessment-primary", new AzureOpenAIProvider()),
new ModelProvider("risk-assessment-audit", new LocalLlamaProvider())
)
.withPromptTemplateDirectory("./compliance/templates")
.withAccessControls(new SOCCompliantAccessControl())
.withDataEncryption(EncryptionStandard.FINANCIAL_GRADE)
.withVersionControl(true)
.withAuditLogging(new DatabaseAuditLogger())
.build();
server.addRequestValidator(new FinancialDataValidator());
server.addResponseFilter(new PII_RedactionFilter());
server.start(9000);
System.out.println("Financial Risk MCP Server running on port 9000");
}
}Rezultaty: Zwiększona zgodność regulacyjna, 40% szybsze cykle wdrażania modeli i poprawiona spójność oceny ryzyka w działach.
Microsoft opracował serwer MCP Playwright, aby umożliwić bezpieczną, standaryzowaną automatyzację przeglądarek za pomocą Model Context Protocol. Ten gotowy do produkcji serwer pozwala agentom AI i LLM na interakcję z przeglądarkami internetowymi w kontrolowany, audytowalny i rozszerzalny sposób—umożliwiając takie przypadki użycia jak automatyczne testowanie stron, ekstrakcja danych i kompleksowe przepływy pracy.
🎯 Gotowe narzędzie produkcyjne
To studium przypadku prezentuje rzeczywisty serwer MCP, który możesz używać już dziś! Dowiedz się więcej o serwerze MCP Playwright i 9 innych gotowych do produkcji serwerach MCP Microsoftu w naszym Przewodniku po serwerach MCP Microsoftu.
Kluczowe funkcje:
- Udostępnia możliwości automatyzacji przeglądarek (nawigacja, wypełnianie formularzy, przechwytywanie zrzutów ekranu itp.) jako narzędzia MCP
- Wdraża ścisłe kontrole dostępu i sandboxing, aby zapobiec nieautoryzowanym działaniom
- Zapewnia szczegółowe dzienniki audytu dla wszystkich interakcji z przeglądarką
- Wspiera integrację z Azure OpenAI i innymi dostawcami LLM dla automatyzacji sterowanej przez agentów
- Zasila możliwości przeglądania w GitHub Copilot's Coding Agent
Implementacja techniczna:
// TypeScript: Registering Playwright browser automation tools in an MCP server
import { createServer, ToolDefinition } from 'modelcontextprotocol';
import { launch } from 'playwright';
const server = createServer({
name: 'Playwright MCP Server',
version: '1.0.0',
description: 'MCP server for browser automation using Playwright'
});
// Register a tool for navigating to a URL and capturing a screenshot
server.tools.register(
new ToolDefinition({
name: 'navigate_and_screenshot',
description: 'Navigate to a URL and capture a screenshot',
parameters: {
url: { type: 'string', description: 'The URL to visit' }
}
}),
async ({ url }) => {
const browser = await launch();
const page = await browser.newPage();
await page.goto(url);
const screenshot = await page.screenshot();
await browser.close();
return { screenshot };
}
);
// Start the MCP server
server.listen(8080);Rezultaty:
- Umożliwiono bezpieczną, programową automatyzację przeglądarek dla agentów AI i LLM
- Zredukowano wysiłek związany z ręcznym testowaniem i poprawiono pokrycie testów dla aplikacji internetowych
- Zapewniono wielokrotnego użytku, rozszerzalny framework do integracji narzędzi opartych na przeglądarkach w środowiskach przedsiębiorstw
- Zasila możliwości przeglądania w GitHub Copilot
Referencje:
Serwer Azure MCP (https://aka.ms/azmcp) to zarządzana przez Microsoft implementacja Model Context Protocol klasy korporacyjnej, zaprojektowana do zapewnienia skalowalnych, bezpiecznych i zgodnych możliwości serwera MCP jako usługi w chmurze. Azure MCP umożliwia organizacjom szybkie wdrażanie, zarządzanie i integrację serwerów MCP z usługami Azure AI, danymi i bezpieczeństwem, redukując koszty operacyjne i przyspieszając adopcję AI.
🎯 Gotowe narzędzie produkcyjne
To rzeczywisty serwer MCP, który możesz używać już dziś! Dowiedz się więcej o serwerze MCP Azure AI Foundry w naszym Przewodniku po serwerach MCP Microsoftu.
- W pełni zarządzane hostowanie serwera MCP z wbudowanym skalowaniem, monitorowaniem i bezpieczeństwem
- Natywna integracja z Azure OpenAI, Azure AI Search i innymi usługami Azure
- Uwierzytelnianie i autoryzacja korporacyjna za pomocą Microsoft Entra ID
- Wsparcie dla niestandardowych narzędzi, szablonów promptów i konektorów zasobów
- Zgodność z wymaganiami bezpieczeństwa i regulacyjnymi przedsiębiorstw
Implementacja techniczna:
# Example: Azure MCP server deployment configuration (YAML)
apiVersion: mcp.microsoft.com/v1
kind: McpServer
metadata:
name: enterprise-mcp-server
spec:
modelProviders:
- name: azure-openai
type: AzureOpenAI
endpoint: https://<your-openai-resource>.openai.azure.com/
apiKeySecret: <your-azure-keyvault-secret>
tools:
- name: document_search
type: AzureAISearch
endpoint: https://<your-search-resource>.search.windows.net/
apiKeySecret: <your-azure-keyvault-secret>
authentication:
type: EntraID
tenantId: <your-tenant-id>
monitoring:
enabled: true
logAnalyticsWorkspace: <your-log-analytics-id>Rezultaty:
- Skrócony czas realizacji projektów AI w przedsiębiorstwach dzięki gotowej do użycia, zgodnej platformie serwera MCP
- Uproszczona integracja LLM, narzędzi i źródeł danych przedsiębiorstwa
- Zwiększone bezpieczeństwo, widoczność i efektywność operacyjna dla obciążeń MCP
- Poprawiona jakość kodu dzięki najlepszym praktykom Azure SDK i aktualnym wzorcom uwierzytelniania
Referencje:
MCP (Model Context Protocol) to rozwijający się protokół dla chatbotów i asystentów AI do interakcji z narzędziami. Każda instancja NLWeb jest również serwerem MCP, który obsługuje jedną podstawową metodę, ask, używaną do zadawania pytania stronie internetowej w języku naturalnym. Odpowiedź zwrotna wykorzystuje schema.org, szeroko stosowane słownictwo do opisu danych internetowych. W uproszczeniu, MCP jest dla NLWeb tym, czym Http jest dla HTML. NLWeb łączy protokoły, formaty Schema.org i przykładowy kod, aby pomóc witrynom szybko tworzyć te punkty końcowe, przynosząc korzyści zarówno ludziom poprzez interfejsy konwersacyjne, jak i maszynom poprzez naturalną interakcję agent-agent.
NLWeb składa się z dwóch odrębnych komponentów:
- Protokół, bardzo prosty na początek, do interfejsowania z witryną w języku naturalnym oraz format, wykorzystujący json i schema.org dla zwróconej odpowiedzi. Zobacz dokumentację REST API, aby uzyskać więcej szczegółów.
- Prosta implementacja (1), która wykorzystuje istniejące oznaczenia, dla witryn, które można abstrakcyjnie traktować jako listy elementów (produkty, przepisy, atrakcje, recenzje itp.). Wraz z zestawem widżetów interfejsu użytkownika, witryny mogą łatwo udostępniać interfejsy konwersacyjne do swojej zawartości. Zobacz dokumentację "Life of a chat query", aby dowiedzieć się, jak to działa.
Referencje:
Serwery MCP Azure AI Foundry pokazują, jak MCP może być używane do orkiestracji i zarządzania agentami AI oraz przepływami pracy w środowiskach przedsiębiorstw. Integrując MCP z Azure AI Foundry, organizacje mogą standaryzować interakcje agentów, korzystać z zarządzania przepływami Foundry i zapewniać bezpieczne, skalowalne wdrożenia.
🎯 Gotowe narzędzie produkcyjne
To rzeczywisty serwer MCP, który możesz używać już dziś! Dowiedz się więcej o serwerze MCP Azure AI Foundry w naszym Przewodniku po serwerach MCP Microsoftu.
Kluczowe funkcje:
- Kompleksowy dostęp do ekosystemu AI Azure, w tym katalogów modeli i zarządzania wdrożeniami
- Indeksowanie wiedzy za pomocą Azure AI Search dla aplikacji RAG
- Narzędzia oceny wydajności modeli AI i zapewnienia jakości
- Integracja z katalogiem i laboratoriami Azure AI Foundry dla najnowszych modeli badawczych
- Zarządzanie agentami i możliwości oceny w scenariuszach produkcyjnych
Rezultaty:
- Szybkie prototypowanie i solidne monitorowanie przepływów pracy agentów AI
- Płynna integracja z usługami AI Azure dla zaawansowanych scenariuszy
- Jednolity interfejs do budowania, wdrażania i monitorowania pipeline'ów agentów
- Zwiększone bezpieczeństwo, zgodność i efektywność operacyjna dla przedsiębiorstw
- Przyspieszona adopcja AI przy jednoczesnym zachowaniu kontroli nad złożonymi procesami sterowanymi przez agentów
Referencje:
- Repozytorium GitHub serwera MCP Azure AI Foundry
- Integracja agentów AI Azure z MCP (Blog Foundry Microsoftu)
Foundry MCP Playground oferuje gotowe środowisko do eksperymentowania z serwerami MCP i integracjami Azure AI Foundry. Deweloperzy mogą szybko prototypować, testować i oceniać modele AI oraz przepływy pracy agentów, korzystając z zasobów z katalogu i laboratoriów Azure AI Foundry. Playground upraszcza konfigurację, dostarcza przykładowe projekty i wspiera współpracę zespołową, ułatwiając eksplorację najlepszych praktyk i nowych scenariuszy przy minimalnym nakładzie pracy. Jest szczególnie przydatny dla zespołów, które chcą weryfikować pomysły, dzielić się eksperymentami i przyspieszać naukę bez potrzeby skomplikowanej infrastruktury. Obniżając barierę wejścia, playground wspiera innowacje i wkład społeczności w ekosystem MCP i Azure AI Foundry.
Referencje:
Serwer MCP Microsoft Learn Docs to usługa hostowana w chmurze, która zapewnia asystentom AI dostęp w czasie rzeczywistym do oficjalnej dokumentacji Microsoftu za pomocą Model Context Protocol. Ten gotowy do produkcji serwer łączy się z kompleksowym ekosystemem Microsoft Learn i umożliwia semantyczne wyszukiwanie we wszystkich oficjalnych źródłach Microsoftu.
🎯 Narzędzie gotowe do produkcji
To prawdziwy serwer MCP, którego możesz używać już dziś! Dowiedz się więcej o serwerze MCP w dokumentacji Microsoft Learn w naszym Przewodniku po serwerach MCP Microsoft. Kluczowe funkcje:
- Dostęp w czasie rzeczywistym do oficjalnej dokumentacji Microsoft, dokumentacji Azure i Microsoft 365
- Zaawansowane możliwości semantycznego wyszukiwania, które rozumieją kontekst i intencje
- Zawsze aktualne informacje dzięki publikacji treści Microsoft Learn
- Kompleksowe pokrycie dokumentacji Microsoft Learn, Azure i Microsoft 365
- Zwraca do 10 wysokiej jakości fragmentów treści z tytułami artykułów i adresami URL
Dlaczego to ważne:
- Rozwiązuje problem „nieaktualnej wiedzy AI” w zakresie technologii Microsoft
- Zapewnia, że asystenci AI mają dostęp do najnowszych funkcji .NET, C#, Azure i Microsoft 365
- Dostarcza autorytatywnych, pierwszorzędnych informacji dla precyzyjnego generowania kodu
- Niezbędne dla programistów pracujących z szybko rozwijającymi się technologiami Microsoft
Rezultaty:
- Znacząco poprawiona dokładność kodu generowanego przez AI dla technologii Microsoft
- Skrócony czas poszukiwania aktualnej dokumentacji i najlepszych praktyk
- Zwiększona produktywność programistów dzięki kontekstowemu dostępowi do dokumentacji
- Bezproblemowa integracja z przepływami pracy programistycznej bez opuszczania IDE
Referencje:
Cel: Stwórz serwer MCP, który może kierować żądania do różnych dostawców modeli AI na podstawie określonych kryteriów.
Wymagania:
- Obsługa co najmniej trzech różnych dostawców modeli (np. OpenAI, Anthropic, modele lokalne)
- Implementacja mechanizmu routingu na podstawie metadanych żądania
- Stworzenie systemu konfiguracji do zarządzania poświadczeniami dostawców
- Dodanie mechanizmów buforowania w celu optymalizacji wydajności i kosztów
- Zbudowanie prostego panelu do monitorowania użycia
Kroki implementacji:
- Skonfiguruj podstawową infrastrukturę serwera MCP
- Zaimplementuj adaptery dostawców dla każdej usługi modelu AI
- Stwórz logikę routingu na podstawie atrybutów żądania
- Dodaj mechanizmy buforowania dla częstych żądań
- Opracuj panel monitorowania
- Przetestuj różne wzorce żądań
Technologie: Wybierz spośród Python (.NET/Java/Python w zależności od preferencji), Redis do buforowania oraz prosty framework webowy do panelu.
Cel: Opracuj system oparty na MCP do zarządzania, wersjonowania i wdrażania szablonów promptów w organizacji.
Wymagania:
- Stwórz centralne repozytorium dla szablonów promptów
- Zaimplementuj wersjonowanie i przepływy zatwierdzania
- Zbuduj funkcje testowania szablonów z przykładowymi danymi wejściowymi
- Opracuj kontrolę dostępu opartą na rolach
- Stwórz API do pobierania i wdrażania szablonów
Kroki implementacji:
- Zaprojektuj schemat bazy danych do przechowywania szablonów
- Stwórz podstawowe API do operacji CRUD na szablonach
- Zaimplementuj system wersjonowania
- Zbuduj przepływ zatwierdzania
- Opracuj framework testowy
- Stwórz prosty interfejs webowy do zarządzania
- Zintegruj z serwerem MCP
Technologie: Dowolny wybrany framework backendowy, baza danych SQL lub NoSQL oraz framework frontendowy do interfejsu zarządzania.
Cel: Zbuduj platformę generowania treści, która wykorzystuje MCP do zapewnienia spójnych wyników dla różnych typów treści.
Wymagania:
- Obsługa wielu formatów treści (posty na blogu, media społecznościowe, teksty marketingowe)
- Implementacja generowania opartego na szablonach z opcjami personalizacji
- Stworzenie systemu przeglądu i opinii na temat treści
- Śledzenie metryk wydajności treści
- Obsługa wersjonowania i iteracji treści
Kroki implementacji:
- Skonfiguruj infrastrukturę klienta MCP
- Stwórz szablony dla różnych typów treści
- Zbuduj pipeline generowania treści
- Zaimplementuj system przeglądu
- Opracuj system śledzenia metryk
- Stwórz interfejs użytkownika do zarządzania szablonami i generowania treści
Technologie: Wybrany język programowania, framework webowy i system baz danych.
-
Multi-modalny MCP
- Rozszerzenie MCP w celu standaryzacji interakcji z modelami obrazów, dźwięków i wideo
- Rozwój zdolności do rozumowania między modalnościami
- Standaryzowane formaty promptów dla różnych modalności
-
Federacyjna infrastruktura MCP
- Rozproszone sieci MCP, które mogą dzielić zasoby między organizacjami
- Standaryzowane protokoły do bezpiecznego udostępniania modeli
- Techniki obliczeń zachowujące prywatność
-
Rynki MCP
- Ekosystemy do udostępniania i monetyzacji szablonów MCP i wtyczek
- Procesy zapewnienia jakości i certyfikacji
- Integracja z rynkami modeli
-
MCP dla obliczeń brzegowych
- Adaptacja standardów MCP dla urządzeń brzegowych o ograniczonych zasobach
- Optymalizowane protokoły dla środowisk o niskiej przepustowości
- Specjalistyczne implementacje MCP dla ekosystemów IoT
-
Ramowe regulacje
- Rozwój rozszerzeń MCP dla zgodności regulacyjnej
- Standaryzowane ścieżki audytu i interfejsy wyjaśnialności
- Integracja z powstającymi ramami zarządzania AI
Microsoft i Azure opracowały kilka repozytoriów open-source, które pomagają programistom wdrażać MCP w różnych scenariuszach:
- playwright-mcp - Serwer MCP Playwright do automatyzacji przeglądarek i testowania
- files-mcp-server - Implementacja serwera MCP OneDrive do lokalnych testów i wkładu społeczności
- NLWeb - NLWeb to zbiór otwartych protokołów i narzędzi open source, koncentrujący się na ustanowieniu warstwy podstawowej dla AI Web
- mcp - Linki do przykładów, narzędzi i zasobów do budowy i integracji serwerów MCP na Azure w różnych językach
- mcp-auth-servers - Referencyjne serwery MCP demonstrujące uwierzytelnianie zgodnie z aktualną specyfikacją Model Context Protocol
- remote-mcp-functions - Strona startowa dla implementacji zdalnych serwerów MCP w Azure Functions z linkami do repozytoriów specyficznych dla języków
- remote-mcp-functions-python - Szablon szybkiego startu do budowy i wdrażania niestandardowych zdalnych serwerów MCP za pomocą Azure Functions z Pythonem
- remote-mcp-functions-dotnet - Szablon szybkiego startu do budowy i wdrażania niestandardowych zdalnych serwerów MCP za pomocą Azure Functions z .NET/C#
- remote-mcp-functions-typescript - Szablon szybkiego startu do budowy i wdrażania niestandardowych zdalnych serwerów MCP za pomocą Azure Functions z TypeScript
- remote-mcp-apim-functions-python - Azure API Management jako AI Gateway do zdalnych serwerów MCP z użyciem Pythona
- AI-Gateway - Eksperymenty APIM ❤️ AI, w tym funkcje MCP, integracja z Azure OpenAI i AI Foundry
Te repozytoria oferują różne implementacje, szablony i zasoby do pracy z Model Context Protocol w różnych językach programowania i usługach Azure. Obejmują szeroki zakres zastosowań, od podstawowych implementacji serwerów po uwierzytelnianie, wdrażanie w chmurze i scenariusze integracji dla przedsiębiorstw.
Katalog zasobów MCP w oficjalnym repozytorium Microsoft MCP oferuje starannie dobraną kolekcję przykładowych zasobów, szablonów promptów i definicji narzędzi do użycia z serwerami Model Context Protocol. Ten katalog ma na celu szybkie rozpoczęcie pracy z MCP, oferując gotowe do użycia elementy i przykłady najlepszych praktyk:
- Szablony promptów: Gotowe szablony promptów dla typowych zadań AI i scenariuszy, które można dostosować do własnych implementacji serwerów MCP.
- Definicje narzędzi: Przykładowe schematy narzędzi i metadane do standaryzacji integracji i wywoływania narzędzi w różnych serwerach MCP.
- Przykłady zasobów: Przykładowe definicje zasobów do łączenia się z źródłami danych, API i usługami zewnętrznymi w ramach MCP.
- Implementacje referencyjne: Praktyczne przykłady pokazujące, jak strukturyzować i organizować zasoby, prompty i narzędzia w rzeczywistych projektach MCP.
Te zasoby przyspieszają rozwój, promują standaryzację i pomagają zapewnić najlepsze praktyki podczas budowy i wdrażania rozwiązań opartych na MCP.
- Efektywne techniki optymalizacji promptów w ramach MCP
- Modele bezpieczeństwa dla wdrożeń MCP w środowiskach wielodostępnych
- Benchmarking wydajności różnych implementacji MCP
- Metody formalnej weryfikacji serwerów MCP
Model Context Protocol (MCP) szybko kształtuje przyszłość standaryzowanej, bezpiecznej i interoperacyjnej integracji AI w różnych branżach. Dzięki studiom przypadków i projektom praktycznym w tej lekcji zobaczyłeś, jak wczesni użytkownicy — w tym Microsoft i Azure — wykorzystują MCP do rozwiązywania rzeczywistych wyzwań, przyspieszania adopcji AI oraz zapewnienia zgodności, bezpieczeństwa i skalowalności. Modularne podejście MCP umożliwia organizacjom łączenie dużych modeli językowych, narzędzi i danych przedsiębiorstwa w jednolitym, audytowalnym frameworku. W miarę jak MCP będzie się rozwijać, zaangażowanie w społeczność, eksploracja zasobów open-source i stosowanie najlepszych praktyk będą kluczowe dla budowy solidnych, przyszłościowych rozwiązań AI.
- MCP Foundry GitHub Repository
- Foundry MCP Playground
- Integrating Azure AI Agents with MCP (Microsoft Foundry Blog)
- MCP GitHub Repository (Microsoft)
- MCP Resources Directory (Sample Prompts, Tools, and Resource Definitions)
- MCP Community & Documentation
- Azure MCP Documentation
- Playwright MCP Server GitHub Repository
- Files MCP Server (OneDrive)
- Azure-Samples MCP
- MCP Auth Servers (Azure-Samples)
- Remote MCP Functions (Azure-Samples)
- Remote MCP Functions Python (Azure-Samples)
- Remote MCP Functions .NET (Azure-Samples)
- Remote MCP Functions TypeScript (Azure-Samples)
- Remote MCP APIM Functions Python (Azure-Samples)
- AI-Gateway (Azure-Samples)
- Microsoft AI and Automation Solutions
- Przeanalizuj jedno ze studiów przypadków i zaproponuj alternatywne podejście do implementacji.
- Wybierz jeden z pomysłów na projekt i stwórz szczegółową specyfikację techniczną.
- Zbadaj branżę, która nie została uwzględniona w studiach przypadków, i zaproponuj, jak MCP może rozwiązać jej specyficzne wyzwania.
- Zbadaj jeden z przyszłych kierunków i opracuj koncepcję nowego rozszerzenia MCP, które go wspiera.
Next: Microsoft MCP Server
Zastrzeżenie:
Ten dokument został przetłumaczony za pomocą usługi tłumaczenia AI Co-op Translator. Chociaż dokładamy wszelkich starań, aby zapewnić poprawność tłumaczenia, prosimy pamiętać, że automatyczne tłumaczenia mogą zawierać błędy lub nieścisłości. Oryginalny dokument w jego rodzimym języku powinien być uznawany za wiarygodne źródło. W przypadku informacji o kluczowym znaczeniu zaleca się skorzystanie z profesjonalnego tłumaczenia przez człowieka. Nie ponosimy odpowiedzialności za jakiekolwiek nieporozumienia lub błędne interpretacje wynikające z użycia tego tłumaczenia.
