Este projeto demonstra uma aplicação web que utiliza verificação de segurança de conteúdo antes de enviar os prompts dos utilizadores para um serviço de calculadora via Model Context Protocol (MCP).
- Entrada do Utilizador: O utilizador insere um prompt de cálculo na interface web
- Triagem de Segurança de Conteúdo (Entrada): O prompt é analisado pela Azure Content Safety API
- Decisão de Segurança (Entrada):
- Se o conteúdo for seguro (gravidade < 2 em todas as categorias), prossegue para a calculadora
- Se o conteúdo for sinalizado como potencialmente prejudicial, o processo é interrompido e é devolvido um aviso
- Integração com a Calculadora: O conteúdo seguro é processado pelo LangChain4j, que comunica com o servidor da calculadora MCP
- Triagem de Segurança de Conteúdo (Saída): A resposta do bot é analisada pela Azure Content Safety API
- Decisão de Segurança (Saída):
- Se a resposta do bot for segura, é mostrada ao utilizador
- Se a resposta do bot for sinalizada como potencialmente prejudicial, é substituída por um aviso
- Resposta: Os resultados (se seguros) são apresentados ao utilizador juntamente com ambas as análises de segurança
Este projeto demonstra como usar o Model Context Protocol (MCP) para chamar serviços de calculadora MCP a partir do LangChain4j. A implementação utiliza um servidor MCP local a correr na porta 8080 para fornecer operações de calculadora.
Antes de usar as funcionalidades de segurança de conteúdo, é necessário criar um recurso do serviço Azure Content Safety:
- Inicie sessão no Azure Portal
- Clique em "Create a resource" e pesquise por "Content Safety"
- Selecione "Content Safety" e clique em "Create"
- Insira um nome único para o seu recurso
- Selecione a sua subscrição e grupo de recursos (ou crie um novo)
- Escolha uma região suportada (verifique Disponibilidade por Região para detalhes)
- Selecione um nível de preços adequado
- Clique em "Create" para implementar o recurso
- Após a implementação, clique em "Go to resource"
- No painel esquerdo, em "Resource Management", selecione "Keys and Endpoint"
- Copie uma das chaves e a URL do endpoint para usar no passo seguinte
Defina a variável de ambiente GITHUB_TOKEN para autenticação dos modelos GitHub:
export GITHUB_TOKEN=<your_github_token>Para as funcionalidades de segurança de conteúdo, defina:
export CONTENT_SAFETY_ENDPOINT=<your_content_safety_endpoint>
export CONTENT_SAFETY_KEY=<your_content_safety_key>Estas variáveis de ambiente são usadas pela aplicação para autenticar-se no serviço Azure Content Safety. Se estas variáveis não estiverem definidas, a aplicação usará valores de substituição para fins de demonstração, mas as funcionalidades de segurança de conteúdo não funcionarão corretamente.
Antes de executar o cliente, é necessário iniciar o servidor MCP da calculadora em modo SSE no localhost:8080.
Este projeto demonstra a integração do Model Context Protocol (MCP) com LangChain4j para chamar serviços de calculadora. As principais funcionalidades incluem:
- Utilização do MCP para ligar a um serviço de calculadora para operações matemáticas básicas
- Verificação de segurança de conteúdo em duas camadas, tanto nos prompts do utilizador como nas respostas do bot
- Integração com o modelo gpt-4.1-nano do GitHub via LangChain4j
- Utilização de Server-Sent Events (SSE) para transporte MCP
O projeto inclui funcionalidades abrangentes de segurança de conteúdo para garantir que tanto as entradas dos utilizadores como as respostas do sistema estão livres de conteúdo prejudicial:
-
Triagem de Entrada: Todos os prompts dos utilizadores são analisados para categorias de conteúdo prejudicial, como discurso de ódio, violência, auto-mutilação e conteúdo sexual antes do processamento.
-
Triagem de Saída: Mesmo quando se utilizam modelos potencialmente sem censura, o sistema verifica todas as respostas geradas através dos mesmos filtros de segurança de conteúdo antes de as mostrar ao utilizador.
Esta abordagem em duas camadas assegura que o sistema permanece seguro independentemente do modelo de IA utilizado, protegendo os utilizadores tanto de entradas prejudiciais como de respostas geradas pela IA que possam ser problemáticas.
A aplicação inclui uma interface web fácil de usar que permite aos utilizadores interagir com o sistema Content Safety Calculator:
- Formulário simples e intuitivo para inserir prompts de cálculo
- Validação de segurança de conteúdo em duas camadas (entrada e saída)
- Feedback em tempo real sobre a segurança do prompt e da resposta
- Indicadores de segurança codificados por cores para fácil interpretação
- Design limpo e responsivo que funciona em vários dispositivos
- Exemplos de prompts seguros para orientar os utilizadores
-
Inicie a aplicação:
mvn spring-boot:run
-
Abra o seu navegador e aceda a
http://localhost:8087 -
Insira um prompt de cálculo na área de texto fornecida (ex.: "Calculate the sum of 24.5 and 17.3")
-
Clique em "Submit" para processar o seu pedido
-
Veja os resultados, que incluirão:
- Análise de segurança de conteúdo do seu prompt
- O resultado calculado (se o prompt for seguro)
- Análise de segurança de conteúdo da resposta do bot
- Quaisquer avisos de segurança caso a entrada ou saída tenham sido sinalizadas
O cliente web trata automaticamente de ambos os processos de verificação de segurança de conteúdo, garantindo que todas as interações são seguras e apropriadas independentemente do modelo de IA utilizado.
Aviso Legal:
Este documento foi traduzido utilizando o serviço de tradução automática Co-op Translator. Embora nos esforcemos pela precisão, por favor tenha em conta que traduções automáticas podem conter erros ou imprecisões. O documento original na sua língua nativa deve ser considerado a fonte autorizada. Para informações críticas, recomenda-se tradução profissional humana. Não nos responsabilizamos por quaisquer mal-entendidos ou interpretações erradas decorrentes da utilização desta tradução.
