این پروژه یک برنامه وب را نشان میدهد که قبل از ارسال درخواستهای کاربر به سرویس ماشینحساب از طریق Model Context Protocol (MCP)، بررسی ایمنی محتوا را انجام میدهد.
- ورودی کاربر: کاربر یک درخواست محاسباتی را در رابط وب وارد میکند
- بررسی ایمنی محتوا (ورودی): درخواست توسط Azure Content Safety API تحلیل میشود
- تصمیمگیری ایمنی (ورودی):
- اگر محتوا ایمن باشد (شدت < ۲ در همه دستهها)، به ماشینحساب ارسال میشود
- اگر محتوا به عنوان بالقوه مضر علامتگذاری شود، فرایند متوقف شده و هشدار بازگردانده میشود
- ادغام با ماشینحساب: محتوای ایمن توسط LangChain4j پردازش شده و با سرور ماشینحساب MCP ارتباط برقرار میکند
- بررسی ایمنی محتوا (خروجی): پاسخ ربات توسط Azure Content Safety API تحلیل میشود
- تصمیمگیری ایمنی (خروجی):
- اگر پاسخ ربات ایمن باشد، به کاربر نمایش داده میشود
- اگر پاسخ ربات به عنوان بالقوه مضر علامتگذاری شود، با هشدار جایگزین میشود
- پاسخ: نتایج (در صورت ایمن بودن) همراه با هر دو تحلیل ایمنی به کاربر نمایش داده میشود
این پروژه نحوه استفاده از Model Context Protocol (MCP) برای فراخوانی سرویسهای ماشینحساب MCP از طریق LangChain4j را نشان میدهد. پیادهسازی از یک سرور MCP محلی که روی پورت ۸۰۸۰ اجرا میشود برای ارائه عملیات ماشینحساب استفاده میکند.
قبل از استفاده از ویژگیهای ایمنی محتوا، باید یک منبع سرویس Azure Content Safety ایجاد کنید:
- وارد Azure Portal شوید
- روی "Create a resource" کلیک کرده و "Content Safety" را جستجو کنید
- "Content Safety" را انتخاب کرده و روی "Create" کلیک کنید
- یک نام یکتا برای منبع خود وارد کنید
- اشتراک و گروه منابع خود را انتخاب کنید (یا یک گروه جدید بسازید)
- یک منطقه پشتیبانی شده را انتخاب کنید (برای جزئیات به Region availability مراجعه کنید)
- یک سطح قیمتگذاری مناسب انتخاب کنید
- روی "Create" کلیک کنید تا منبع مستقر شود
- پس از اتمام استقرار، روی "Go to resource" کلیک کنید
- در پنل سمت چپ، زیر "Resource Management"، گزینه "Keys and Endpoint" را انتخاب کنید
- یکی از کلیدها و آدرس endpoint را برای استفاده در مرحله بعد کپی کنید
متغیر محیطی GITHUB_TOKEN را برای احراز هویت مدلهای GitHub تنظیم کنید:
export GITHUB_TOKEN=<your_github_token>برای ویژگیهای ایمنی محتوا، موارد زیر را تنظیم کنید:
export CONTENT_SAFETY_ENDPOINT=<your_content_safety_endpoint>
export CONTENT_SAFETY_KEY=<your_content_safety_key>این متغیرهای محیطی توسط برنامه برای احراز هویت با سرویس Azure Content Safety استفاده میشوند. اگر این متغیرها تنظیم نشوند، برنامه از مقادیر جایگزین برای اهداف نمایشی استفاده میکند، اما ویژگیهای ایمنی محتوا به درستی کار نخواهند کرد.
قبل از اجرای کلاینت، باید سرور ماشینحساب MCP را در حالت SSE روی localhost:8080 راهاندازی کنید.
این پروژه ادغام Model Context Protocol (MCP) با LangChain4j برای فراخوانی سرویسهای ماشینحساب را نشان میدهد. ویژگیهای کلیدی شامل:
- استفاده از MCP برای اتصال به سرویس ماشینحساب جهت عملیات ریاضی پایه
- بررسی ایمنی محتوا در دو لایه، هم روی درخواستهای کاربر و هم پاسخهای ربات
- ادغام با مدل gpt-4.1-nano گیتهاب از طریق LangChain4j
- استفاده از Server-Sent Events (SSE) برای انتقال MCP
این پروژه شامل ویژگیهای جامع ایمنی محتوا است تا اطمینان حاصل شود که هم ورودیهای کاربر و هم پاسخهای سیستم عاری از محتوای مضر هستند:
- بررسی ورودی: همه درخواستهای کاربر برای دستههای محتوای مضر مانند سخنان نفرتانگیز، خشونت، خودآسیبی و محتوای جنسی قبل از پردازش تحلیل میشوند.
- بررسی خروجی: حتی هنگام استفاده از مدلهای احتمالا بدون فیلتر، سیستم همه پاسخهای تولید شده را از طریق همان فیلترهای ایمنی محتوا قبل از نمایش به کاربر بررسی میکند.
این رویکرد دو لایه تضمین میکند که سیستم در هر شرایطی ایمن باقی بماند و کاربران را از ورودیهای مضر و خروجیهای احتمالا مشکلساز تولید شده توسط هوش مصنوعی محافظت کند.
برنامه شامل یک رابط وب کاربرپسند است که به کاربران امکان تعامل با سیستم Content Safety Calculator را میدهد:
- فرم ساده و شهودی برای وارد کردن درخواستهای محاسباتی
- اعتبارسنجی ایمنی محتوا در دو لایه (ورودی و خروجی)
- بازخورد لحظهای درباره ایمنی درخواست و پاسخ
- نشانگرهای رنگی ایمنی برای تفسیر آسان
- طراحی تمیز و واکنشگرا که روی دستگاههای مختلف به خوبی کار میکند
- نمونه درخواستهای ایمن برای راهنمایی کاربران
-
برنامه را اجرا کنید:
mvn spring-boot:run
-
مرورگر خود را باز کرده و به
http://localhost:8087بروید -
یک درخواست محاسباتی در کادر متن وارد کنید (مثلاً "محاسبه مجموع ۲۴.۵ و ۱۷.۳")
-
روی "Submit" کلیک کنید تا درخواست شما پردازش شود
-
نتایج را مشاهده کنید که شامل موارد زیر است:
- تحلیل ایمنی محتوای درخواست شما
- نتیجه محاسبه (اگر درخواست ایمن بود)
- تحلیل ایمنی محتوای پاسخ ربات
- هر گونه هشدار ایمنی در صورت علامتگذاری ورودی یا خروجی
کلاینت وب به طور خودکار هر دو فرایند بررسی ایمنی محتوا را مدیریت میکند و اطمینان میدهد که همه تعاملات ایمن و مناسب باشند، صرفنظر از اینکه کدام مدل هوش مصنوعی استفاده میشود.
سلب مسئولیت:
این سند با استفاده از سرویس ترجمه هوش مصنوعی Co-op Translator ترجمه شده است. در حالی که ما در تلاش برای دقت هستیم، لطفاً توجه داشته باشید که ترجمههای خودکار ممکن است حاوی خطاها یا نواقصی باشند. سند اصلی به زبان بومی خود باید به عنوان منبع معتبر در نظر گرفته شود. برای اطلاعات حیاتی، ترجمه حرفهای انسانی توصیه میشود. ما مسئول هیچ گونه سوءتفاهم یا تفسیر نادرستی که از استفاده از این ترجمه ناشی شود، نیستیم.
