এই পাঠে আলোচনা করা হবে:
- AI সিস্টেমের প্রেক্ষাপটে নিরাপত্তা।
- AI সিস্টেমের সাধারণ ঝুঁকি এবং হুমকি।
- AI সিস্টেমের নিরাপত্তা নিশ্চিত করার পদ্ধতি এবং বিবেচনা।
এই পাঠ সম্পন্ন করার পর, আপনি বুঝতে পারবেন:
- AI সিস্টেমের ঝুঁকি এবং হুমকি।
- AI সিস্টেম সুরক্ষার সাধারণ পদ্ধতি এবং প্রথা।
- কিভাবে নিরাপত্তা পরীক্ষার বাস্তবায়ন অপ্রত্যাশিত ফলাফল এবং ব্যবহারকারীর বিশ্বাসের ক্ষয় প্রতিরোধ করতে পারে।
যেহেতু কৃত্রিম বুদ্ধিমত্তা (AI) এবং মেশিন লার্নিং (ML) প্রযুক্তিগুলি আমাদের জীবনকে ক্রমবর্ধমানভাবে আকৃতি দিচ্ছে, এটি শুধু গ্রাহকের তথ্য নয়, AI সিস্টেমগুলিকে নিজেও রক্ষা করা গুরুত্বপূর্ণ। AI/ML ক্রমবর্ধমানভাবে এমন শিল্পে উচ্চ-মূল্যের সিদ্ধান্ত গ্রহণের প্রক্রিয়াকে সমর্থন করতে ব্যবহৃত হচ্ছে যেখানে ভুল সিদ্ধান্ত গুরুতর পরিণতি হতে পারে।
এখানে বিবেচনার জন্য মূল পয়েন্টগুলি রয়েছে:
- AI/ML এর প্রভাব: AI/ML এর দৈনন্দিন জীবনে উল্লেখযোগ্য প্রভাব রয়েছে এবং তাই এগুলিকে সুরক্ষিত করা অপরিহার্য হয়ে উঠেছে।
- নিরাপত্তা চ্যালেঞ্জ: AI/ML এর এই প্রভাবের জন্য AI-ভিত্তিক পণ্যগুলিকে ট্রল বা সংগঠিত গোষ্ঠীর দ্বারা জটিল আক্রমণ থেকে রক্ষা করার প্রয়োজনীয়তা ঠিকমতো মনোযোগ দেওয়া প্রয়োজন।
- কৌশলগত সমস্যা: প্রযুক্তি শিল্পকে দীর্ঘমেয়াদী গ্রাহকের নিরাপত্তা এবং তথ্য সুরক্ষা নিশ্চিত করতে কৌশলগত চ্যালেঞ্জগুলি সক্রিয়ভাবে মোকাবেলা করতে হবে।
অতিরিক্তভাবে, মেশিন লার্নিং মডেলগুলি ক্ষতিকর ইনপুট এবং নির্দোষ অস্বাভাবিক ডেটার মধ্যে পার্থক্য করতে ব্যাপকভাবে অক্ষম। প্রশিক্ষণের ডেটার একটি উল্লেখযোগ্য উৎস অসংযত, অনিয়ন্ত্রিত, জনসাধারণের ডেটাসেট থেকে উদ্ভূত হয়, যা তৃতীয় পক্ষের অবদানগুলির জন্য উন্মুক্ত। আক্রমণকারীদের ডেটাসেটগুলিকে বিপর্যস্ত করার প্রয়োজন নেই যখন তারা এতে অবদান রাখতে স্বাধীন। সময়ের সাথে সাথে, নিম্ন-আস্থা ক্ষতিকর ডেটা উচ্চ-আস্থা বিশ্বস্ত ডেটায় পরিণত হয়, যদি ডেটা কাঠামো/ফর্ম্যাটিং সঠিক থাকে।
এ কারণেই আপনার মডেলগুলি সিদ্ধান্ত নিতে যে ডেটা স্টোরগুলি ব্যবহার করে সেগুলির অখণ্ডতা এবং সুরক্ষা নিশ্চিত করা গুরুত্বপূর্ণ।
AI এবং সম্পর্কিত সিস্টেমের ক্ষেত্রে, ডেটা বিষক্রিয়া আজ সবচেয়ে উল্লেখযোগ্য নিরাপত্তা হুমকি হিসাবে দাঁড়িয়েছে। ডেটা বিষক্রিয়া হল যখন কেউ ইচ্ছাকৃতভাবে AI প্রশিক্ষণের জন্য ব্যবহৃত তথ্য পরিবর্তন করে, যার ফলে এটি ভুল করে। এটি মানক সনাক্তকরণ এবং প্রশমন পদ্ধতির অভাবের কারণে, প্রশিক্ষণের জন্য অবিশ্বস্ত বা অসংযত জনসাধারণের ডেটাসেটের উপর আমাদের নির্ভরতার সাথে মিলিত। ডেটার অখণ্ডতা বজায় রাখতে এবং ত্রুটিপূর্ণ প্রশিক্ষণ প্রক্রিয়া রোধ করতে, আপনার ডেটার উত্স এবং বংশধর ট্র্যাক করা অত্যন্ত গুরুত্বপূর্ণ। অন্যথায়, পুরানো প্রবাদ "আবর্জনা ঢুকলে, আবর্জনা বের হয়" সত্য হয়, যার ফলে মডেলের কর্মক্ষমতা ক্ষতিগ্রস্ত হয়।
এখানে ডেটা বিষক্রিয়া আপনার মডেলগুলিকে কীভাবে প্রভাবিত করতে পারে তার উদাহরণ রয়েছে:
- লেবেল উল্টানো: একটি বাইনারি শ্রেণীবিন্যাস কাজের ক্ষেত্রে, একজন প্রতিপক্ষ প্রশিক্ষণের ডেটার একটি ছোট উপসেটের লেবেলগুলি ইচ্ছাকৃতভাবে উল্টায়। উদাহরণস্বরূপ, নির্দোষ নমুনাগুলি ক্ষতিকর হিসাবে লেবেলযুক্ত হয়, মডেলকে ভুল সংযোগ শিখতে বাধ্য করে।
উদাহরণ: একটি স্প্যাম ফিল্টার বৈধ ইমেলগুলিকে স্প্যাম হিসাবে ভুলভাবে শ্রেণীবদ্ধ করে, ম্যানিপুলেটেড লেবেলের কারণে। - ফিচার বিষক্রিয়া: একজন আক্রমণকারী প্রশিক্ষণের ডেটায় বৈশিষ্ট্যগুলি সূক্ষ্মভাবে পরিবর্তন করে পক্ষপাতিত্ব বা মডেলকে বিভ্রান্ত করতে।
উদাহরণ: সুপারিশ সিস্টেমগুলিকে ম্যানিপুলেট করতে পণ্যের বিবরণে অপ্রাসঙ্গিক কীওয়ার্ড যোগ করা। - ডেটা ইনজেকশন: মডেলের আচরণকে প্রভাবিত করতে প্রশিক্ষণের সেটে ক্ষতিকর ডেটা ইনজেকশন করা।
উদাহরণ: ভুয়া ব্যবহারকারীর পর্যালোচনা পরিচয় করানো, অনুভূতির বিশ্লেষণের ফলাফলকে প্রভাবিত করতে। - ব্যাকডোর আক্রমণ: একজন প্রতিপক্ষ প্রশিক্ষণের ডেটায় একটি লুকানো প্যাটার্ন (ব্যাকডোর) ঢোকায়। মডেলটি এই প্যাটার্নটি চিনতে শিখে এবং ট্রিগার হলে ক্ষতিকরভাবে আচরণ করে।
উদাহরণ: একটি মুখ স্বীকৃতি সিস্টেম ব্যাকডোরযুক্ত চিত্রগুলির সাথে প্রশিক্ষিত যা একটি নির্দিষ্ট ব্যক্তিকে ভুলভাবে শনাক্ত করে।
MITRE Corporation তৈরি করেছে ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems), একটি জ্ঞানভিত্তি যা AI সিস্টেমগুলিতে বাস্তব-জগতের আক্রমণে প্রতিপক্ষ দ্বারা ব্যবহৃত কৌশল এবং কৌশলগুলি নিয়ে।
AI-সক্ষম সিস্টেমগুলিতে ক্রমবর্ধমান সংখ্যক দুর্বলতা রয়েছে, যেহেতু AI এর অন্তর্ভুক্তি বিদ্যমান সিস্টেমগুলির আক্রমণ পৃষ্ঠকে ঐতিহ্যগত সাইবার আক্রমণের বাইরে বাড়ায়। আমরা এই অনন্য এবং ক্রমবর্ধমান দুর্বলতা সম্পর্কে সচেতনতা বাড়াতে ATLAS তৈরি করেছি, যেহেতু বিশ্ব সম্প্রদায় ক্রমবর্ধমানভাবে বিভিন্ন সিস্টেমে AI অন্তর্ভুক্ত করছে। ATLAS MITRE ATT&CK® ফ্রেমওয়ার্কের মডেল করা হয়েছে এবং এর কৌশল, কৌশল এবং পদ্ধতি (TTPs) ATT&CK-এ থাকাগুলির পরিপূরক।
MITRE ATT&CK® ফ্রেমওয়ার্কের মতোই, যা ঐতিহ্যবাহী সাইবার নিরাপত্তায় উন্নত হুমকি অনুকরণ দৃশ্যের পরিকল্পনার জন্য ব্যাপকভাবে ব্যবহৃত হয়, ATLAS একটি সহজে অনুসন্ধানযোগ্য সেট TTPs প্রদান করে যা উদীয়মান আক্রমণগুলির বিরুদ্ধে প্রতিরক্ষা করার জন্য আরও ভালভাবে বুঝতে এবং প্রস্তুত করতে সহায়তা করতে পারে।
অতিরিক্তভাবে, ওপেন ওয়েব অ্যাপ্লিকেশন সিকিউরিটি প্রজেক্ট (OWASP) একটি "শীর্ষ 10 তালিকা" তৈরি করেছে যা LLM ব্যবহারকারী অ্যাপ্লিকেশনগুলিতে পাওয়া সবচেয়ে গুরুতর দুর্বলতাগুলিকে হাইলাইট করে। তালিকাটি ডেটা বিষক্রিয়া সহ অন্যান্য হুমকির ঝুঁকিগুলিকে হাইলাইট করে যেমন:
- প্রম্পট ইনজেকশন: একটি কৌশল যেখানে আক্রমণকারীরা একটি বড় ভাষার মডেল (LLM) কে যত্ন সহকারে তৈরি করা ইনপুটের মাধ্যমে ম্যানিপুলেট করে, যার ফলে এটি তার উদ্দেশ্যযুক্ত আচরণের বাইরে চলে যায়।
- সরবরাহ শৃঙ্খলার দুর্বলতা: একটি LLM দ্বারা ব্যবহৃত অ্যাপ্লিকেশনগুলি তৈরি করে এমন উপাদান এবং সফ্টওয়্যার, যেমন পাইথন মডিউল বা বাহ্যিক ডেটাসেট, আপস করা যেতে পারে যার ফলে অপ্রত্যাশিত ফলাফল, প্রবর্তিত পক্ষপাতিত্ব এবং এমনকি অন্তর্নিহিত পরিকাঠামোর দুর্বলতা দেখা দেয়।
- অতিরিক্ত নির্ভরতা: LLMগুলি ত্রুটিযুক্ত এবং হ্যালুসিনেট করার প্রবণতা রয়েছে, ভুল বা নিরাপদ ফলাফল প্রদান করে। বেশ কয়েকটি নথিভুক্ত পরিস্থিতিতে, লোকেরা ফলাফলগুলিকে সত্য হিসাবে গ্রহণ করেছে যার ফলে অনিচ্ছাকৃত বাস্তব-জগতের নেতিবাচক পরিণতি হয়েছে।
মাইক্রোসফট ক্লাউড অ্যাডভোকেট রড ট্রেন্ট একটি বিনামূল্যের ইবুক লিখেছেন, Must Learn AI Security, যা এই উদীয়মান AI হুমকি এবং অন্যান্যগুলির গভীরে যায় এবং এই পরিস্থিতি মোকাবেলা করার জন্য বিস্তৃত নির্দেশিকা প্রদান করে।
কৃত্রিম বুদ্ধিমত্তা (AI) বিভিন্ন ডোমেইন এবং শিল্পকে রূপান্তরিত করছে, সমাজের জন্য নতুন সম্ভাবনা এবং সুবিধা প্রদান করছে। তবে, AI উল্লেখযোগ্য চ্যালেঞ্জ এবং ঝুঁকি তৈরি করে, যেমন ডেটা গোপনীয়তা, পক্ষপাত, ব্যাখ্যার অভাব এবং সম্ভাব্য অপব্যবহার। অতএব, AI সিস্টেমগুলি নিরাপদ এবং দায়িত্বশীল তা নিশ্চিত করা অত্যন্ত গুরুত্বপূর্ণ, যার অর্থ হল তারা নৈতিক এবং আইনি মানদণ্ড মেনে চলে এবং ব্যবহারকারী এবং স্টেকহোল্ডারদের দ্বারা বিশ্বাসযোগ্য হতে পারে।
নিরাপত্তা পরীক্ষা হল AI সিস্টেম বা LLM এর নিরাপত্তা মূল্যায়নের প্রক্রিয়া, তাদের দুর্বলতাগুলি সনাক্ত এবং কাজে লাগানো। এটি বিকাশকারী, ব্যবহারকারী বা তৃতীয় পক্ষের অডিটর দ্বারা সম্পাদিত হতে পারে, পরীক্ষার উদ্দেশ্য এবং সুযোগের উপর নির্ভর করে। AI সিস্টেম এবং LLM এর জন্য সবচেয়ে সাধারণ নিরাপত্তা পরীক্ষার পদ্ধতি হল:
- ডেটা স্যানিটাইজেশন: এটি প্রশিক্ষণের ডেটা বা AI সিস্টেম বা LLM এর ইনপুট থেকে সংবেদনশীল বা ব্যক্তিগত তথ্য অপসারণ বা বেনামী করার প্রক্রিয়া। ডেটা স্যানিটাইজেশন গোপনীয় বা ব্যক্তিগত ডেটার প্রকাশ কমিয়ে ডেটা লিকেজ এবং ক্ষতিকর ম্যানিপুলেশন প্রতিরোধ করতে সহায়তা করতে পারে।
- প্রতিপক্ষের পরীক্ষা: এটি প্রতিপক্ষের আক্রমণের বিরুদ্ধে এর দৃঢ়তা এবং স্থিতিস্থাপকতা মূল্যায়নের জন্য AI সিস্টেম বা LLM এর ইনপুট বা আউটপুটে প্রতিপক্ষের উদাহরণ তৈরি এবং প্রয়োগ করার প্রক্রিয়া। প্রতিপক্ষের পরীক্ষা একটি AI সিস্টেম বা LLM এর দুর্বলতা এবং দুর্বলতাগুলি সনাক্ত এবং প্রশমিত করতে সহায়তা করতে পারে যা আক্রমণকারীরা কাজে লাগাতে পারে।
- মডেল যাচাইকরণ: এটি AI সিস্টেম বা LLM এর মডেল প্যারামিটার বা স্থাপত্যের সঠিকতা এবং সম্পূর্ণতা যাচাই করার প্রক্রিয়া। মডেল যাচাইকরণ মডেলটি সুরক্ষিত এবং প্রমাণীকৃত তা নিশ্চিত করে মডেল চুরির সনাক্ত এবং প্রতিরোধ করতে সহায়তা করতে পারে।
- আউটপুট যাচাইকরণ: এটি AI সিস্টেম বা LLM এর আউটপুটের গুণমান এবং নির্ভরযোগ্যতা যাচাই করার প্রক্রিয়া। আউটপুট যাচাইকরণ নিশ্চিত করে যে আউটপুটটি সামঞ্জস্যপূর্ণ এবং সঠিক তা নিশ্চিত করে ক্ষতিকর ম্যানিপুলেশন সনাক্ত এবং সংশোধন করতে সহায়তা করতে পারে।
OpenAI, AI সিস্টেমের একটি নেতা, তাদের রেড টিমিং নেটওয়ার্ক উদ্যোগের অংশ হিসাবে একটি সিরিজ নিরাপত্তা মূল্যায়ন সেটআপ করেছে, AI সিস্টেমগুলির আউটপুট পরীক্ষা করার লক্ষ্যে AI নিরাপত্তায় অবদান রাখার আশায়।
মূল্যায়নগুলি সহজ প্রশ্নোত্তর পরীক্ষাগুলি থেকে আরও জটিল সিমুলেশন পর্যন্ত হতে পারে। কংক্রিট উদাহরণ হিসাবে, এখানে OpenAI দ্বারা AI আচরণগুলি বিভিন্ন কোণ থেকে মূল্যায়ন করার জন্য বিকাশিত নমুনা মূল্যায়ন রয়েছে:
- MakeMeSay: একটি AI সিস্টেম অন্য একটি AI সিস্টেমকে একটি গোপন শব্দ বলতে কতটা ভালভাবে প্রতারণা করতে পারে?
- MakeMePay: একটি AI সিস্টেম অন্য একটি AI সিস্টেমকে অর্থ দান করতে কতটা ভালভাবে রাজি করাতে পারে?
- Ballot Proposal: একটি AI সিস্টেম একটি রাজনৈতিক প্রস্তাবের সমর্থনে অন্য একটি AI সিস্টেমকে কতটা ভালভাবে প্রভাবিত করতে পারে?
- Steganography: একটি AI সিস্টেম আরেকটি AI সিস্টেম দ্বারা ধরা না পড়ে কতটা ভালভাবে গোপন বার্তা পাস করতে পারে?
- Text Compression: একটি AI সিস্টেম বার্তাগুলি সংকুচিত এবং ডিকমপ্রেস করতে কতটা ভালভাবে সক্ষম, গোপন বার্তা লুকানোর জন্য?
- Schelling Point: একটি AI সিস্টেম সরাসরি যোগাযোগ ছাড়াই অন্য একটি AI সিস্টেমের সাথে কতটা ভালভাবে সমন্বয় করতে পারে?
এটি অত্যাবশ্যক যে আমরা AI সিস্টেমগুলিকে ক্ষতিকর আক্রমণ, অপব্যবহার বা অনিচ্ছাকৃত পরিণতি থেকে রক্ষা করার লক্ষ্য রাখি। এর মধ্যে AI সিস্টেমগুলির নিরাপত্তা, নির্ভরযোগ্যতা এবং বিশ্বাসযোগ্যতা নিশ্চিত করার জন্য পদক্ষেপ নেওয়া অন্তর্ভুক্ত, যেমন:
- AI মডেলগুলি প্রশিক্ষণ এবং চালানোর জন্য ব্যবহৃত ডেটা এবং অ্যালগরিদমগুলিকে সুরক্ষিত করা
- AI সিস্টেমগুলির অননুমোদিত অ্যাক্সেস, ম্যানিপুলেশন বা নাশকতা প্রতিরোধ করা
- AI সিস্টেমগুলিতে পক্ষপাতিত্ব, বৈষম্য বা নৈতিক সমস্যাগুলি সনাক্ত এবং প্রশমিত করা
- AI সিদ্ধান্ত এবং ক্রিয়াকলাপের দায়বদ্ধতা, স্বচ্ছতা এবং ব্যাখ্যাযোগ্যতা নিশ্চিত করা
- AI সিস্টেমগুলির লক্ষ্য এবং মানগুলি মানুষের এবং সমাজের সাথে সামঞ্জস্যপূর্ণ করা
AI নিরাপত্তা AI সিস্টেম এবং ডেটার অখণ্ডতা, প্রাপ্যতা এবং গোপনীয়তা নিশ্চিত করার জন্য গুরুত্বপূর্ণ। AI নিরাপত্তার কিছু চ্যালেঞ্জ এবং সুযোগ হল:
- সুযোগ: সাইবার নিরাপত্তা কৌশলগুলিতে AI অন্তর্ভুক্ত করা যেহেতু এটি হুমকি সনাক্তকরণ এবং প্রতিক্রিয়া সময় উন্নত করার ক্ষেত্রে গুরুত্বপূর্ণ ভূমিকা পালন করতে পারে। AI ফিশিং, ম্যালওয়্যার বা র্যানসমওয়্যার এর মতো সাইবার আক্রমণের সনাক্তকরণ এবং প্রশমনের স্বয়ংক্রিয় এবং বর্ধিত করতে সহায়তা করতে পারে।
- চ্যালেঞ্জ: AI প্রতিপক্ষ দ্বারা জটিল আক্রমণ শুরু করতে ব্যবহার করা যেতে পারে, যেমন ভুয়া বা বিভ্রান্তিকর বিষয়বস্তু তৈরি করা, ব্যবহারকারীদের ছদ্মবেশ ধারণ করা, বা AI সিস্টেমের দুর্বলতাকে কাজে লাগানো। অতএব, AI বিকাশকারীদের সিস্টেমগুলি ডিজাইন করার জন্য একটি অনন্য দায়িত্ব রয়েছে যা অপব্যবহারের বিরুদ্ধে দৃঢ় এবং স্থিতিস্থাপক।
LLMগুলি তারা যে ডেটা ব্যবহার করে তার গোপনীয়তা এবং নিরাপত্তার জন্য ঝুঁকি তৈরি করতে পারে। উদাহরণস্বরূপ, LLMগুলি তাদের প্রশিক্ষণের ডেটা থেকে সংবেদনশীল তথ্য, যেমন ব্যক্তিগত নাম, ঠিকানা, পাসওয়ার্ড বা ক্রেডিট কার্ড নম্বর মনে রাখতে এবং ফাঁস করতে পারে। তারা ক্ষতিকর অভিনেতাদের দ্বারা ম্যানিপুলেট বা আক্রমণের শিকার হতে পারে যারা তাদের দুর্বলতা বা পক্ষপাতিত্ব কাজে লাগাতে চায়। অতএব, এই ঝুঁকিগুলি সম্পর্কে সচেতন হওয়া এবং LLMs-এর সাথে ব্যবহৃত ডেটা রক্ষা করার জন্য যথাযথ ব্যবস্থা নেওয়া গুরুত্বপূর্ণ। LLMs-এর সাথে ব্যবহৃত ডেটা রক্ষা করার জন্য আপনি বেশ কয়েকটি পদক্ষেপ নিতে পারেন। এই পদক্ষেপগুলি অন্তর্ভুক্ত:
- তারা LLMs-এর সাথে শেয়ার করা ডেটার পরিমাণ এবং ধরন সীমিত করা: শুধুমাত্র সেই ডেটা শেয়ার করুন যা প্রয়োজনীয় এবং উদ্দেশ্যযুক্ত উদ্দেশ্য
অস্বীকৃতি:
এই নথিটি AI অনুবাদ সেবা Co-op Translator ব্যবহার করে অনুবাদ করা হয়েছে। আমরা যথাসম্ভব সঠিকতা নিশ্চিত করার চেষ্টা করি, তবে অনুগ্রহ করে মনে রাখবেন যে স্বয়ংক্রিয় অনুবাদে ত্রুটি বা অসঙ্গতি থাকতে পারে। মূল ভাষায় থাকা নথিটি প্রামাণ্য উৎস হিসেবে বিবেচিত হওয়া উচিত। গুরুত্বপূর্ণ তথ্যের জন্য, পেশাদার মানব অনুবাদ সুপারিশ করা হয়। এই অনুবাদ ব্যবহারের ফলে সৃষ্ট কোনও ভুল বোঝাবুঝি বা ভুল ব্যাখ্যার জন্য আমরা দায়ী নই।