Skip to content

Latest commit

 

History

History
122 lines (81 loc) · 31.1 KB

File metadata and controls

122 lines (81 loc) · 31.1 KB

तुमच्या जनरेटिव्ह AI अनुप्रयोगांचे संरक्षण

परिचय

हे धडे कव्हर करतील:

  • AI प्रणालींच्या संदर्भात सुरक्षा.
  • AI प्रणालींना असलेल्या सामान्य जोखमी आणि धोके.
  • AI प्रणाली सुरक्षित करण्यासाठी पद्धती आणि विचार.

शिकण्याची उद्दिष्टे

हा धडा पूर्ण केल्यानंतर, तुम्हाला समजेल:

  • AI प्रणालींना असलेल्या धोके आणि जोखमी.
  • AI प्रणाली सुरक्षित करण्यासाठी सामान्य पद्धती आणि प्रथा.
  • सुरक्षा चाचणी लागू करून अनपेक्षित परिणाम आणि वापरकर्त्यांच्या विश्वासाचा ह्रास कसा टाळता येईल.

जनरेटिव्ह AI च्या संदर्भात सुरक्षा म्हणजे काय?

जसे की कृत्रिम बुद्धिमत्ता (AI) आणि मशीन लर्निंग (ML) तंत्रज्ञान आमच्या जीवनावर अधिकाधिक प्रभाव टाकत आहे, ग्राहकांच्या डेटाचे संरक्षण करणे आणि AI प्रणालींचे संरक्षण करणे अत्यंत महत्त्वाचे आहे. AI/ML उच्च-मूल्य निर्णय प्रक्रियांचा समर्थन करण्यासाठी वापरला जात आहे जिथे चुकीचा निर्णय गंभीर परिणाम घडवू शकतो.

येथे विचार करण्यासाठी काही महत्त्वाचे मुद्दे आहेत:

  • AI/ML चा प्रभाव: AI/ML चा दैनंदिन जीवनावर महत्त्वपूर्ण प्रभाव आहे आणि त्यामुळे त्यांचे संरक्षण करणे अत्यावश्यक झाले आहे.
  • सुरक्षा आव्हाने: AI/ML चा हा प्रभाव योग्य लक्ष देणे आवश्यक आहे, जेणेकरून AI आधारित उत्पादनांना ट्रोल्स किंवा संघटित गटांकडून होणाऱ्या उच्च-स्तरीय हल्ल्यांपासून संरक्षण मिळेल.
  • धोरणात्मक समस्या: तंत्रज्ञान उद्योगाने दीर्घकालीन ग्राहक सुरक्षा आणि डेटा सुरक्षेसाठी धोरणात्मक आव्हानांना सक्रियपणे सामोरे जाणे आवश्यक आहे.

याशिवाय, मशीन लर्निंग मॉडेल्स प्रामुख्याने द्वेषपूर्ण इनपुट आणि सामान्य विसंगत डेटा यामधील फरक ओळखण्यात अक्षम असतात. प्रशिक्षण डेटा मोठ्या प्रमाणावर अनक्युरेटेड, अनमोडरेटेड, सार्वजनिक डेटासेट्समधून मिळविला जातो, ज्यामध्ये तृतीय पक्ष योगदान देऊ शकतात. जेव्हा ते योगदान देऊ शकतात, तेव्हा हल्लेखोरांना डेटासेट्समध्ये घुसखोरी करण्याची गरज नसते. कालांतराने, कमी विश्वासार्ह द्वेषपूर्ण डेटा उच्च विश्वासार्ह विश्वासार्ह डेटा बनतो, जर डेटा संरचना/फॉरमॅटिंग योग्य राहिले.

म्हणूनच, तुमच्या मॉडेल्स निर्णय घेण्यासाठी वापरत असलेल्या डेटा स्टोअर्सची अखंडता आणि संरक्षण सुनिश्चित करणे अत्यंत महत्त्वाचे आहे.

AI च्या धोके आणि जोखमी समजून घेणे

AI आणि संबंधित प्रणालींच्या बाबतीत, डेटा विषबाधा आजच्या काळातील सर्वात महत्त्वाचा सुरक्षा धोका आहे. डेटा विषबाधा म्हणजे जेव्हा कोणी AI ला प्रशिक्षण देण्यासाठी वापरलेल्या माहितीमध्ये जाणूनबुजून बदल करतो, ज्यामुळे ते चुका करतात. हे मानक शोध आणि शमन पद्धतींच्या अनुपस्थितीमुळे होते, तसेच प्रशिक्षणासाठी अविश्वसनीय किंवा अनक्युरेटेड सार्वजनिक डेटासेट्सवर आमच्या अवलंबित्वामुळे होते. डेटा अखंडता राखण्यासाठी आणि दोषपूर्ण प्रशिक्षण प्रक्रिया टाळण्यासाठी, तुमच्या डेटाचे मूळ आणि वंश शोधणे अत्यंत महत्त्वाचे आहे. अन्यथा, "कचरा आत, कचरा बाहेर" ही जुनी म्हण खरी ठरते, ज्यामुळे मॉडेलच्या कार्यक्षमतेवर परिणाम होतो.

येथे डेटा विषबाधा तुमच्या मॉडेल्सवर कसा परिणाम करू शकतो याची काही उदाहरणे आहेत:

  1. लेबल फ्लिपिंग: बायनरी वर्गीकरण कार्यात, एक विरोधक प्रशिक्षण डेटाच्या एका लहान उपसमुच्चयाच्या लेबल्सला जाणूनबुजून उलटवतो. उदाहरणार्थ, चांगल्या नमुन्यांना द्वेषपूर्ण म्हणून लेबल केले जाते, ज्यामुळे मॉडेल चुकीच्या संघटनांचे शिक्षण घेतो.
    उदाहरण: स्पॅम फिल्टर, लेबल्समध्ये फेरफार केल्यामुळे वैध ईमेल्सना स्पॅम म्हणून चुकीचे वर्गीकृत करतो.
  2. फीचर विषबाधा: एक हल्लेखोर प्रशिक्षण डेटामध्ये वैशिष्ट्ये सूक्ष्मपणे बदलतो, पक्षपातीपणा किंवा मॉडेलला दिशाभूल करण्यासाठी.
    उदाहरण: शिफारस प्रणालींना फसवण्यासाठी उत्पादनाच्या वर्णनांमध्ये अप्रासंगिक कीवर्ड जोडणे.
  3. डेटा इंजेक्शन: मॉडेलच्या वर्तनावर परिणाम करण्यासाठी प्रशिक्षण संचामध्ये द्वेषपूर्ण डेटा इंजेक्ट करणे.
    उदाहरण: भावना विश्लेषणाच्या निकालांना विकृत करण्यासाठी खोटे वापरकर्ता पुनरावलोकन सादर करणे.
  4. बॅकडोर हल्ले: एक विरोधक प्रशिक्षण डेटामध्ये लपलेला नमुना (बॅकडोर) घालतो. मॉडेल हा नमुना ओळखायला शिकतो आणि ट्रिगर झाल्यावर द्वेषपूर्ण वर्तन करतो.
    उदाहरण: चेहरा ओळख प्रणाली, बॅकडोर केलेल्या प्रतिमांसह प्रशिक्षित, विशिष्ट व्यक्तीला चुकीचे ओळखते.

MITRE Corporation ने ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) तयार केले आहे, जे AI प्रणालींवरील वास्तविक जगातील हल्ल्यांमध्ये विरोधकांनी वापरलेल्या रणनीती आणि तंत्रांचे ज्ञान आहे.

AI सक्षम प्रणालींमध्ये असुरक्षितता वाढत चालली आहे, कारण AI चा समावेश विद्यमान प्रणालींच्या हल्ल्याच्या पृष्ठभागाला पारंपारिक सायबर-हल्ल्यांपेक्षा अधिक वाढवतो. ATLAS ची निर्मिती या अद्वितीय आणि विकसित होणाऱ्या असुरक्षिततेविषयी जागरूकता वाढवण्यासाठी केली गेली आहे, कारण जागतिक समुदाय विविध प्रणालींमध्ये AI चा समावेश वाढवतो आहे. ATLAS हे MITRE ATT&CK® फ्रेमवर्कच्या धर्तीवर मॉडेल केले आहे आणि त्याचे तंत्र, तंत्रे, आणि प्रक्रिया (TTPs) ATT&CK मधील TTPs ला पूरक आहेत.

पारंपारिक सायबरसुरक्षेमध्ये प्रगत धोका अनुकरणाच्या परिस्थितीचे नियोजन करण्यासाठी मोठ्या प्रमाणावर वापरले जाणारे MITRE ATT&CK® फ्रेमवर्क प्रमाणेच, ATLAS उदयोन्मुख हल्ल्यांपासून बचाव करण्यासाठी चांगल्या प्रकारे समजून घेण्यासाठी आणि तयारीसाठी एक सोपी शोधण्यायोग्य TTPs संच प्रदान करते.

याशिवाय, ओपन वेब अॅप्लिकेशन सिक्युरिटी प्रोजेक्ट (OWASP) ने LLMs चा वापर करून अनुप्रयोगांमध्ये आढळलेल्या सर्वात गंभीर असुरक्षिततेंच्या "टॉप 10 यादी" तयार केली आहे. यादी डेटा विषबाधा सारख्या धोक्यांच्या जोखमींवर प्रकाश टाकते आणि इतर:

  • प्रॉम्प्ट इंजेक्शन: एक तंत्र ज्यामध्ये हल्लेखोर मोठ्या भाषेच्या मॉडेलला (LLM) काळजीपूर्वक तयार केलेल्या इनपुटद्वारे हेरफेर करतात, ज्यामुळे ते त्याच्या इच्छित वर्तनाच्या बाहेर वागतात.
  • पुरवठा साखळी असुरक्षितता: LLM द्वारे वापरल्या जाणाऱ्या अनुप्रयोगांची घटक आणि सॉफ्टवेअर, जसे की Python मॉड्यूल्स किंवा बाह्य डेटासेट्स, स्वतःच तडजोड केली जाऊ शकतात, ज्यामुळे अनपेक्षित परिणाम, परिचितपणा आणि अगदी अंतर्निहित पायाभूत सुविधांमध्ये असुरक्षितता उद्भवू शकते.
  • अतिविश्वास: LLMs चुकांमध्ये प्रवृत्त होतात आणि चुकीचे किंवा असुरक्षित परिणाम देतात. अनेक प्रलेखित परिस्थितींमध्ये, लोकांनी निकालांचा चेहरा मूल्य म्हणून घेतला आहे, ज्यामुळे अनपेक्षित वास्तविक-जगातील नकारात्मक परिणाम होतात.

Microsoft Cloud Advocate Rod Trent ने एक मोफत ईबुक लिहिले आहे, Must Learn AI Security, जे AI धोके आणि अन्य उदयोन्मुख AI धोके यावर सखोल चर्चा करते आणि या परिस्थितींना सर्वोत्तम कसे हाताळायचे यावर विस्तृत मार्गदर्शन प्रदान करते.

AI प्रणाली आणि LLMs साठी सुरक्षा चाचणी

कृत्रिम बुद्धिमत्ता (AI) विविध डोमेन आणि उद्योगांमध्ये परिवर्तन घडवत आहे, समाजासाठी नवीन शक्यता आणि फायदे देत आहे. तथापि, AI डेटा गोपनीयता, पक्षपातीपणा, स्पष्टतेचा अभाव आणि संभाव्य गैरवापर यासारख्या महत्त्वाच्या आव्हानांनाही सामोरे जाते. म्हणून, हे सुनिश्चित करणे आवश्यक आहे की AI प्रणाली सुरक्षित आणि जबाबदार आहेत, म्हणजे त्या नैतिक आणि कायदेशीर मानकांचे पालन करतात आणि वापरकर्ते आणि भागधारकांकडून त्यांच्यावर विश्वास ठेवला जाऊ शकतो.

सुरक्षा चाचणी म्हणजे AI प्रणाली किंवा LLM ची सुरक्षा मूल्यांकन करण्याची प्रक्रिया, त्यांच्या असुरक्षितता ओळखून आणि शोषून घेऊन. हे चाचणीच्या उद्देश आणि व्याप्तीवर अवलंबून विकसक, वापरकर्ते किंवा तृतीय-पक्ष ऑडिटरद्वारे केले जाऊ शकते. AI प्रणाली आणि LLMs साठी काही सामान्य सुरक्षा चाचणी पद्धती आहेत:

  • डेटा स्वच्छता: हे प्रशिक्षण डेटा किंवा AI प्रणाली किंवा LLM च्या इनपुटमधून संवेदनशील किंवा खाजगी माहिती काढून टाकणे किंवा गुप्त करणे याची प्रक्रिया आहे. डेटा स्वच्छता गोपनीय किंवा वैयक्तिक डेटाच्या प्रदर्शन कमी करून डेटा गळती आणि द्वेषपूर्ण हेरफेर रोखण्यास मदत करू शकते.
  • विरोधी चाचणी: हे द्वेषपूर्ण हल्ल्यांपासून त्याच्या मजबुती आणि लवचिकतेचे मूल्यांकन करण्यासाठी AI प्रणाली किंवा LLM च्या इनपुट किंवा आउटपुटवर विरोधी उदाहरणे तयार करण्याची आणि लागू करण्याची प्रक्रिया आहे. विरोधी चाचणी हल्लेखोरांनी शोषण केले जाऊ शकणाऱ्या AI प्रणाली किंवा LLM च्या असुरक्षितता आणि कमकुवतता ओळखण्यास आणि कमी करण्यास मदत करू शकते.
  • मॉडेल सत्यापन: हे AI प्रणाली किंवा LLM च्या मॉडेल पॅरामीटर्स किंवा आर्किटेक्चरची शुद्धता आणि पूर्णता सत्यापित करण्याची प्रक्रिया आहे. मॉडेल सत्यापन हे सुनिश्चित करून मॉडेल चोरी शोधण्यास आणि रोखण्यास मदत करू शकते की मॉडेल संरक्षित आणि प्रमाणित आहे.
  • आउटपुट सत्यापन: हे AI प्रणाली किंवा LLM च्या आउटपुटच्या गुणवत्तेची आणि विश्वसनीयतेची पडताळणी करण्याची प्रक्रिया आहे. आउटपुट सत्यापन हे सुनिश्चित करून द्वेषपूर्ण हेरफेर शोधण्यात आणि दुरुस्त करण्यात मदत करू शकते की आउटपुट सुसंगत आणि अचूक आहे.

AI प्रणालींमध्ये आघाडीवर असलेल्या OpenAI ने त्यांच्या रेड टीमिंग नेटवर्क उपक्रमाचा भाग म्हणून सुरक्षा मूल्यांकनांची मालिका स्थापन केली आहे, AI सुरक्षा योगदान देण्याच्या आशेने AI प्रणालींच्या आउटपुटची चाचणी करण्याचे उद्दिष्ट ठेवले आहे.

मूल्यांकन साध्या Q&A चाचण्यांपासून अधिक जटिल अनुकरणांपर्यंत असू शकते. ठोस उदाहरणे म्हणून, OpenAI ने AI वर्तनांचे अनेक कोनातून मूल्यांकन करण्यासाठी विकसित केलेली नमुना मूल्यांकन येथे आहेत:

पटवणे

  • MakeMeSay: AI प्रणाली दुसऱ्या AI प्रणालीला गुप्त शब्द सांगण्यासाठी किती चांगले फसवू शकते?
  • MakeMePay: AI प्रणाली दुसऱ्या AI प्रणालीला पैसे दान करण्यासाठी किती चांगले पटवू शकते?
  • Ballot Proposal: AI प्रणाली दुसऱ्या AI प्रणालीच्या राजकीय प्रस्तावाच्या समर्थनावर किती चांगला प्रभाव टाकू शकते?

स्टेगनोग्राफी (लपलेले संदेश)

  • Steganography: AI प्रणाली दुसऱ्या AI प्रणालीला पकडले न जाता गुप्त संदेश कसा ​​पास करू शकतो?
  • Text Compression: AI प्रणाली संदेश कंप्रेस आणि डी-कंप्रेस करून गुप्त संदेश लपवण्यासाठी किती चांगले कार्य करू शकते?
  • Schelling Point: AI प्रणाली थेट संवादाशिवाय दुसऱ्या AI प्रणालीसह किती चांगले समन्वय साधू शकते?

AI सुरक्षा

AI प्रणालींना द्वेषपूर्ण हल्ल्यांपासून, गैरवापर किंवा अनपेक्षित परिणामांपासून संरक्षित करणे अत्यंत आवश्यक आहे. यामध्ये AI प्रणालींची सुरक्षा, विश्वासार्हता आणि विश्वासार्हता सुनिश्चित करण्यासाठी पावले उचलणे समाविष्ट आहे, जसे की:

  • AI मॉडेल्स प्रशिक्षण आणि चालवण्यासाठी वापरल्या जाणाऱ्या डेटा आणि अल्गोरिदमचे संरक्षण करणे
  • AI प्रणालींमध्ये अनधिकृत प्रवेश, हेरफेर किंवा तोडफोड टाळणे
  • AI प्रणालींमध्ये पक्षपातीपणा, भेदभाव किंवा नैतिक समस्यांचे शोध घेणे आणि कमी करणे
  • AI निर्णय आणि क्रियांची जबाबदारी, पारदर्शकता आणि स्पष्टता सुनिश्चित करणे
  • AI प्रणालींचे उद्दिष्ट आणि मूल्ये मानव आणि समाजाच्या उद्दिष्टांशी जुळवून घेणे

AI सुरक्षा AI प्रणाली आणि डेटाच्या अखंडता, उपलब्धता आणि गोपनीयता सुनिश्चित करण्यासाठी महत्त्वाची आहे. AI सुरक्षेच्या काही आव्हाने आणि संधी आहेत:

  • संधी: AI ला सायबरसुरक्षा धोरणांमध्ये समाविष्ट करणे कारण ते धोके ओळखण्यात आणि प्रतिसाद वेळा सुधारण्यात महत्त्वपूर्ण भूमिका बजावू शकते. AI फिशिंग, मालवेअर किंवा रॅन्समवेअर सारख्या सायबरहल्ल्यांचे शोध आणि शमन स्वयंचलित आणि वाढविण्यात मदत करू शकते.
  • आव्हान: AI विरोधकांनी अत्याधुनिक हल्ले सुरू करण्यासाठी देखील वापरले जाऊ शकते, जसे की खोटे किंवा दिशाभूल करणारी सामग्री तयार करणे, वापरकर्त्यांचे अनुकरण करणे किंवा AI प्रणालींमधील असुरक्षिततेचा फायदा घेणे. म्हणून, AI विकसकांना मजबूत आणि लवचिक प्रणाली डिझाइन करण्याची अनोखी जबाबदारी आहे.

डेटा संरक्षण

LLMs त्यांच्या वापरलेल्या डेटाच्या गोपनीयता आणि सुरक्षेला धोका पोहोचवू शकतात. उदाहरणार्थ, LLMs त्यांच्या प्रशिक्षण डेटामधून वैयक्तिक नावे, पत्ते, पासवर्ड किंवा क्रेडिट कार्ड क्रमांक यासारखी संवेदनशील माहिती आठवून आणि लीक करू शकतात. ते द्वेषपूर्ण अभिनेत्यांद्वारे हेरफेर किंवा हल्ला देखील केले जाऊ शकतात जे त्यांच्या असुरक्षितता किंवा पक्षपातीपणाचा फायदा घेऊ इच्छितात. म्हणून, या जोखमांबद्दल जागरूक राहणे आणि LLMs सह वापरल्या जाणार्या डेटाचे संरक्षण करण्यासाठी योग्य उपाययोजना करणे महत्वाचे आहे. LLMs सह वापरल्या जाणार्या डेटाचे संरक्षण करण्यासाठी तुम्ही काही पावले उचलू शकता. या पावलांमध्ये समाविष्ट आहे:

  • त्यांच्या LLMs सह सामायिक केलेल्या डेटाची रक्कम आणि प्रकार मर्यादित करणे: फक्त आवश्यक आणि संबंधित डेटा सामायिक करा, आणि कोणताही संवेदनशील, गोपनीय किंवा वैयक्तिक डेटा सामायिक करणे टाळा. वापरकर्त्यांनी LLMs सह सामायिक केलेला डेटा देखील गुप्त किंवा एन्क्रिप्ट करावा, जसे की कोणतीही ओळखणारी माहिती काढून टाकणे किंवा मास्क करणे किंवा सुरक्षित संप्रेषण चॅनेल वापरणे.
  • LLMs जनरेट केलेला डेटा सत्यापित करणे: LLMs द्वारे तयार केलेल्या आउटपुटची अचूकता आणि गुणवत्ता नेहमी तपासा, जेणेकरून त्यात कोणतीही अवांछित किंवा अनुपयुक्त माहिती नसेल.
  • कोणत्याही डेटा उल्लंघन किंवा घटनांची नोंद आणि सतर्कता करणे: LLMs कडून कोणत्याही संशयास्पद किंवा असामान्य क्रियाकलाप किंवा वर्तनांवर सतर्क रहा, जसे की अप्रासंगिक, अचूक, आक्षेपार्ह किंवा हानिकारक मजकूर तयार कर

अस्वीकृती:
हा दस्तऐवज AI भाषांतर सेवा Co-op Translator चा वापर करून भाषांतरित केला गेला आहे. आम्ही अचूकतेसाठी प्रयत्नशील असलो तरी, कृपया लक्षात घ्या की स्वयंचलित भाषांतरे त्रुटी किंवा अचूकतेच्या अभावाने ग्रस्त असू शकतात. मूळ भाषेतील दस्तऐवज अधिकृत स्रोत मानला जावा. महत्त्वाच्या माहितीसाठी, व्यावसायिक मानवी भाषांतराची शिफारस केली जाते. या भाषांतराच्या वापरामुळे उद्भवलेल्या कोणत्याही गैरसमज किंवा चुकीच्या अर्थासाठी आम्ही जबाबदार नाही.