Skip to content

Latest commit

 

History

History
140 lines (82 loc) · 37.7 KB

File metadata and controls

140 lines (82 loc) · 37.7 KB

பொறுப்பான AI மூலம் இயந்திரக் கற்றல் தீர்வுகளை உருவாக்குதல்

இயந்திரக் கற்றலில் பொறுப்பான AI-யின் சுருக்கம்

ஸ்கெட்ச் நோட்: Tomomi Imura

அறிமுகம்

இந்த பாடத்திட்டத்தில், இயந்திரக் கற்றல் எவ்வாறு மற்றும் எவ்வளவு நம் அன்றாட வாழ்க்கையை பாதிக்கிறது என்பதை நீங்கள் ஆராயத் தொடங்குவீர்கள். இன்றே, சுகாதார பரிசோதனைகள், கடன் அனுமதிகள் அல்லது மோசடிகளை கண்டறிதல் போன்ற அன்றாட முடிவெடுக்கும் பணிகளில் அமைப்புகள் மற்றும் மாதிரிகள் ஈடுபட்டுள்ளன. எனவே, இந்த மாதிரிகள் நம்பகமான முடிவுகளை வழங்குவதற்காக நன்றாக செயல்படுவது முக்கியம். எந்த மென்பொருள் பயன்பாட்டைப் போலவே, AI அமைப்புகள் எதிர்பார்ப்புகளை பூர்த்தி செய்ய முடியாமல் போகலாம் அல்லது விரும்பத்தகாத முடிவுகளை ஏற்படுத்தலாம். அதனால், AI மாதிரியின் நடத்தை மற்றும் செயல்பாட்டை புரிந்து கொள்ளவும் விளக்கவும் முடியும் என்பதில் முக்கியத்துவம் உள்ளது.

நீங்கள் பயன்படுத்தும் தரவுகள் சில சமூகங்களை (இனம், பாலினம், அரசியல் பார்வை, மதம் போன்றவை) குறைவாக அல்லது அதிகமாக பிரதிநிதித்துவப்படுத்தும்போது என்ன நடக்கலாம் என்று கற்பனை செய்யுங்கள். மாதிரியின் வெளியீடு சில சமூகங்களுக்கு ஆதரவாகப் பொருள் கொள்ளப்பட்டால் என்ன? பயன்பாட்டிற்கு அதன் விளைவுகள் என்ன? மேலும், மாதிரி எதிர்மறை முடிவுகளை ஏற்படுத்தி மக்களுக்கு தீங்கு விளைவிக்கும்போது என்ன நடக்கிறது? AI அமைப்பின் நடத்தைக்கு யார் பொறுப்பானவர்? இந்த பாடத்திட்டத்தில் நாம் இந்த கேள்விகளை ஆராய்வோம்.

இந்த பாடத்தில், நீங்கள்:

  • இயந்திரக் கற்றலில் நியாயமான செயல்பாட்டின் முக்கியத்துவத்தைப் பற்றிய விழிப்புணர்வை அதிகரிக்கவும், நியாயமற்ற செயல்பாடுகளால் ஏற்படும் பாதிப்புகளைப் புரிந்து கொள்ளவும்.
  • நம்பகத்தன்மை மற்றும் பாதுகாப்பை உறுதிப்படுத்த அசாதாரண சூழல்களை ஆராயும் நடைமுறையை அறிந்து கொள்ளவும்.
  • அனைவரையும் அதிகாரமளிக்க, உள்ளடக்கிய அமைப்புகளை வடிவமைப்பதின் தேவையைப் புரிந்து கொள்ளவும்.
  • தரவின் மற்றும் மக்களின் தனியுரிமை மற்றும் பாதுகாப்பை பாதுகாப்பது எவ்வளவு முக்கியம் என்பதை ஆராயவும்.
  • AI மாதிரிகளின் நடத்தை விளக்குவதற்கான "கண்ணாடி பெட்டி" அணுகுமுறையின் முக்கியத்துவத்தைப் பாருங்கள்.
  • AI அமைப்புகளில் நம்பகத்தன்மையை உருவாக்க பொறுப்புணர்வு எவ்வளவு அவசியம் என்பதை மனதில் கொள்ளவும்.

முன் அறிவு

முன் அறிவாக, "Responsible AI Principles" கற்றல் பாதையை எடுத்துக் கொள்ளவும் மற்றும் கீழே உள்ள வீடியோவைப் பாருங்கள்:

Responsible AI கற்றல் பாதையைப் பற்றி மேலும் அறிக

Microsoft's Approach to Responsible AI

🎥 மேலே உள்ள படத்தை கிளிக் செய்து வீடியோவைப் பாருங்கள்: Microsoft's Approach to Responsible AI

நியாயமான செயல்பாடு

AI அமைப்புகள் அனைவரையும் நியாயமாக நடத்த வேண்டும் மற்றும் ஒரே மாதிரியான குழுக்களை வேறுபட்ட முறையில் பாதிக்காமல் இருக்க வேண்டும். உதாரணமாக, AI அமைப்புகள் மருத்துவ சிகிச்சை, கடன் விண்ணப்பங்கள் அல்லது வேலை வாய்ப்புகள் குறித்து வழிகாட்டுதல் வழங்கும்போது, ஒரே மாதிரியான அறிகுறிகள், நிதி சூழ்நிலைகள் அல்லது தொழில்முறை தகுதிகள் கொண்ட அனைவருக்கும் ஒரே பரிந்துரைகளை வழங்க வேண்டும். மனிதர்களாகிய நம்மில் ஒவ்வொருவரும் எங்கள் முடிவுகள் மற்றும் செயல்களில் தாக்கம் செலுத்தும் மரபு சார்ந்த பாகுபாடுகளை கொண்டிருக்கிறோம். இந்த பாகுபாடுகள் AI அமைப்புகளைப் பயிற்றுவிக்க பயன்படுத்தும் தரவுகளில் வெளிப்படலாம். சில நேரங்களில் இது தவறுதலாக நிகழலாம். தரவுகளில் பாகுபாடுகளை அறிமுகப்படுத்தும் போது நீங்கள் விழிப்புணர்வுடன் இருக்க முடியாதது பெரும்பாலும் கடினமாக இருக்கும்.

"நியாயமற்ற செயல்பாடு" என்பது ஒரு குழுவினருக்கு (இனம், பாலினம், வயது அல்லது மாற்றுத்திறனுடைய நிலை போன்றவை) ஏற்படும் எதிர்மறை தாக்கங்கள் அல்லது "பாதிப்புகளை" குறிக்கிறது. முக்கிய fairness-ஐப் பற்றிய பாதிப்புகள் பின்வருமாறு வகைப்படுத்தப்படலாம்:

  • Allocation: ஒரு பாலினம் அல்லது இனத்தை மற்றொன்றின் மீது முன்னுரிமை அளித்தல்.
  • Quality of service: ஒரு குறிப்பிட்ட சூழ்நிலைக்காக தரவுகளைப் பயிற்றுவிக்கும்போது, ஆனால் உண்மை மிகவும் சிக்கலானது, இது குறைந்த செயல்திறன் கொண்ட சேவையை உருவாக்குகிறது. உதாரணமாக, கருமை நிறத்தினரைக் கண்டறிய முடியாத கை சோப்பு விநியோகிப்பான். Reference
  • Denigration: ஒருவரை அல்லது ஒன்றை அநியாயமாக விமர்சித்து குறை கூறுதல். உதாரணமாக, ஒரு படத்தை லேபிள் செய்யும் தொழில்நுட்பம் கருமை நிறத்தினரின் படங்களை குரங்குகளாக தவறாக லேபிள் செய்தது.
  • Over- or under-representation: ஒரு குறிப்பிட்ட குழு ஒரு குறிப்பிட்ட தொழிலில் காணப்படாதது, மற்றும் எந்த சேவையோ அல்லது செயல்பாடோ அதை தொடர்ந்து ஊக்குவிக்கிறது என்றால் அது பாதிப்பை ஏற்படுத்துகிறது.
  • Stereotyping: ஒரு குறிப்பிட்ட குழுவை முன்கூட்டியே ஒதுக்கப்பட்ட பண்புகளுடன் தொடர்புபடுத்துதல். உதாரணமாக, ஆங்கிலம் மற்றும் துருக்கி மொழி இடையேயான மொழிபெயர்ப்பு அமைப்பு பாலினத்துடன் தொடர்புடைய வார்த்தைகளில் தவறுகள் ஏற்படலாம்.

துருக்கி மொழிக்கு மொழிபெயர்ப்பு

துருக்கி மொழிக்கு மொழிபெயர்ப்பு

ஆங்கிலத்திற்கு மீண்டும் மொழிபெயர்ப்பு

ஆங்கிலத்திற்கு மீண்டும் மொழிபெயர்ப்பு

AI அமைப்புகளை வடிவமைக்கும் மற்றும் சோதிக்கும் போது, AI நியாயமாக இருக்க வேண்டும் மற்றும் மனிதர்களுக்கு தடை செய்யப்பட்ட பாகுபாடான அல்லது பாகுபாடான முடிவுகளை எடுக்காமல் இருக்க வேண்டும் என்பதை உறுதிப்படுத்த வேண்டும். AI மற்றும் இயந்திரக் கற்றலில் நியாயத்தை உறுதிப்படுத்துவது ஒரு சிக்கலான சமூக-தொழில்நுட்ப சவாலாகவே உள்ளது.

நம்பகத்தன்மை மற்றும் பாதுகாப்பு

நம்பகத்தன்மையை உருவாக்க, AI அமைப்புகள் சாதாரண மற்றும் எதிர்பாராத சூழல்களில் நம்பகமான, பாதுகாப்பான மற்றும் நிலையானதாக இருக்க வேண்டும். AI அமைப்புகள் பல்வேறு சூழல்களில் எப்படி நடந்து கொள்கின்றன என்பதை அறிந்து கொள்வது முக்கியம், குறிப்பாக அவை அசாதாரண சூழல்களில் இருக்கும்போது. AI தீர்வுகளை உருவாக்கும்போது, AI தீர்வுகள் சந்திக்கும் பல்வேறு சூழல்களை எவ்வாறு கையாள்வது என்பதைப் பற்றிய கவனம் அதிகமாக இருக்க வேண்டும். உதாரணமாக, ஒரு சுய இயக்க வாகனம் மக்களின் பாதுகாப்பை முக்கிய முன்னுரிமையாகக் கொள்ள வேண்டும். எனவே, வாகனத்தை இயக்கும் AI இரவு, மின்னல் மழை அல்லது பனிச்சறுக்கு, தெருவில் ஓடும் குழந்தைகள், செல்லப்பிராணிகள், சாலை அமைப்புகள் போன்ற அனைத்து சாத்தியமான சூழல்களையும் கருத்தில் கொள்ள வேண்டும். AI அமைப்பு பல்வேறு சூழல்களை நம்பகமாகவும் பாதுகாப்பாகவும் கையாளும் திறன், தரவியல் விஞ்ஞானி அல்லது AI டெவலப்பர் வடிவமைப்பு அல்லது சோதனை செய்யும் போது எடுத்துக் கொண்ட எதிர்பார்ப்பின் அளவை பிரதிபலிக்கிறது.

🎥 வீடியோவைப் பார்க்க இங்கே கிளிக் செய்யவும்:

உள்ளடக்கம்

AI அமைப்புகள் அனைவரையும் ஈர்க்கவும் அதிகாரமளிக்கவும் வடிவமைக்கப்பட வேண்டும். AI அமைப்புகளை வடிவமைக்கும் மற்றும் செயல்படுத்தும் போது, தரவியல் விஞ்ஞானிகள் மற்றும் AI டெவலப்பர்கள், அமைப்பில் உள்ள மக்கள் தவறுதலாக விலக்கப்படக்கூடிய தடைகளை அடையாளம் காணவும் மற்றும் தீர்க்கவும். உதாரணமாக, உலகளவில் 1 பில்லியன் மாற்றுத்திறனுடையவர்கள் உள்ளனர். AI-யின் முன்னேற்றத்துடன், அவர்கள் தங்கள் அன்றாட வாழ்க்கையில் தகவல் மற்றும் வாய்ப்புகளை எளிதாக அணுக முடியும். தடைகளை தீர்ப்பதன் மூலம், அனைவருக்கும் பயனளிக்கும் சிறந்த அனுபவங்களுடன் AI தயாரிப்புகளை புதுமை செய்யவும் உருவாக்கவும் வாய்ப்புகள் உருவாகின்றன.

🎥 வீடியோவைப் பார்க்க இங்கே கிளிக் செய்யவும்: AI-யில் உள்ளடக்கம்

பாதுகாப்பு மற்றும் தனியுரிமை

AI அமைப்புகள் பாதுகாப்பாகவும் மக்களின் தனியுரிமையை மதிக்கவும் இருக்க வேண்டும். தனியுரிமை, தகவல் அல்லது வாழ்க்கையை ஆபத்தில் ஆழ்த்தும் அமைப்புகளில் மக்கள் குறைவான நம்பிக்கையை கொண்டிருக்கிறார்கள். இயந்திரக் கற்றல் மாதிரிகளைப் பயிற்றுவிக்கும்போது, சிறந்த முடிவுகளை உருவாக்க தரவுகளை நம்புகிறோம். இதைச் செய்யும்போது, தரவின் மூலமும் முழுமையும் கருத்தில் கொள்ளப்பட வேண்டும். உதாரணமாக, தரவு பயனர் சமர்ப்பித்ததா அல்லது பொதுமக்களுக்கு கிடைக்குமா? அடுத்ததாக, தரவுடன் வேலை செய்யும் போது, AI அமைப்புகள் ரகசிய தகவல்களைப் பாதுகாக்கவும் மற்றும் தாக்குதல்களை எதிர்க்கவும் உருவாக்கப்பட வேண்டும். AI அதிகமாக பரவுவதால், தனியுரிமையைப் பாதுகாப்பதும் முக்கியமான தனிப்பட்ட மற்றும் வணிக தகவல்களைப் பாதுகாப்பதும் மிகவும் முக்கியமாகவும் சிக்கலாகவும் மாறுகிறது. AI-க்கு குறிப்பாக தரவினை அணுகுதல் அவசியம், ஏனெனில் AI அமைப்புகள் மக்களுக்கான துல்லியமான மற்றும் தகவலளிக்கப்பட்ட கணிப்புகள் மற்றும் முடிவுகளை எடுக்க தரவின் மீது நம்பிக்கையுடன் இருக்க வேண்டும்.

🎥 வீடியோவைப் பார்க்க இங்கே கிளிக் செய்யவும்: AI-யில் பாதுகாப்பு

  • தொழில்துறையாக, GDPR (General Data Protection Regulation) போன்ற விதிமுறைகளால் ஊக்குவிக்கப்பட்டு, தனியுரிமை மற்றும் பாதுகாப்பில் முக்கிய முன்னேற்றங்களை நாம் செய்துள்ளோம்.
  • ஆனால் AI அமைப்புகளுடன், அமைப்புகளை மேலும் தனிப்பட்ட மற்றும் செயல்திறனுடையதாக மாற்ற தனிப்பட்ட தரவின் தேவையை – மற்றும் தனியுரிமையை – நாம் ஏற்றுக்கொள்ள வேண்டும்.
  • இணையத்துடன் இணைக்கப்பட்ட கணினிகள் உருவாகிய பிறப்புடன், AI தொடர்பான பாதுகாப்பு பிரச்சினைகளின் எண்ணிக்கையில் பெரும் உயர்வு ஏற்பட்டுள்ளது.
  • அதே நேரத்தில், பாதுகாப்பை மேம்படுத்த AI பயன்படுத்தப்பட்டுள்ளதை நாம் பார்த்துள்ளோம். உதாரணமாக, பெரும்பாலான நவீன வைரஸ் எதிர்ப்பு ஸ்கேனர் இன்று AI ஹியூரிஸ்டிக்ஸ் மூலம் இயக்கப்படுகின்றன.
  • தரவியல் விஞ்ஞான செயல்முறைகள் சமீபத்திய தனியுரிமை மற்றும் பாதுகாப்பு நடைமுறைகளுடன் ஒத்திசைவாக கலக்கப்படுவதை நாம் உறுதிப்படுத்த வேண்டும்.

வெளிப்படைத்தன்மை

AI அமைப்புகள் புரிந்துகொள்ளக்கூடியதாக இருக்க வேண்டும். வெளிப்படைத்தன்மையின் முக்கியமான பகுதி AI அமைப்புகள் மற்றும் அவற்றின் கூறுகளின் நடத்தை விளக்குவதில் உள்ளது. AI அமைப்புகளைப் புரிந்துகொள்ளும் திறனை மேம்படுத்த, பங்குதாரர்கள் அவை எவ்வாறு மற்றும் ஏன் செயல்படுகின்றன என்பதைப் புரிந்துகொள்ள வேண்டும், இதனால் செயல்திறன் பிரச்சினைகள், பாதுகாப்பு மற்றும் தனியுரிமை கவலைகள், பாகுபாடுகள், விலக்கப்பட்ட நடைமுறைகள் அல்லது எதிர்பாராத விளைவுகளை அடையாளம் காண முடியும். AI அமைப்புகளைப் பயன்படுத்தும்வர்கள் அவற்றை எப்போது, ஏன், எப்படி பயன்படுத்த முடிவு செய்கிறார்கள் என்பதைப் பற்றியும், அவர்கள் பயன்படுத்தும் அமைப்புகளின் வரம்புகளைப் பற்றியும் நேர்மையாகவும் வெளிப்படையாகவும் இருக்க வேண்டும் என்று நாங்கள் நம்புகிறோம். உதாரணமாக, ஒரு வங்கி அதன் நுகர்வோர் கடன் முடிவுகளை ஆதரிக்க AI அமைப்பை பயன்படுத்தினால், முடிவுகளைப் பரிசீலிக்கவும் மற்றும் அமைப்பின் பரிந்துரைகளை எந்த தரவுகள் பாதிக்கின்றன என்பதைப் புரிந்துகொள்ளவும் முக்கியம். அரசாங்கங்கள் தொழில்துறைகளில் AI-யை ஒழுங்குபடுத்தத் தொடங்குகின்றன, எனவே தரவியல் விஞ்ஞானிகள் மற்றும் அமைப்புகள் AI அமைப்பு ஒழுங்குமுறை தேவைகளை பூர்த்தி செய்கிறதா என்பதை விளக்க வேண்டும், குறிப்பாக விரும்பத்தகாத முடிவு ஏற்பட்டால்.

🎥 வீடியோவைப் பார்க்க இங்கே கிளிக் செய்யவும்: AI-யில் வெளிப்படைத்தன்மை

  • AI அமைப்புகள் மிகவும் சிக்கலானவை என்பதால், அவை எவ்வாறு செயல்படுகின்றன மற்றும் முடிவுகளை விளக்குவது கடினமாக உள்ளது.
  • இந்த புரிதலின்欠பாடு, இந்த அமைப்புகள் எவ்வாறு நிர்வகிக்கப்படுகின்றன, செயல்படுத்தப்படுகின்றன மற்றும் ஆவணப்படுத்தப்படுகின்றன என்பதை பாதிக்கிறது.
  • மேலும் முக்கியமாக, இந்த அமைப்புகள் உருவாக்கும் முடிவுகளைப் பயன்படுத்தி எடுக்கப்படும் முடிவுகளை இந்த欠பாடு பாதிக்கிறது.

பொறுப்புணர்வு

AI அமைப்புகளை வடிவமைக்கும் மற்றும் செயல்படுத்தும் மக்கள், அவர்களின் அமைப்புகள் எவ்வாறு செயல்படுகின்றன என்பதற்கான பொறுப்பை ஏற்க வேண்டும். முகம் அடையாளம் காணும் போன்ற நுண்ணறிவு தொழில்நுட்பங்களுடன் பொறுப்புணர்வு மிகவும் முக்கியமானது. சமீபத்தில், முகம் அடையாளம் காணும் தொழில்நுட்பத்திற்கான தேவை அதிகரித்துள்ளது, குறிப்பாக காணாமல் போன குழந்தைகளை கண்டறிதல் போன்ற பயன்பாடுகளில் தொழில்நுட்பத்தின் சாத்தியத்தைப் பார்க்கும் சட்ட அமலாக்க அமைப்புகளிடமிருந்து. இருப்பினும், இந்த தொழில்நுட்பங்கள் ஒரு அரசாங்கத்தால் அதன் குடிமக்களின் அடிப்படை சுதந்திரங்களை ஆபத்தில் ஆழ்த்துவதற்காக, உதாரணமாக, குறிப்பிட்ட நபர்களின் தொடர்ச்சியான கண்காணிப்பை இயக்குவதற்காக பயன்படுத்தப்படலாம். எனவே, AI அமைப்பு தனிநபர்கள் அல்லது சமுதாயத்தை எவ்வாறு பாதிக்கிறது என்பதற்கான பொறுப்பை தரவியல் விஞ்ஞானிகள் மற்றும் அமைப்புகள் ஏற்க வேண்டும்.

Leading AI Researcher Warns of Mass Surveillance Through Facial Recognition

🎥 மேலே உள்ள படத்தை கிளிக் செய்து வீடியோவைப் பாருங்கள்: முகம் அடையாளம் காணுதல் மூலம் பெருமளவு கண்காணிப்பு பற்றிய எச்சரிக்கை

இயந்திரக் கற்றல் மற்றும் AI-யை சமுதாயத்திற்கு கொண்டு வருகிற முதல் தலைமுறையாகிய நம் தலைமுறைக்கான மிகப்பெரிய கேள்விகளில் ஒன்று, கணினிகள் மக்களுக்கு பொறுப்பானதாக இருக்க வேண்டும் என்பதை எப்படி உறுதிப்படுத்துவது மற்றும் கணினிகளை வடிவமைக்கும் மக்கள் மற்றவர்களுக்கு பொறுப்பானவர்களாக இருக்க வேண்டும் என்பதை எப்படி உறுதிப்படுத்துவது என்பதாகும்.

தாக்க மதிப்பீடு

இயந்திரக் கற்றல் மாதிரியைப் பயிற்றுவிக்கும்முன், AI அமைப்பின் நோக்கம், அதன் திட்டமிடப்பட்ட பயன்பாடு, அது எங்கு பயன்படுத்தப்படும், மற்றும் அமைப்புடன் யார் தொடர்பு கொள்ளப் போகிறார்கள் என்பதைப் புரிந்து கொள்ள தாக்க மதிப்பீட்டை நடத்துவது முக்கியம். இது அமைப்பை மதிப்பீடு செய்யும் மதிப்பீட்டாளர்(கள்) அல்லது சோதனையாளர்களுக்கு, சாத்தியமான ஆபத்துகள் மற்றும் எதிர்பார்க்கப்படும் விளைவுகளை அடையாளம் காணும்போது எந்த காரணிகளை கருத்தில் கொள்ள வேண்டும் என்பதை அறிய உதவுகிறது.

தாக்க மதிப்பீட்டை நடத்தும்போது கவனம் செலுத்த வேண்டிய பகுதிகள் பின்வருமாறு:

  • தனிநபர்களுக்கு எதிர்மறை தாக்கம்: அமைப்பின் செயல்திறனைத் தடுக்கும் எந்தவொரு கட்டுப்பாடு அல்லது தேவைகள், ஆதரிக்கப்படாத பயன்பாடு அல்லது அறியப்பட்ட வரம்புகள் பற்றிய விழிப்புணர்வுடன் இருக்க வேண்டும்.
  • தரவு தேவைகள்: அமைப்பு தரவுகளை எவ்வாறு மற்றும் எங்கு பயன்படுத்தும் என்பதைப் புரிந்துகொள்வது, நீங்கள் கவனமாக இருக்க வேண்டிய எந்த தரவுத் தேவைகளை (எ.கா., GDPR அல்லது HIPPA தரவுத் விதிமுறைகள்) ஆராய்வதற்கு மதிப்பீட்டாளர்களுக்கு உதவுகிறது. மேலும், பயிற்சிக்கான தரவின் மூல அல்லது அளவு போதுமானதா என்பதைப் பரிசீலிக்கவும்.
  • தாக்கத்தின் சுருக்கம்: அமைப்பைப் பயன்படுத்துவதால் ஏற்படக்கூடிய சாத்தியமான பாதிப்புகளின் பட்டியலைச் சேகரிக்கவும். ML வாழ்க்கைச் சுழற்சியின் முழு காலத்திலும், அடையாளம் காணப்பட்ட பிரச்சினைகள் குறைக்கப்பட்டதா அல்லது தீர்க்கப்பட்டதா என்பதை மதிப்பீடு செய்யவும்.
  • **ஆரம்ப

மதிப்பீடு மற்றும் சுயபயிற்சி

இந்த பாடத்தில், இயந்திரக் கற்றலில் நியாயம் மற்றும் அநியாயம் பற்றிய அடிப்படைகளை நீங்கள் கற்றுக்கொண்டீர்கள்.

இந்த தலைப்புகளை மேலும் ஆழமாகப் புரிந்துகொள்ள இந்த வேலைகளைக் காணுங்கள்:

  • பொறுப்பான AI-யை நோக்கி: கொள்கைகளை நடைமுறைக்கு கொண்டு வருவது - Besmira Nushi, Mehrnoosh Sameki மற்றும் Amit Sharma

பொறுப்பான AI Toolbox: பொறுப்பான AI உருவாக்குவதற்கான ஓர் திறந்த மூல அமைப்பு

🎥 மேலே உள்ள படத்தை கிளிக் செய்யவும்: RAI Toolbox: Besmira Nushi, Mehrnoosh Sameki மற்றும் Amit Sharma ஆகியோரின் பொறுப்பான AI உருவாக்குவதற்கான ஓர் திறந்த மூல அமைப்பு

மேலும் படிக்க:

RAI Toolbox:

Azure Machine Learning-இன் நியாயத்தை உறுதிப்படுத்தும் கருவிகள் பற்றி படிக்க:

பணிக்கூற்று

RAI Toolbox-ஐ ஆராயுங்கள்


குறிப்பு:
இந்த ஆவணம் Co-op Translator என்ற AI மொழிபெயர்ப்பு சேவையைப் பயன்படுத்தி மொழிபெயர்க்கப்பட்டுள்ளது. நாங்கள் துல்லியத்திற்காக முயற்சிக்கின்றோம், ஆனால் தானியங்கி மொழிபெயர்ப்புகளில் பிழைகள் அல்லது தவறான தகவல்கள் இருக்கக்கூடும் என்பதை தயவுசெய்து கவனத்தில் கொள்ளுங்கள். அதன் தாய்மொழியில் உள்ள மூல ஆவணம் அதிகாரப்பூர்வ ஆதாரமாக கருதப்பட வேண்டும். முக்கியமான தகவல்களுக்கு, தொழில்முறை மனித மொழிபெயர்ப்பு பரிந்துரைக்கப்படுகிறது. இந்த மொழிபெயர்ப்பைப் பயன்படுத்துவதால் ஏற்படும் எந்த தவறான புரிதல்கள் அல்லது தவறான விளக்கங்களுக்கு நாங்கள் பொறுப்பல்ல.