ஸ்கெட்ச் நோட்: Tomomi Imura
இந்த பாடத்திட்டத்தில், இயந்திரக் கற்றல் எவ்வாறு மற்றும் எவ்வளவு நம் அன்றாட வாழ்க்கையை பாதிக்கிறது என்பதை நீங்கள் ஆராயத் தொடங்குவீர்கள். இன்றே, சுகாதார பரிசோதனைகள், கடன் அனுமதிகள் அல்லது மோசடிகளை கண்டறிதல் போன்ற அன்றாட முடிவெடுக்கும் பணிகளில் அமைப்புகள் மற்றும் மாதிரிகள் ஈடுபட்டுள்ளன. எனவே, இந்த மாதிரிகள் நம்பகமான முடிவுகளை வழங்குவதற்காக நன்றாக செயல்படுவது முக்கியம். எந்த மென்பொருள் பயன்பாட்டைப் போலவே, AI அமைப்புகள் எதிர்பார்ப்புகளை பூர்த்தி செய்ய முடியாமல் போகலாம் அல்லது விரும்பத்தகாத முடிவுகளை ஏற்படுத்தலாம். அதனால், AI மாதிரியின் நடத்தை மற்றும் செயல்பாட்டை புரிந்து கொள்ளவும் விளக்கவும் முடியும் என்பதில் முக்கியத்துவம் உள்ளது.
நீங்கள் பயன்படுத்தும் தரவுகள் சில சமூகங்களை (இனம், பாலினம், அரசியல் பார்வை, மதம் போன்றவை) குறைவாக அல்லது அதிகமாக பிரதிநிதித்துவப்படுத்தும்போது என்ன நடக்கலாம் என்று கற்பனை செய்யுங்கள். மாதிரியின் வெளியீடு சில சமூகங்களுக்கு ஆதரவாகப் பொருள் கொள்ளப்பட்டால் என்ன? பயன்பாட்டிற்கு அதன் விளைவுகள் என்ன? மேலும், மாதிரி எதிர்மறை முடிவுகளை ஏற்படுத்தி மக்களுக்கு தீங்கு விளைவிக்கும்போது என்ன நடக்கிறது? AI அமைப்பின் நடத்தைக்கு யார் பொறுப்பானவர்? இந்த பாடத்திட்டத்தில் நாம் இந்த கேள்விகளை ஆராய்வோம்.
இந்த பாடத்தில், நீங்கள்:
- இயந்திரக் கற்றலில் நியாயமான செயல்பாட்டின் முக்கியத்துவத்தைப் பற்றிய விழிப்புணர்வை அதிகரிக்கவும், நியாயமற்ற செயல்பாடுகளால் ஏற்படும் பாதிப்புகளைப் புரிந்து கொள்ளவும்.
- நம்பகத்தன்மை மற்றும் பாதுகாப்பை உறுதிப்படுத்த அசாதாரண சூழல்களை ஆராயும் நடைமுறையை அறிந்து கொள்ளவும்.
- அனைவரையும் அதிகாரமளிக்க, உள்ளடக்கிய அமைப்புகளை வடிவமைப்பதின் தேவையைப் புரிந்து கொள்ளவும்.
- தரவின் மற்றும் மக்களின் தனியுரிமை மற்றும் பாதுகாப்பை பாதுகாப்பது எவ்வளவு முக்கியம் என்பதை ஆராயவும்.
- AI மாதிரிகளின் நடத்தை விளக்குவதற்கான "கண்ணாடி பெட்டி" அணுகுமுறையின் முக்கியத்துவத்தைப் பாருங்கள்.
- AI அமைப்புகளில் நம்பகத்தன்மையை உருவாக்க பொறுப்புணர்வு எவ்வளவு அவசியம் என்பதை மனதில் கொள்ளவும்.
முன் அறிவாக, "Responsible AI Principles" கற்றல் பாதையை எடுத்துக் கொள்ளவும் மற்றும் கீழே உள்ள வீடியோவைப் பாருங்கள்:
Responsible AI கற்றல் பாதையைப் பற்றி மேலும் அறிக
🎥 மேலே உள்ள படத்தை கிளிக் செய்து வீடியோவைப் பாருங்கள்: Microsoft's Approach to Responsible AI
AI அமைப்புகள் அனைவரையும் நியாயமாக நடத்த வேண்டும் மற்றும் ஒரே மாதிரியான குழுக்களை வேறுபட்ட முறையில் பாதிக்காமல் இருக்க வேண்டும். உதாரணமாக, AI அமைப்புகள் மருத்துவ சிகிச்சை, கடன் விண்ணப்பங்கள் அல்லது வேலை வாய்ப்புகள் குறித்து வழிகாட்டுதல் வழங்கும்போது, ஒரே மாதிரியான அறிகுறிகள், நிதி சூழ்நிலைகள் அல்லது தொழில்முறை தகுதிகள் கொண்ட அனைவருக்கும் ஒரே பரிந்துரைகளை வழங்க வேண்டும். மனிதர்களாகிய நம்மில் ஒவ்வொருவரும் எங்கள் முடிவுகள் மற்றும் செயல்களில் தாக்கம் செலுத்தும் மரபு சார்ந்த பாகுபாடுகளை கொண்டிருக்கிறோம். இந்த பாகுபாடுகள் AI அமைப்புகளைப் பயிற்றுவிக்க பயன்படுத்தும் தரவுகளில் வெளிப்படலாம். சில நேரங்களில் இது தவறுதலாக நிகழலாம். தரவுகளில் பாகுபாடுகளை அறிமுகப்படுத்தும் போது நீங்கள் விழிப்புணர்வுடன் இருக்க முடியாதது பெரும்பாலும் கடினமாக இருக்கும்.
"நியாயமற்ற செயல்பாடு" என்பது ஒரு குழுவினருக்கு (இனம், பாலினம், வயது அல்லது மாற்றுத்திறனுடைய நிலை போன்றவை) ஏற்படும் எதிர்மறை தாக்கங்கள் அல்லது "பாதிப்புகளை" குறிக்கிறது. முக்கிய fairness-ஐப் பற்றிய பாதிப்புகள் பின்வருமாறு வகைப்படுத்தப்படலாம்:
- Allocation: ஒரு பாலினம் அல்லது இனத்தை மற்றொன்றின் மீது முன்னுரிமை அளித்தல்.
- Quality of service: ஒரு குறிப்பிட்ட சூழ்நிலைக்காக தரவுகளைப் பயிற்றுவிக்கும்போது, ஆனால் உண்மை மிகவும் சிக்கலானது, இது குறைந்த செயல்திறன் கொண்ட சேவையை உருவாக்குகிறது. உதாரணமாக, கருமை நிறத்தினரைக் கண்டறிய முடியாத கை சோப்பு விநியோகிப்பான். Reference
- Denigration: ஒருவரை அல்லது ஒன்றை அநியாயமாக விமர்சித்து குறை கூறுதல். உதாரணமாக, ஒரு படத்தை லேபிள் செய்யும் தொழில்நுட்பம் கருமை நிறத்தினரின் படங்களை குரங்குகளாக தவறாக லேபிள் செய்தது.
- Over- or under-representation: ஒரு குறிப்பிட்ட குழு ஒரு குறிப்பிட்ட தொழிலில் காணப்படாதது, மற்றும் எந்த சேவையோ அல்லது செயல்பாடோ அதை தொடர்ந்து ஊக்குவிக்கிறது என்றால் அது பாதிப்பை ஏற்படுத்துகிறது.
- Stereotyping: ஒரு குறிப்பிட்ட குழுவை முன்கூட்டியே ஒதுக்கப்பட்ட பண்புகளுடன் தொடர்புபடுத்துதல். உதாரணமாக, ஆங்கிலம் மற்றும் துருக்கி மொழி இடையேயான மொழிபெயர்ப்பு அமைப்பு பாலினத்துடன் தொடர்புடைய வார்த்தைகளில் தவறுகள் ஏற்படலாம்.
துருக்கி மொழிக்கு மொழிபெயர்ப்பு
ஆங்கிலத்திற்கு மீண்டும் மொழிபெயர்ப்பு
AI அமைப்புகளை வடிவமைக்கும் மற்றும் சோதிக்கும் போது, AI நியாயமாக இருக்க வேண்டும் மற்றும் மனிதர்களுக்கு தடை செய்யப்பட்ட பாகுபாடான அல்லது பாகுபாடான முடிவுகளை எடுக்காமல் இருக்க வேண்டும் என்பதை உறுதிப்படுத்த வேண்டும். AI மற்றும் இயந்திரக் கற்றலில் நியாயத்தை உறுதிப்படுத்துவது ஒரு சிக்கலான சமூக-தொழில்நுட்ப சவாலாகவே உள்ளது.
நம்பகத்தன்மையை உருவாக்க, AI அமைப்புகள் சாதாரண மற்றும் எதிர்பாராத சூழல்களில் நம்பகமான, பாதுகாப்பான மற்றும் நிலையானதாக இருக்க வேண்டும். AI அமைப்புகள் பல்வேறு சூழல்களில் எப்படி நடந்து கொள்கின்றன என்பதை அறிந்து கொள்வது முக்கியம், குறிப்பாக அவை அசாதாரண சூழல்களில் இருக்கும்போது. AI தீர்வுகளை உருவாக்கும்போது, AI தீர்வுகள் சந்திக்கும் பல்வேறு சூழல்களை எவ்வாறு கையாள்வது என்பதைப் பற்றிய கவனம் அதிகமாக இருக்க வேண்டும். உதாரணமாக, ஒரு சுய இயக்க வாகனம் மக்களின் பாதுகாப்பை முக்கிய முன்னுரிமையாகக் கொள்ள வேண்டும். எனவே, வாகனத்தை இயக்கும் AI இரவு, மின்னல் மழை அல்லது பனிச்சறுக்கு, தெருவில் ஓடும் குழந்தைகள், செல்லப்பிராணிகள், சாலை அமைப்புகள் போன்ற அனைத்து சாத்தியமான சூழல்களையும் கருத்தில் கொள்ள வேண்டும். AI அமைப்பு பல்வேறு சூழல்களை நம்பகமாகவும் பாதுகாப்பாகவும் கையாளும் திறன், தரவியல் விஞ்ஞானி அல்லது AI டெவலப்பர் வடிவமைப்பு அல்லது சோதனை செய்யும் போது எடுத்துக் கொண்ட எதிர்பார்ப்பின் அளவை பிரதிபலிக்கிறது.
AI அமைப்புகள் அனைவரையும் ஈர்க்கவும் அதிகாரமளிக்கவும் வடிவமைக்கப்பட வேண்டும். AI அமைப்புகளை வடிவமைக்கும் மற்றும் செயல்படுத்தும் போது, தரவியல் விஞ்ஞானிகள் மற்றும் AI டெவலப்பர்கள், அமைப்பில் உள்ள மக்கள் தவறுதலாக விலக்கப்படக்கூடிய தடைகளை அடையாளம் காணவும் மற்றும் தீர்க்கவும். உதாரணமாக, உலகளவில் 1 பில்லியன் மாற்றுத்திறனுடையவர்கள் உள்ளனர். AI-யின் முன்னேற்றத்துடன், அவர்கள் தங்கள் அன்றாட வாழ்க்கையில் தகவல் மற்றும் வாய்ப்புகளை எளிதாக அணுக முடியும். தடைகளை தீர்ப்பதன் மூலம், அனைவருக்கும் பயனளிக்கும் சிறந்த அனுபவங்களுடன் AI தயாரிப்புகளை புதுமை செய்யவும் உருவாக்கவும் வாய்ப்புகள் உருவாகின்றன.
🎥 வீடியோவைப் பார்க்க இங்கே கிளிக் செய்யவும்: AI-யில் உள்ளடக்கம்
AI அமைப்புகள் பாதுகாப்பாகவும் மக்களின் தனியுரிமையை மதிக்கவும் இருக்க வேண்டும். தனியுரிமை, தகவல் அல்லது வாழ்க்கையை ஆபத்தில் ஆழ்த்தும் அமைப்புகளில் மக்கள் குறைவான நம்பிக்கையை கொண்டிருக்கிறார்கள். இயந்திரக் கற்றல் மாதிரிகளைப் பயிற்றுவிக்கும்போது, சிறந்த முடிவுகளை உருவாக்க தரவுகளை நம்புகிறோம். இதைச் செய்யும்போது, தரவின் மூலமும் முழுமையும் கருத்தில் கொள்ளப்பட வேண்டும். உதாரணமாக, தரவு பயனர் சமர்ப்பித்ததா அல்லது பொதுமக்களுக்கு கிடைக்குமா? அடுத்ததாக, தரவுடன் வேலை செய்யும் போது, AI அமைப்புகள் ரகசிய தகவல்களைப் பாதுகாக்கவும் மற்றும் தாக்குதல்களை எதிர்க்கவும் உருவாக்கப்பட வேண்டும். AI அதிகமாக பரவுவதால், தனியுரிமையைப் பாதுகாப்பதும் முக்கியமான தனிப்பட்ட மற்றும் வணிக தகவல்களைப் பாதுகாப்பதும் மிகவும் முக்கியமாகவும் சிக்கலாகவும் மாறுகிறது. AI-க்கு குறிப்பாக தரவினை அணுகுதல் அவசியம், ஏனெனில் AI அமைப்புகள் மக்களுக்கான துல்லியமான மற்றும் தகவலளிக்கப்பட்ட கணிப்புகள் மற்றும் முடிவுகளை எடுக்க தரவின் மீது நம்பிக்கையுடன் இருக்க வேண்டும்.
🎥 வீடியோவைப் பார்க்க இங்கே கிளிக் செய்யவும்: AI-யில் பாதுகாப்பு
- தொழில்துறையாக, GDPR (General Data Protection Regulation) போன்ற விதிமுறைகளால் ஊக்குவிக்கப்பட்டு, தனியுரிமை மற்றும் பாதுகாப்பில் முக்கிய முன்னேற்றங்களை நாம் செய்துள்ளோம்.
- ஆனால் AI அமைப்புகளுடன், அமைப்புகளை மேலும் தனிப்பட்ட மற்றும் செயல்திறனுடையதாக மாற்ற தனிப்பட்ட தரவின் தேவையை – மற்றும் தனியுரிமையை – நாம் ஏற்றுக்கொள்ள வேண்டும்.
- இணையத்துடன் இணைக்கப்பட்ட கணினிகள் உருவாகிய பிறப்புடன், AI தொடர்பான பாதுகாப்பு பிரச்சினைகளின் எண்ணிக்கையில் பெரும் உயர்வு ஏற்பட்டுள்ளது.
- அதே நேரத்தில், பாதுகாப்பை மேம்படுத்த AI பயன்படுத்தப்பட்டுள்ளதை நாம் பார்த்துள்ளோம். உதாரணமாக, பெரும்பாலான நவீன வைரஸ் எதிர்ப்பு ஸ்கேனர் இன்று AI ஹியூரிஸ்டிக்ஸ் மூலம் இயக்கப்படுகின்றன.
- தரவியல் விஞ்ஞான செயல்முறைகள் சமீபத்திய தனியுரிமை மற்றும் பாதுகாப்பு நடைமுறைகளுடன் ஒத்திசைவாக கலக்கப்படுவதை நாம் உறுதிப்படுத்த வேண்டும்.
AI அமைப்புகள் புரிந்துகொள்ளக்கூடியதாக இருக்க வேண்டும். வெளிப்படைத்தன்மையின் முக்கியமான பகுதி AI அமைப்புகள் மற்றும் அவற்றின் கூறுகளின் நடத்தை விளக்குவதில் உள்ளது. AI அமைப்புகளைப் புரிந்துகொள்ளும் திறனை மேம்படுத்த, பங்குதாரர்கள் அவை எவ்வாறு மற்றும் ஏன் செயல்படுகின்றன என்பதைப் புரிந்துகொள்ள வேண்டும், இதனால் செயல்திறன் பிரச்சினைகள், பாதுகாப்பு மற்றும் தனியுரிமை கவலைகள், பாகுபாடுகள், விலக்கப்பட்ட நடைமுறைகள் அல்லது எதிர்பாராத விளைவுகளை அடையாளம் காண முடியும். AI அமைப்புகளைப் பயன்படுத்தும்வர்கள் அவற்றை எப்போது, ஏன், எப்படி பயன்படுத்த முடிவு செய்கிறார்கள் என்பதைப் பற்றியும், அவர்கள் பயன்படுத்தும் அமைப்புகளின் வரம்புகளைப் பற்றியும் நேர்மையாகவும் வெளிப்படையாகவும் இருக்க வேண்டும் என்று நாங்கள் நம்புகிறோம். உதாரணமாக, ஒரு வங்கி அதன் நுகர்வோர் கடன் முடிவுகளை ஆதரிக்க AI அமைப்பை பயன்படுத்தினால், முடிவுகளைப் பரிசீலிக்கவும் மற்றும் அமைப்பின் பரிந்துரைகளை எந்த தரவுகள் பாதிக்கின்றன என்பதைப் புரிந்துகொள்ளவும் முக்கியம். அரசாங்கங்கள் தொழில்துறைகளில் AI-யை ஒழுங்குபடுத்தத் தொடங்குகின்றன, எனவே தரவியல் விஞ்ஞானிகள் மற்றும் அமைப்புகள் AI அமைப்பு ஒழுங்குமுறை தேவைகளை பூர்த்தி செய்கிறதா என்பதை விளக்க வேண்டும், குறிப்பாக விரும்பத்தகாத முடிவு ஏற்பட்டால்.
🎥 வீடியோவைப் பார்க்க இங்கே கிளிக் செய்யவும்: AI-யில் வெளிப்படைத்தன்மை
- AI அமைப்புகள் மிகவும் சிக்கலானவை என்பதால், அவை எவ்வாறு செயல்படுகின்றன மற்றும் முடிவுகளை விளக்குவது கடினமாக உள்ளது.
- இந்த புரிதலின்欠பாடு, இந்த அமைப்புகள் எவ்வாறு நிர்வகிக்கப்படுகின்றன, செயல்படுத்தப்படுகின்றன மற்றும் ஆவணப்படுத்தப்படுகின்றன என்பதை பாதிக்கிறது.
- மேலும் முக்கியமாக, இந்த அமைப்புகள் உருவாக்கும் முடிவுகளைப் பயன்படுத்தி எடுக்கப்படும் முடிவுகளை இந்த欠பாடு பாதிக்கிறது.
AI அமைப்புகளை வடிவமைக்கும் மற்றும் செயல்படுத்தும் மக்கள், அவர்களின் அமைப்புகள் எவ்வாறு செயல்படுகின்றன என்பதற்கான பொறுப்பை ஏற்க வேண்டும். முகம் அடையாளம் காணும் போன்ற நுண்ணறிவு தொழில்நுட்பங்களுடன் பொறுப்புணர்வு மிகவும் முக்கியமானது. சமீபத்தில், முகம் அடையாளம் காணும் தொழில்நுட்பத்திற்கான தேவை அதிகரித்துள்ளது, குறிப்பாக காணாமல் போன குழந்தைகளை கண்டறிதல் போன்ற பயன்பாடுகளில் தொழில்நுட்பத்தின் சாத்தியத்தைப் பார்க்கும் சட்ட அமலாக்க அமைப்புகளிடமிருந்து. இருப்பினும், இந்த தொழில்நுட்பங்கள் ஒரு அரசாங்கத்தால் அதன் குடிமக்களின் அடிப்படை சுதந்திரங்களை ஆபத்தில் ஆழ்த்துவதற்காக, உதாரணமாக, குறிப்பிட்ட நபர்களின் தொடர்ச்சியான கண்காணிப்பை இயக்குவதற்காக பயன்படுத்தப்படலாம். எனவே, AI அமைப்பு தனிநபர்கள் அல்லது சமுதாயத்தை எவ்வாறு பாதிக்கிறது என்பதற்கான பொறுப்பை தரவியல் விஞ்ஞானிகள் மற்றும் அமைப்புகள் ஏற்க வேண்டும்.
🎥 மேலே உள்ள படத்தை கிளிக் செய்து வீடியோவைப் பாருங்கள்: முகம் அடையாளம் காணுதல் மூலம் பெருமளவு கண்காணிப்பு பற்றிய எச்சரிக்கை
இயந்திரக் கற்றல் மற்றும் AI-யை சமுதாயத்திற்கு கொண்டு வருகிற முதல் தலைமுறையாகிய நம் தலைமுறைக்கான மிகப்பெரிய கேள்விகளில் ஒன்று, கணினிகள் மக்களுக்கு பொறுப்பானதாக இருக்க வேண்டும் என்பதை எப்படி உறுதிப்படுத்துவது மற்றும் கணினிகளை வடிவமைக்கும் மக்கள் மற்றவர்களுக்கு பொறுப்பானவர்களாக இருக்க வேண்டும் என்பதை எப்படி உறுதிப்படுத்துவது என்பதாகும்.
இயந்திரக் கற்றல் மாதிரியைப் பயிற்றுவிக்கும்முன், AI அமைப்பின் நோக்கம், அதன் திட்டமிடப்பட்ட பயன்பாடு, அது எங்கு பயன்படுத்தப்படும், மற்றும் அமைப்புடன் யார் தொடர்பு கொள்ளப் போகிறார்கள் என்பதைப் புரிந்து கொள்ள தாக்க மதிப்பீட்டை நடத்துவது முக்கியம். இது அமைப்பை மதிப்பீடு செய்யும் மதிப்பீட்டாளர்(கள்) அல்லது சோதனையாளர்களுக்கு, சாத்தியமான ஆபத்துகள் மற்றும் எதிர்பார்க்கப்படும் விளைவுகளை அடையாளம் காணும்போது எந்த காரணிகளை கருத்தில் கொள்ள வேண்டும் என்பதை அறிய உதவுகிறது.
தாக்க மதிப்பீட்டை நடத்தும்போது கவனம் செலுத்த வேண்டிய பகுதிகள் பின்வருமாறு:
- தனிநபர்களுக்கு எதிர்மறை தாக்கம்: அமைப்பின் செயல்திறனைத் தடுக்கும் எந்தவொரு கட்டுப்பாடு அல்லது தேவைகள், ஆதரிக்கப்படாத பயன்பாடு அல்லது அறியப்பட்ட வரம்புகள் பற்றிய விழிப்புணர்வுடன் இருக்க வேண்டும்.
- தரவு தேவைகள்: அமைப்பு தரவுகளை எவ்வாறு மற்றும் எங்கு பயன்படுத்தும் என்பதைப் புரிந்துகொள்வது, நீங்கள் கவனமாக இருக்க வேண்டிய எந்த தரவுத் தேவைகளை (எ.கா., GDPR அல்லது HIPPA தரவுத் விதிமுறைகள்) ஆராய்வதற்கு மதிப்பீட்டாளர்களுக்கு உதவுகிறது. மேலும், பயிற்சிக்கான தரவின் மூல அல்லது அளவு போதுமானதா என்பதைப் பரிசீலிக்கவும்.
- தாக்கத்தின் சுருக்கம்: அமைப்பைப் பயன்படுத்துவதால் ஏற்படக்கூடிய சாத்தியமான பாதிப்புகளின் பட்டியலைச் சேகரிக்கவும். ML வாழ்க்கைச் சுழற்சியின் முழு காலத்திலும், அடையாளம் காணப்பட்ட பிரச்சினைகள் குறைக்கப்பட்டதா அல்லது தீர்க்கப்பட்டதா என்பதை மதிப்பீடு செய்யவும்.
- **ஆரம்ப
இந்த பாடத்தில், இயந்திரக் கற்றலில் நியாயம் மற்றும் அநியாயம் பற்றிய அடிப்படைகளை நீங்கள் கற்றுக்கொண்டீர்கள்.
இந்த தலைப்புகளை மேலும் ஆழமாகப் புரிந்துகொள்ள இந்த வேலைகளைக் காணுங்கள்:
- பொறுப்பான AI-யை நோக்கி: கொள்கைகளை நடைமுறைக்கு கொண்டு வருவது - Besmira Nushi, Mehrnoosh Sameki மற்றும் Amit Sharma
🎥 மேலே உள்ள படத்தை கிளிக் செய்யவும்: RAI Toolbox: Besmira Nushi, Mehrnoosh Sameki மற்றும் Amit Sharma ஆகியோரின் பொறுப்பான AI உருவாக்குவதற்கான ஓர் திறந்த மூல அமைப்பு
மேலும் படிக்க:
-
Microsoft-இன் RAI வள மையம்: பொறுப்பான AI வளங்கள் – Microsoft AI
-
Microsoft-இன் FATE ஆராய்ச்சி குழு: FATE: AI-யில் நியாயம், பொறுப்புணர்வு, வெளிப்படைத்தன்மை மற்றும் நெறிமுறை - Microsoft Research
RAI Toolbox:
Azure Machine Learning-இன் நியாயத்தை உறுதிப்படுத்தும் கருவிகள் பற்றி படிக்க:
குறிப்பு:
இந்த ஆவணம் Co-op Translator என்ற AI மொழிபெயர்ப்பு சேவையைப் பயன்படுத்தி மொழிபெயர்க்கப்பட்டுள்ளது. நாங்கள் துல்லியத்திற்காக முயற்சிக்கின்றோம், ஆனால் தானியங்கி மொழிபெயர்ப்புகளில் பிழைகள் அல்லது தவறான தகவல்கள் இருக்கக்கூடும் என்பதை தயவுசெய்து கவனத்தில் கொள்ளுங்கள். அதன் தாய்மொழியில் உள்ள மூல ஆவணம் அதிகாரப்பூர்வ ஆதாரமாக கருதப்பட வேண்டும். முக்கியமான தகவல்களுக்கு, தொழில்முறை மனித மொழிபெயர்ப்பு பரிந்துரைக்கப்படுகிறது. இந்த மொழிபெயர்ப்பைப் பயன்படுத்துவதால் ஏற்படும் எந்த தவறான புரிதல்கள் அல்லது தவறான விளக்கங்களுக்கு நாங்கள் பொறுப்பல்ல.





